LINEE GUIDA SULL’I.A.: COSA DICONO E COSA NON DICONO
«…
la nostra concezione della società differisce dalla società ideale
prospettata dai fascisti e da molti magnati del mondo degli affari e
della politica. Essi preferiscono una organizzazione in cui tutti i
comandi provengano dall’alto senza che sia possibile nessuna
reversibilità. Sotto di essi gli uomini sono stati ridotti al
livello di esecutori degli ordini di un centro nervoso che pretende
di essere superiore»
N.
Wiener, The
Human Use of Human Beings,
1950
«L’essere
umano è sul mercato: in primo luogo attraverso la vendita della
capacità di lavorare; poi attraverso gli intermediari della salute;
terzo, per la suscettibilità alla salute e alla malattia, al
benessere e al malessere, alla gioia e al dolore, e a tutti gli
estremi permessi dalle sensazioni, dalle emozioni e dai desideri, per
come sono misurabili dalle tecnologie ubique; infine attraverso dati
e informazioni (che sono diventati il nostro lavoro a tempo pieno),
che gli operatori della “nuova” industria aggregano e usano per
generare conoscenza, trasformandola in valore attraverso la
codificazione della vita umana»
S.
Iaconesi e O. Persico, La
cura,
2016
Prologo
Nella Premessa al
suo ultimo libro, Alessandro Aresu ci mette in guardia rispetto alle
grandi formule che «ormai
pervadono il nostro discorso pubblico sulla tecnologia, in un mondo
dove le questioni dell’intelligenza artificiale, dell’apprendimento
e del ragionamento delle macchine sono divenute onnipresenti,
ossessive»,
arrivando fino all’estrema considerazione: «L’intelligenza
artificiale è l’invenzione definitiva dell’umanità» nonché
alla consacrazione dell’I.A. e dei suoi architetti come persona
dell’anno 2025 da parte del TIME1.
Probabilmente
esagerazioni di questo tipo servono soprattuto a scuotere un’opinione
pubblica vieppiù assuefatta ai clamori, ha una funzione
pubblicitaria, uno scopo di marketing, dal quale – per altro –
le storie sull’intelligenza
artificiale non si sono mai liberate fin dal loro inizio2.
Ma,
non c’è dubbio che «I
sistemi di IA avranno un impatto sulla vostra salute, sul vostro
lavoro, sulle vostre finanze, sui vostri figli, sui vostri genitori,
sui vostri servizi pubblici e sui vostri diritti umani, se non
l’hanno già avuto»3,
soprattutto a cominciare dalle nostre scuole dove bambini e bambine,
ragazzi e ragazze e – anche – docenti e tutto il personale
iniziano a essere addestrati all’utilizzo di
questa «invenzione».
Secondo
un recente rapporto di Save
the Children4, «Il
74,2% degli adolescenti in Italia utilizza tutti i giorni o quasi
(30,9%) o qualche volta a settimana (43,3%) strumenti di Intelligenza
Artificiale. Solo il 7,5% non li utilizza mai»,
e il Focus «Adolescenti
e AI» si
conclude confermando l’urgenza di conoscere l’impatto che queste
tecnologie stanno già producendo sulla crescita, dal punto di vista
emotivo, psicologico, di dipendenza affettiva, oltre che didattico,
specialmente in un paese come l’Italia in cui meno della metà
dei/lle giovani dichiara «un
buon equilibrio psicologico» [contro
il 59.19% della media europea] e solo il 17% di quindicenni è «molto
soddisfatto della propria vita».
Intanto i risultati OCSE-PISA nel
periodo 2012/2022 hanno registrato un calo generalizzato in tutti i
paesi [Italia: -14 punti in matematica, -9 in lettura e -17 in
scienze]5.
E senza dimenticare il rinnovato allarme della Società
Italiana di Pediatria sull’aumento
dei danni causati da una precoce esposizione dei bambini al digitale:
obesità, sviluppo cognitivo, sonno, salute mentale, dipendenze
digitali, salute visiva: «posticipare
l’esposizione digitale, proteggere corpo e mente, promuovere
esperienze reali e preservare la centralità dell’adulto»6.
Tutto il contrario di ciò che accade nelle scuole!
Una
situazione che già di per sé imporrebbe – al MIM e agli altri
corifei dell’intelligenza artificiale – la necessità di un
serio, approfondito e vero confronto con chi vive quotidianamente
dentro le aule, piuttosto che l’adesione acritica alle agende
commerciali delle grandi aziende tecnologiche, come accaduto con le
ingenti risorse del PNRR, arrivando a far proprie le priorità
strategiche della Commissione
europea di
favorire l’acquisizione di capacità e competenze digitali «sin
dall’infanzia»7.
Invece
cosa succede nella Scuola italiana? Il ministero, senza neppure
attendere che si completi la “finta” sperimentazione dell’uso
dell’IA al
posto di un tutor umano [avviata nello scorso a.s. 2024/2025 in sole
15 classi, utilizzando il software «Esercizi
guidati» su Google
Workspace con
valutazione finale INValSI]
e senza che se ne conoscano i risultati8,
accelera: ad agosto ha emanato le Linee
Guida per l’introduzione dell’Intelligenza Artificiale nelle
scuole e
comincia la formazione di docenti e alunni sull’uso di questi
strumenti.
Definizioni
e contesto
Prima
di esaminare gli specifici aspetti riguardanti il testo normativo,
iniziamo da un paio di definizioni essenziali e da una breve
descrizione del contesto che possano servirci da riferimento nel
corso del ragionamento:
– Sistema di intelligenza artificiale: «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali»9. Più spesso però, al posto di questa condivisibile definizione ne viene diffusa pubblicamente un’altra, fuorviante: «sistemi di IA: intendiamo riferirci a software di computer o macchine programmati per svolgere compiti che di solito richiedono l’intelligenza umana, ad esempio l’apprendimento o il ragionamento. Utilizzando i dati è possibile “addestrare” alcuni sistemi di IA a formulare previsioni, fornire raccomandazioni o adottare decisioni, talvolta senza l’intervento umano»10.
– Macchina: «qualsiasi mezzo, artificio o meccanismo (comprese regole, protocolli, gerarchie e divisioni del lavoro) che rende possibile ciò che non lo sarebbe per come è fatto il nostro corpo, per la difficoltà del compito o la grandezza dell’obiettivo in gioco […] Con l’automazione deleghiamo alle macchine l’esecuzione di compiti ripetitivi, gravosi, rischiosi o semplicemente impegnativi; compiti sempre più complessi, ove la tecnologia disponibile ne permetta l’automazione, affinché questi compiti siano svolti in maniera sempre più efficiente ed efficace, o per il maggior agio delle persone interessate (e sottolineo: non necessariamente beneficio, ma agio)»11.
Dall’avvento
delle macchine – fin dalla prima rivoluzione industriale – la
lettura che è stata data da chi le possedeva è stata quella di
semplificare o facilitare il lavoro del lavoratore e della
lavoratrice, tacendo invece sullo spossessamento delle loro attività
e sulla maggiore possibilità di controllo e comando sul lavoro vivo
che le macchine stesse permettono.
Con la diffusione dell’I.A.
in tutti i settori lavorativi – e non solo – nel prossimo futuro
le nuove generazioni rischiano di subire ancor di più le tipiche
conseguenze dell’automazione: «meno
potere si ha sul luogo di lavoro, meno impegnative risultano le
attività che definiscono un’occupazione e più debole è la
fiducia nel proprio potere politico»12. «Studi
e analisi dimostrano che l’inclusione dei lavoratori nei processi
decisionali […]implica
un aumento non solo della soddisfazione da parte dei lavoratori e
della loro autostima, ma anche del loro interesse verso i processi
politici che si svolgono all’interno della società»13,
una partecipazione che la diffusione dei sistemi di intelligenza
artificiale nella formazione, nella selezione del personale e per il
suo sviluppo professionale stanno rapidamente sgretolando.
D’altro
canto, le tecnologie informatiche e digitali sembrano in grado di
realizzare il sogno [o meglio l’incubo] dell’ideologia
neoliberista14 che
aspira a mettere a profitto tutto il tempo e l’intero agire umano,
arrivando a trasformare il «gesto
produttivo umano in micro-operazioni sottoremunerate o non remunerate
al fine di alimentare un’economia dell’informazione basata
principalmente sull’estrazione di dati e sull’assegnazione a
operatori umani di mansioni produttive costantemente svalutate poiché
considerate troppo piccole, troppo poco visibili, troppo ludiche o
troppo poco gratificanti»,
dove perfino dietro lo svago può nascondersi il lavoro: «il
lavoro generato dagli utenti»15.
Nell’ultimo
decennio abbiamo assistito ad un sempre più consistente processo di
colonizzazione del mondo della Scuola, dagli ambiti
organizzativo-amministrativi alla didattica, da parte delle
tecnologie digitali proprietarie; tale processo, che ha visto una
forte accelerazione durante la pandemia16 che «ha
sospinto milioni di studenti [ma
anche di docenti e familiari, ndr] nelle
piattaforme proprietarie di Microsoft e Google»17,
e i successivi progetti legati al PNRR, giunge oggi al suo apice con
l’introduzione di un nuovo strumento digitale: l’intelligenza
artificiale.
Spacciata come assistente del nostro lavoro, in
grado di risolvere – in un batter d’occhio e nel modo giusto –
qualunque problematicità nel rapporto tra insegnamento e
apprendimento, garantendo diagnosi cognitive rapide e veritiere e il
cosiddetto «insegnamento
personalizzato»,
bandiera sventolata a più non posso negli scritti
ministeriali.
Questo processo ci preoccupa e ci preoccupa che
venga accolto, al di là del facile entusiasmo degli addetti ai
lavori, a cui da voce quasi tutta la stampa e una fiorente editoria,
con un atteggiamento generalizzato di rassegnazione e di
ineludibilità da buona parte del mondo docente, perché frammenta,
erode e polverizza la complessa articolazione della nostra funzione
professionale18,
spossessandoci di quelle parti che possono essere consegnate alla
“macchina”. Proprio quello che accade con i test preparati e
corretti da numerose applicazioni e con il “tutor virtuale” che
il MIM sta sperimentando.
L’intelligenza
artificiale,
macchina di calcolo statistico con funzione predittiva di proprietà
privata, di intelligente non ha nulla19,
non genera, piuttosto riproduce sulla base degli input esterni e dei
dati immagazzinati. E c’è chi pretenderebbe di sostituirla
all’umano nell’area decisionale.
Il decreto ministeriale n. 166/2025
Lo
scorso 1° settembre, il MIM ha dato notizia dell’avvenuta
registrazione del d.m. n. 166 del 9.8.2025, Concernente
l’implementazione di un servizio digitale in materia di
Intelligenza Artificiale nell’ambito della Piattaforma Unica di
cui sono parte integrante le Linee
Guida IA,
allegate allo stesso.
Nonostante i 10 articoli del decreto, le
oltre trenta pagine delle Linee
Guida e
i numerosi rimandi alla normativa nazionale e comunitaria, sembrano
più le cose non dette che quelle dette.
Le
Premesse al decreto
Le
lunghe premesse al decreto richiamano alcuni princìpi contenuti
nella normativa europea20,
ma per capire l’orizzonte di riferimento di questo decreto – un
orizzonte limitato all’acquisizione di competenze spendibili sul
mercato del lavoro: la produzione del cosiddetto capitale
umano –
è forse più significativo riprendere il Considerando (56)21 del
cosiddetto AI
Act [pure
questo citato in premessa] nel quale si evidenzia come finalità
principale – per discenti e docenti – la partecipazione attiva
all’economia, prima ancora che alla società e alla democrazia.
Concetto esplicitamente ribadito anche nella citazione
dalla Strategia
Italiana per l’Intelligenza Artificiale 2024-2026,
nella quale vengono messi insieme i «percorsi
educativi sull’IA nelle scuole» con
il finanziamento e il sostegno a «iniziative
di reskilling e upskilling in tutti i contesti produttivi»22, e
in molti altri passaggi.
Insomma: la quarta
rivoluzione industriale ha
– come tutte le precedenti – lo scopo di ridefinire la struttura
produttiva e di consumo della società, nascondendo l’impoverimento
e la disarticolazione del lavoro [anche quello “mentale”] e
l’addestramento a un consumo di massa di prodotti digitali
standardizzati [anche la formazione] dietro il mito di questo
progresso tecnologico presentato come naturale e ineluttabile se non,
addirittura, entusiasticamente auspicabile.
D’altro canto,
anche gli Orientamenti
etici per gli educatori sull’uso dell’intelligenza artificiale
(IA) e dei dati nell’insegnamento e nell’apprendimento23 della
Commissione europea [altro documento citato nelle Premesse al
decreto] fanno acriticamente proprio l’entusiasmo tecno-ottimista
diffuso dalle Big Tech, arrivando a scrivere che «L’uso
dei sistemi di IA risulta potenzialmente in grado di migliorare
l’insegnamento, l’apprendimento e la valutazione, di assicurare
risultati dell’apprendimento migliori e di aiutare le scuole a
operare in maniera più efficiente»,
senza nessuna conferma sul campo e – anzi – in aperta
contraddizione con i risultati delle ricerche al momento
disponibili24.
Risultati deficitari che sono intrinseci all’architettura stessa di
queste macchine, alle «scorciatoie»25 che
sono state scelte nella loro progettazione e che non è possibile
migliorare solo attraverso un sostenibile intervento tecnico, come
vorrebbero farci credere i seguaci del “soluzionismo”
tecnologico: «La
tesi che il problema sia quello di «‘risolvere’ i bias» grazie
a interventi tecnici non è che un «seducente diversivo»,
escogitato da aziende in conflitto di interessi che mirano a
depoliticizzare la questione»26.
Gli
articoli del decreto e l’IA antropocentrica
Dopo
queste lunghe premesse che, insieme alle Linee
Guida IA,
sono «parte
integrante e sostanziale del Decreto»,
il ministero prova a ordinare nei primi sei articoli l’oggetto, le
finalità, le modalità di accesso degli «utenti» [in cui è
compreso anche tutto il personale scolastico] e le due «sezioni»
[una pubblica, «Linee
Guida IA» e
una riservata agli utenti autorizzati per l’inserimento
dei «Progetti
IA»]
di quello che definisce «servizio
digitale».
La
principale finalità sarebbe quella di «promuovere
nel mondo dell’istruzione l’innovazione tecnologica e la
diffusione di un’IA antropocentrica, sicura, affidabile, etica e
responsabile» [art.
2, comma 3, lett.a)]. Una definizione «umana» dell’intelligenza
artificiale, ripresa dai documenti comunitari e che verrà
semplicemente ripetuta nelle Linee
Guida,
ma che rimane una vuota dichiarazione di principio, dietro la quale
si nasconde la sostanza dei profitti delle aziende del digitale e
della trasformazione del lavoro e del consumo27.
Viene,
quindi, prevista la valutazione rischio/opportunità [art. 2, comma
3, lett.c)], per «un
uso attento e consapevole delle nuove tecnologie»,
uno strumento inadatto, mutuato dall’armamentario della cultura
manageriale privata, derivante dal modello di riferimento «del
mercato autoregolantesi sulla base di processi competitivi»28,
che già tanti danni ha fatto alla Scuola pubblica. Un approccio
basato sulla cosiddetta mitigazione
del rischio,
piuttosto che sulla tutela piena dei diritti, che – in un ambito di
estrema incertezza e profonda invasività come quello delle
tecnologie digitali in continua evoluzione – dovrebbe invece
comportare la maggiore cautela possibile e possibilmente prevedere
una «“illegalità
di default” per i sistemi di AI»29,
facendo ricadere interamente sulle aziende produttrici la
responsabilità di dimostrare che sia «sicura,
affidabile, etica e responsabile»,
a pena del divieto del suo utilizzo.
I successivi tre articoli
riguardano il trattamento dei dati, con l’ovvia dichiarazione
del «rispetto
dei principi del GDPR, del Codice in materia di protezione dei dati
personali e del CAD» e
la ripartizione delle responsabilità tra MIM, titolare dei dati
degli utenti della sezione privata; scuole, per i dati inseriti nella
sezione «Progetti
IA»;
e la SOGEI S.p.A. che, in quanto affidataria del sistema informativo
del ministero, è «responsabile
del trattamento dei dati personali».
Una società, la SOGEI, che – al pari del consiglio del Garante
della privacy30 –
ha i suoi vertici coinvolti in svariate inchieste31.
L’ultimo
articolo annuncia l’attivazione del «Servizio» [ancora
senza i progetti delle scuole], ma soprattutto il rinvio ad
ulteriori «appositi
decreti ministeriali» per
disciplinare le modalità con cui le scuole dovranno progettare e
realizzare le iniziative di IA, la formazione nonché l’aggiornamento
delle stesse Linee
Guida adottate
col decreto.
Naturalmente, «All’attuazione
di quanto previsto dal presente Decreto, si provvede senza nuovi o
maggiori oneri per la finanza pubblica»!
Le Linee Guida per l’introduzione dell’IA nelle scuole
Le Linee Guida sono suddivise in sei Paragrafi principali, con una premessa e due Glossari.
Paragrafo
1. Il ruolo dell’IA nella Scuola
Il
testo si apre con la roboante definizione dell’IA come «tecnologia
rivoluzionaria», ribadendo
l’ispirazione a un «approccio
antropocentrico, incentrato sul rispetto della dignità umana e dei
diritti e delle libertà fondamentali».
1.1 Il
ministero intende introdurre l’IA nelle scuole – in ambito
didattico e in ambito gestionale – «per
rafforzare la competitività del sistema educativo italiano» e
per farlo propone alle scuole autonome una «metodologia
condivisa»,
promuove la diffusione di una «IA
antropocentrica»,
incentiva un «uso
uniforme» dell’IA
e favorisce la conoscenza delle «opportunità» e
dei «rischi» legati
al suo uso.
Le scuole «nell’ambito
della propria discrezionalità» potranno
attivare le loro iniziative di IA. Il procedimento è solo accennato
[cfr. par. 4.1.1], ma – dai primi passi che si stanno muovendo
nelle scuole e nel rispetto della normativa vigente – dovrebbe
comportare un atto di indirizzo del dirigente, una successiva
elaborazione e approvazione in collegio dei docenti e quindi
un’integrazione al PTOF da parte del consiglio d’istituto.
Naturalmente dovrà esserci pure il coinvolgimento delle RSU per
eventuali aspetti relativi ai compensi del personale interessato.
Ma
su questi aspetti dovranno arrivare i successivi «appositi
decreti» previsti
dall’art. 10 del d.m. e ricordati nelle Linee
Guida.
Le
finalità indicate, a titolo non esaustivo, sono sempre le solite
presenti nella pubblicistica ministeriale, senza ulteriori
approfondimenti o specifici adattamenti: migliorare l’apprendimento;
promuovere l’inclusione; semplificare e ottimizzare i processi
amministrativi; potenziare la qualità e l’efficienza dei servizi;
garantire una preparazione continua e specifica per l’adozione di
nuove tecnologie.
È responsabilità della singola scuola
garantire la tutela e le libertà fondamentali degli
interessati.
Quindi sono indicate alcune delle «pratiche
vietate» contenute
nell’art. 5, par. 1 dell’AI
Act:
uso di tecniche subliminali o volutamente manipolative o ingannevoli;
valutazione o classificazione delle persone sulla base del
comportamento o di caratteristiche personali, con punteggi e
trattamenti pregiudizievoli o sfavorevoli; categorizzazione
biometrica che classificano le persone per trarre deduzioni o
inferenze in merito a razza, opinioni politiche, appartenenza
sindacale, convinzioni religiose o filosofiche, vita sessuale o
orientamento sessuale; individuare le emozioni di una persona in
ambito scolastico, tranne se sia per motivi medici o di
sicurezza.
Questo tipo di esclusioni sono
state oggetto di forti critiche, da parte delle associazioni per la
difesa dei diritti umani, fin dall’approvazione dell’IA
Act,
perché permettono «scappatoie,
ritagli ed eccezioni, il che significa che non proteggerà le
persone, né i loro diritti umani, da alcuni degli usi più
pericolosi dell’IA»32.
Tra l’altro, proprio in questi giorni la Commissione
UE,
sempre oggetto di costose attenzioni delle lobby del web33,
ha previsto «una
moratoria di un anno per i sistemi ad alto rischio e il rinvio delle
sanzioni al 2027. Dietro la scelta, le pressioni di Big Tech e la
paura di frenare l’innovazione»34.
Infine, a indebolire ulteriormente l’efficacia delle limitate
tutele dell’AI
Act concorre
anche la nostra legislazione nazionale. Infatti la recente l. n.
132/2025 Disposizioni
e deleghe al Governo in materia di intelligenza artificiale,
rimanda a un futuro imprecisato questioni cruciali come la
definizione dei poteri di vigilanza delle autorità di controllo e –
soprattutto – non stanzia risorse aggiuntive per assolvere ai
propri compiti: garantire «la
vigilanza sui rischi economici e sociali e sull’impatto sui diritti
fondamentali dell’intelligenza artificiale»35.
Il
sotto-paragrafo si conclude con l’indicazione dei «sistemi
di IA ad alto rischio»,
secondo quanto previsto dall’art. 6, par. 2, dell’AI Act, che per
il settore dell’istruzione e della formazione professionale,
[Allegato III] comprende i sistemi utilizzati per: a) determinare
l’accesso, l’ammissione o l’assegnazione di persone; b)
valutare i risultati dell’apprendimento; c) valutare il livello di
istruzione adeguato che una persona riceverà o a cui potrà
accedere; d) monitorare e rilevare comportamenti vietati degli
studenti durante le prove o all’interno di istituti.
A questo
proposito, il Considerando
(56) dello
stesso AI
Act aggiunge
che questi sistemi «ad
alto rischio»,
nella misura in cui possono determinare il percorso d’istruzione e
professionale della vita della persona, incidendo sulla sua capacità
di garantire il proprio sostentamento, «se
progettati e utilizzati in modo inadeguato, […] possono essere
particolarmente intrusivi e violare il diritto all’istruzione e
alla formazione, nonché il diritto alla non discriminazione, e
perpetuare modelli storici di discriminazione»,
su donne, anziani, disabili, etnie, orientamento sessuale.
Ma il problema non deriva solamente dal progetto o dall’uso «inadeguato» di queste macchine, bensì dalla loro strutturale impossibilità – in quanto funzionanti su basi statistiche – di prendere nella dovuta considerazione le aree marginali36 di quelle categorie su cui sono stati ottimizzati gli algoritmi. «Le decisioni basate sui sistemi di apprendimento automatico sono infatti costitutivamente discriminatorie, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto»37.
1.2 Il MIM ha definito un modello di introduzione dell’IA fondato su quattro pilastri, illustrati nei successivi 4 paragrafi: Principi di riferimento; Requisiti di base; Framework di implementazione dell’IA; Comunicazione e governance.
Paragrafo
2. Principi di riferimento
Il
MIM indica sei principi generali per guidare l’introduzione dell’IA
nella scuola: la centralità della persona; l’equità;
l’innovazione etica e responsabile; la sostenibilità; la tutela
dei diritti e delle libertà fondamentali e infine la sicurezza dei
sistemi e modelli di IA.
Per quanto riguarda l’etica e
l’equità è fatto un esplicito richiamo alle Ethical
guidelines on the use of artificial intelligence (AI) and data in
teaching and learning for educators,
elaborato nel 2022 dal Gruppo
di esperti della CE,
un documento che secondo Daniela Tafani «recepisce
acriticamente» quanto
propagandano i mercanti dell’IA. Come già detto, questi documenti
appaiono prigionieri delle logiche con cui le grandi aziende sono
riuscite a catturare sia i decisori politici sia l’opinione
pubblica, anche grazie al ruolo di megafonoche ha assunto
l’università38,
sempre alla ricerca di finanziamenti privati una volta che le
politiche neoliberali hanno ridotto drasticamente quelli
pubblici, «questo
panorama finanziario crea condizioni strutturali che spingono i
ricercatori a partecipare a questa economia della virtù»39.
Secondo
il testo ministeriale, sono tre gli aspetti a cui il principio di
sostenibilità dovrebbe riferirsi: quello sociale, economico e
ambientale, ma anche in questo caso – oltre la generica
dichiarazione d’intenti – non c’è nessun particolare
approfondimento. Esistono, invece, ormai numerosi studi che
dimostrano la scarsa sostenibilità ambientale di queste tecnologie.
Secondo un recente paper dell’OCSE40,
soltanto per quanto riguarda i cosiddetti «effetti
diretti» [consumo
di energia, acqua e risorse minerali, emissioni e rifiuti,
prescindendo quelli «indiretti» e
quelli «di
ordine superiore»],
entro il 2026, si stima un consumo di elettricità per l’IA
paragonabile a quello di Austria e Finlandia. Secondo l’UNEP41:
una singola query a un LLM consuma quasi 10 volte l’energia di una
ricerca web; il cosiddetto “addestramento” di un singolo LLM
genera circa 300.000 kg di emissioni di anidride carbonica; i data
center nel mondo dal 2012 sono aumentati da 500.000 a oltre 8 milioni
e il loro consumo energetico raddoppia ogni quattro anni; nel 2027 si
stima che la domanda globale di acqua che serve per l’IA possa
raggiungere i 4,2–6,6 miliardi di metri cubi; solo il 22% dei
rifiuti elettronici viene riciclato e smaltito in modo ambientalmente
sostenibile e anche i tassi di riciclo sono bassi: dal misero 1%
delle terre rare al 46% del rame. L’UNEP conclude
così la sua Nota: «ad
oggi, non esiste un modo standardizzato di misurare, segnalare o
mitigare l’impatto ambientale dell’IA».
Intanto,
Google, Amazon, Meta e Microsoft intendono riaprire vecchie centrali
nucleari dismesse o costruirne di nuove42.
A
proposito della sostenibilità sociale dell’IA, la stessa Nota
dell’UNEP riconosce
che «l’uso
diffuso dell’IA può aggravare le disuguaglianze esistenti,
colpendo in particolare donne, minoranze e individui provenienti da
contesti a basso reddito. Ciò è principalmente causato da bias e
scarsa qualità dei dati di addestramento, come la scarsità di dati
provenienti da gruppi sottorappresentati che porta a decisioni
favorevoli ad altri gruppi».
Infine,
per quanto riguarda la presunta sicurezza e robustezza dei sistemi,
bisogna tenere presente che «i
modelli IA possono accorgersi di essere testati e nel caso sviluppano
comportamenti ingannevoli per soddisfare le aspettative dell’utente.
Un problema che ostacola i test di safety del modello»43.
Paragrafo
3. Requisiti di base per l’introduzione dell’IA
I
requisiti di base suggeriti dal ministero sono di tre tipi: etici,
tecnici e normativi.
3.1 I
requisiti etici si realizzerebbero attraverso l’intervento e la
sorveglianza umana, la trasparenza e la spiegabilità, l’attribuzione
di ruoli e responsabilità, criteri per evitare discriminazioni.
Ma
quali strumenti hanno a disposizione le scuole per poterne accertare
la presenza? A meno che tutto non si risolva con quanto previsto dal
gruppo di esperti nominati per la stesura di presunti «orientamenti
etici» dalla
Commissione europea: «può
essere superfluo comprendere il modo di funzionamento del sistema, ma
è importante che la scuola o l’educatore siano in grado di
formulare alcune domande pertinenti e di avviare un dialogo
costruttivo con i fornitori di sistemi di IA o con gli enti pubblici
responsabili»44.
Cioè? Come chiedere all’oste se il suo vino è buono!
3.2 Secondo il MIM è sufficiente una «particolare attenzione» riguardo i requisiti tecnici che i sistemi di IA devono possedere in ordine a: sicurezza, equità e affidabilità. Rimandando alle centinaia di pagine delle Linee guida dell’Agenzia per l’Italia Digitale e dell’Agenzia per la Cybersicurezza Nazionale per gli aspetti specifici. Vengono comunque individuati i principali requisiti da considerare: certificazione e conformità dei fornitori, gestione responsabile dei dati, gestione del diritto di non partecipazione ed equità del sistema di IA. Anche in questo caso non è chiaro come effettivamente poter verificare l’effettiva esistenza dei requisiti previsti.
3.3 Il
sottoparagrafo dedicato ai requisiti normativi per la protezione dei
dati personali è il più esteso tra quelli delle Linee Guida, forse
a causa della legittima preoccupazione di non incorrere in eventuali
infrazioni e conseguenti sanzioni, ma – di fatto – come è ovvio
non aggiunge nulla a quanto già previsto dalla normativa
preesistente – dal GDPR al Codice
in materia di protezione dei dati personali,
dall’IA
Act alle Linee
guida del Gruppo Art. 29 –
che viene continuamente richiamata nel testo e il cui rispetto è
responsabilità di ogni singola scuola «che
agisce in qualità di titolare del trattamento, qualora il Sistema di
IA implementato preveda il trattamento di dati personali»,
anche se «Resta
ferma, in ogni caso, l’eventuale titolarità autonoma del
Ministero, che lo stesso valuterà in concreto rispetto a ciascuna
applicazione dei Sistemi di IA che potrà essere utilizzata».
Viene inoltre ricordato che il MIM dovrà emanare altri decreti per
disciplinare la progettazione e realizzazione delle singole
iniziative di IA, la formazione e ulteriori elementi di controllo
sull’operato delle singole scuole. Ovviamente è sottolineata la
necessità di rispettare il Testo
Unico dell’istruzione il
d.lgs. n. 297/1994 e la l. n. 92/2019 sull’Introduzione
dell’insegnamento scolastico dell’educazione civica,
per quanto riguarda la «cittadinanza
digitale» e
la cosiddetta «alfabetizzazione
digitale».
Sono,
infine, elencati i principali adempimenti che riguardano le scuole:
individuazione di una specifica base giuridica, esecuzione di una
valutazione di impatto – DPIA [per la quale si consiglia
la «metodologia
HUDERIA»45],
rilascio informativa sul trattamento dei dati personali, nomina dei
soggetti autorizzati al trattamento dei dati personali e dei
responsabili, adozione di misure tecnico-organizzative, tenuta del
registro delle attività del trattamento, notifica eventuali
violazioni dei dati al Garante e comunicazione agli interessati,
insomma tanto altro lavoro burocratico per evitare contestazioni.
Paragrafo
4. Come introdurre l’IA nelle scuole
Le Linee
Guida classificano
tre ambiti principali in cui introdurre l’IA: al servizio degli
studenti, a supporto dei docenti e a sostegno
dell’organizzazione.
Quindi sono indicate le istruzioni
operative e gli strumenti di accompagnamento nonché possibili esempi
pratici [?] per la didattica e l’organizzazione.
Infine, sono
elencati alcuni rischi e le relative azioni di mitigazione.
4.1 Istruzioni
operative e strumenti di accompagnamento
L’approccio
metodologico proposto dalle Linee
Guida ricalca
le fasi essenziali del project
management aziendale,
ne adotta il linguaggio e ne sottintende anche l’organizzazione del
lavoro nei suoi cinque passaggi: definizione, pianificazione,
adozione, monitoraggio, conclusione.
4.1.1 Definizione
– Definizione del progetto e approvazione iniziale
Identificazione
del bisogno: una volta selezionati i casi d’usosu cui introdurre
l’IA, l’identificazione del bisogno si basa sui «documenti
programmatici della scuola» [RAV,
PdM, PTOF, ecc.] che – come ben sappiamo per esperienza diretta –
sono spesso il risultato del lavoro del dirigente e di una ristretta
schiera di docenti che gli gravita intorno e che, ancor più spesso,
esprimono concezioni e aspettative spesso non sufficientemente
approfondite da tutta la comunità scolastica prima delle necessarie
approvazioni collegiali. Di fatto questa progettazione non nasce da
un’effettiva condivisione di obiettivi e finalità e consolida
quella struttura gerarchica della scuola-azienda che tanti danni sta
facendo alla Scuola pubblica.
Identificazione degli stakeholder:
anche in questo caso la concezione imprenditoriale da cui deriva
rischia il coinvolgimento di soggetti esterni “forti” che possono
influenzare significativamente le scelte da assumere, nonostante le
presunte tutele per i soggetti più deboli e vulnerabili che sono
previste dallo Stakeholder
Engagement Process – SEP del modello
HUDERIA.
Un processo che in ogni caso verrebbe sempre condotto da “gruppi di
progetto” ristretti.
Nonostante gli auspici alla
partecipazione di tutta la comunità scolastica contenuti nelle Linee
Guida,
il rischio che invece si consolidi una visione gerarchica e
piramidale è confermata dall’affermazione
conclusiva: «Nell’attivazione
di questo processo gioca un ruolo strategico la leadership del
dirigente scolastico».
4.1.2 Pianificazione
– Elaborazione dettagliata del progetto
Piano del progetto:
prevede l’individuazione del team,
i costi e la valutazione delle milestone in
cui è scomposto il progetto stesso.
Piano di gestione dei
rischi: sostanzialmente rimanda al The
Risk and Impact Assessment di HUDERIA e
al successivo Paragrafo 4.3 «Mitigazione
dei rischi» delle Linee
Guida.
Insomma tutto il gran parlare di «etica» sembra ridursi
alla «questione
della conformità procedurale a un «anemico set di strumenti» e
standard tecnici»46.
4.1.3 Adozione
– Implementazione del progetto
È suggerito un
approccio «graduale» accompagnato
da iniziative, guidate dal dirigente, di comunicazione, informazione
e formazione che faciliti il consenso e la motivazione dei singoli,
chiaro esempio di coaching
motivazionale aziendale.
4.1.4 Monitoraggio
– Verifica e miglioramento continuo
Il monitoraggio procede
parallelamente all’adozione, sia per verificare il raggiungimento
delle diverse fasi in sui è scomposto il progetto [milestone]
sia per controllare gli output dei sistemi IA impiegati, anche per
un’eventuale rivalutazione dei rischi e degli impatti [come
previsto dalla metodologia
HUDERIA]
e una condivisione con gli organi collegiali e gli stakeholder,
nell’ottica della rendicontazione sociale.
4.1.5 Conclusione
– Valutazione del risultato
Attraverso: la verifica del
risultato finale, l’analisi delle lezioni apprese, la
valorizzazione dei risultati e il riconoscimento del team: «preziosa
occasione per incoraggiare il senso di appartenenza, il clima
positivo e valorizzare il coinvolgimento attivo»,
tipico approccio imprenditoriale al lavoro.
4.2 Focus:
aree di applicazione per tipologia di destinatari
Questo
sottoparagrafo rafforza la visione aziendalistica attraverso alcuni
esempi pratici di applicazione dell’IA nelle scuole, che
enfatizzano i ruoli individuali e sfumano il ruolo degli organi
collegiali, citati solo cinque volte in tutto il testo.
Dirigente scolastico. Secondo le Linee Guida «Il dirigente scolastico rappresenta la figura chiave per condurre la scuola lungo un percorso di transizione digitale incentrato sull’utilizzo dell’IA ed è chiamato a facilitare l’innestarsi di processi virtuosi che permettano l’innovazione e l’adattamento dell’istruzione alla realtà che cambia. L’IA può rafforzare questa leadership, consentendo di ottimizzare e ridurre le tempistiche dei processi considerati più routinari e standardizzabili. Il dirigente scolastico, grazie all’aiuto di sistemi di Intelligenza Artificiale, può potenziare i necessari processi di analisi che supportano le decisioni, affrontando sfide moderne in modo più strategico ed efficace». Le decisioni dirigenziali avrebbero, dunque, il supporto dell’IA sul: monitoraggio dei documenti programmatici, la pianificazione della formazione, l’ottimizzazione nell’organizzazione dell’orario, miglioramento della comunicazione.
Personale amministrativo. La gestione amministrativa [organizzazione delle richieste, gestioni di comunicazioni periodiche, gestione dei beni mobili] dovrebbe essere ottimizzata dall’uso dell’IA addirittura «riducendo significativamente l’errore umano», un’affermazione che però è smentita da studi sul campo che dimostrano che l’IA può commettere più errori degli operatori umani47, che «la tecnologia potrebbe effettivamente costringere le persone a più lavoro, non a meno»48 o che il 95% dei progetti di GenAI fallisce, secondo un recente studio del MIT49.
Docente. Oltre all’inevitabile pressione verso una “formazione” «imprescindibile» ridotta a forzoso addestramento all’uso delle tecnologie scelte per il progetto, per quanto riguarda l’attività didattica ci troviamo di fronte al più duro attacco che l’insegnamento ha dovuto finora affrontare: la complessa relazione umana e sociale che costituisce la sostanza viva del rapporto tra docente e discente viene frammentata, alcune parti scorporate e affidate alla macchina. Non più che un «supporto» suggerisce il testo, visto che «L’IA non dovrebbe [sic!] sostituire l’interazione umana e l’insegnamento diretto», ma la vita in aula ci racconta ben altro: con la promessa di agevolare, queste tecnologie digitali «invitano con «spintarelle gentili» a lasciar perdere laboriose metodologie di valutazione degli apprendimenti, per valutare la qualità, per passare senz’altro a test quantitativi a risposta chiusa, che l’applicazione stessa correggerà. Verrà così evitata una certa fatica nella formulazione di modalità di verifica, in modo che il rapporto con il sapere dei discenti si faccia sempre più liscio e frictionless, senza attriti […] Il lavoro di insegnamento, apprendimento e ricerca si curva impercettibilmente ma significativamente verso traiettorie mai decise in maniera consapevole»50. Ci si ritrova così spossessati di parti qualificanti del nostro lavoro, dalla personalizzazione dei materiali didattici, alla scelta degli strumenti interattivi e innovativi, dall’organizzazione di visite didattiche e attività extracurriculari, alla redazione di rubriche di valutazione, fino al tutoraggio. Una frammentazione, parcellizzazione e semplificazione del lavoro didattico che spossessa i docenti – formalmente però sempre più qualificati – di parte delle loro attività, per affidarle all’imperscrutabile funzionalità della macchina, che nel tempo indebolisce l’identità lavorativa, determina una sempre più scarsa solidarietà e, conseguenza inevitabile, retribuzioni più basse, come accaduto nel tempo a tante altre professioni travolte dalle rivoluzioni tecnologiche. Aspetto particolare di quella più generale «evoluzione sociale» che affianca quella tecnica: «la progressiva creazione di […] una popolazione lavoratrice conforme ai bisogni di questa organizzazione sociale del lavoro, nella quale la conoscenza della macchina diventa un tratto specialistico e separato, mentre nella massa dei lavoratori fioriscono solo l’ignoranza, l’incompetenza e quindi la propensione alla dipendenza servile dalla macchina»51. Una situazione che nella Scuola 4.052 è chiaramente espressa nella gerarchia dei 6 livelli di competenza, da Novizio (A1) a Pioniere (C2), previsti dal DigCompEdu53. Tenendo presente che tra i lavoratori della conoscenza «una maggiore fiducia nella GenAI è associata a un minor pensiero critico, mentre una maggiore fiducia in se stessi è associata a un pensiero critico maggiore […] sebbene GenAI possa migliorare l’efficienza dei lavoratori, può inibire l’impegno critico nel lavoro e può potenzialmente portare a un eccessivo affidamento a lungo termine allo strumento e a una diminuzione delle capacità di risoluzione indipendente dei problemi»54.
Studente.
Quanto viene previsto per studenti e studentesse in qualche modo
completa quella «evoluzione
sociale» di
cui si trattava a proposito dei docenti: in quanto futura forza
lavoro – risorsa
umana – «devono
essere preparati a diventare co-creatori attivi di contenuti con
l’IA, nonché futuri leader che definiranno il rapporto di questa
tecnologia con la società»,
solo belle parole per dire che la stragrande maggioranza di loro
dovrà essere addestrata – secondo quanto previsto dal DigComp
2.255 –
a diventare appendice di quelle macchine intorno alle quali si
dovrebbe distribuire la società futura, secondo la visione dei
proprietari delle Big Tech.
Anche per loro sono prospettate
semplificazioni e facilitazioni attraverso
una «personalizzazione» “rapida”
con «feedback
immediati»,
ma che rischia di essere la peggiore delle discriminazioni perché
condanna ognuno a rimanere nella situazione in cui si trova, magari
ampliando i divari già esistenti proprio a causa di un adeguamento
automatico dell’offerta formativa. Per altro, anche sugli aspetti
legati all’inclusione bisogna fare attenzione. Non c’è dubbio
che si «possono
fornire soluzioni efficaci per alcuni deficit circoscritti della
maggior parte delle persone disabili»56,
ma, come ribadito recentemente dall’OCSE, «una
preoccupazione fondamentale nell’adozione degli strumenti di IA
risiede nel rischio di perpetuare il tecno-abilismo – l’assunzione
che la tecnologia debba rendere gli individui abili e neurotipici
(Shew, 2020). Questa prospettiva emargina coloro che non si
conformano agli standard normativi e ignorano la loro autonomia e le
esperienze vissute […]Sono
necessarie ulteriori ricerche per valutare se i benefici marginali
dell’uso dell’IA siano giustificati, considerando i rischi
dell’IA in termini di uso improprio dei dati, costi finanziari e
ambientali, e pregiudizi»57.
Infine, la presunta «promozione
dell’autonomia» promessa
dall’IA si scontra con quanto già detto a proposito dei lavoratori
della conoscenza: può inibire l’approccio critico e portare a un
eccessivo affidamento alla macchina e quindi a una diminuzione di
autonomia.
4.3 Mitigazione
dei rischi
Anche in questo ambito le Linee
Guida affidano
al dirigente scolastico e al suo staff il controllo sulle cosiddette
azioni di mitigazione, e di conseguenza su chi deve metterle in atto,
ancora una volta sulla scorta della metodologia
HUDERIA:
protezione dei dati, programmi di manutenzione, progettazione etica
degli algoritmi, migliore comprensione dell’IA, formazione
continua, integrazione di sistemi ibridi, interazione sociale,
promozione del dialogo e del coinvolgimento.
Riemerge anche in
questo caso una visione tecno-ottimista «influenzata
dal “pregiudizio soluzionista” che trasforma ogni questione
sociale o politica in una questione tecnica, poiché “incorpora
l’idea che il modo per risolvere un problema sia trovare un
obiettivo su cui ottimizzare”»58.
4.4 Consapevolezza
e responsabilità nell’utilizzo dell’IA
A chiusura del
paragrafo dedicato all’introduzione dell’IA nelle scuole, ai/lle
docenti viene ricordato il proprio «fondamentale» ruolo
di guida e supporto allo sviluppo dell’autonomia dei/lle discenti,
nonché la necessità «imprescindibile» di
un costante aggiornamento. Al dirigente e al suo staff è affidato il
compito di verificare l’adeguatezza dei sistemi di IA.
Paragrafo
5. Comunicazione e governance
Il quarto
pilastro del
modello ha l’obiettivo di «facilitare
il pieno allineamento tra le indicazioni e le direttive del Ministero
e le progettualità realizzate dalle Istituzioni scolastiche, nonché
supportare il coinvolgimento e la sensibilizzazione dei diversi
stakeholder sul tema, dedicando particolare attenzione alla
governance dell’IA nelle Istituzioni scolastiche»,
col coordinamento degli USR. Il MIM «assumerà
un ruolo proattivo di monitoraggio, intercettando potenziali
criticità al fine di evitare disfunzioni operative e tutelare la
reputazione delle Istituzioni scolastiche».
Insomma,
le scuole dovranno allinearsi, subire eventuali condizionamenti di
soggetti esterni, mentre il ministero sorveglierà, effettuando
anche «valutazioni
a campione».
Paragrafo
6. Conclusioni
Le
conclusioni ribadiscono la «grande
opportunità» che
si presenta alle scuole e che il MIM intende «sostenere
e promuovere»,
e la necessità di un impegno costante da parte di tutti. Le Linee
Guida offrirebbero «una
struttura chiara e operativa» per
l’introduzione dell’IA nelle scuole, con un approccio graduale
per «raggiungere
gli obiettivi prefissati e costruire una scuola più inclusiva, equa
e preparata ad affrontare le sfide del futuro».
Che fare?
Queste Linee
Guida sono
un ulteriore esempio dell’efficacia della «cattura
del regolatore» da
parte delle imprese Big Tech che, fin dalla pubblicazione, nel 2019,
delle Ethics
Guidelines for Trustworthy Artificial Intelligence (AI),
redatte dall’High-Level
Expert Group on Artificial Intelligence della
Commissione europea, mostrano la loro capacità di orientare verso i
propri interessi la discussione pubblica anche in questo settore.
Un
altro caso di ethics
washing: «”L’industria
organizza e coltiva dibattiti etici per guadagnare tempo – per
distrarre il pubblico e per prevenire o almeno ritardare una
regolamentazione e un processo decisionale efficaci”. Più in
generale, per Metzinger [uno
degli esperti che ha partecipato alla redazione delle Ethics
Guidelines,
ndr] la
storia di una “IA affidabile” è una narrazione di marketing
inventata dall’industria come “una storia della buonanotte per i
clienti di domani”».
«Il
lavaggio dell’etica nell’intelligenza artificiale è un ulteriore
passo di colonizzazione di contesti istituzionali che mostra la
portata e la velocità dell’azione aziendale. Un uso retorico
dell’etica nella dichiarazione è una potente strategia per
contrastare l’immagine dei lobbisti come sostenitori di un
“interesse speciale” e per integrarli tra i custodi
dell’“interesse pubblico” della scienza […] In
questa visione, l’intervento di lobbying passa dal mettere in
discussione le prove al mettere in discussione la loro legittimità,
fino ad agire come un modo per creare una visione del mondo in cui
non solo le prove, ma anche l’idea stessa di regolamentazione,
diventano irrilevanti o indesiderabili, se non come veicolo per la
ricerca di interessi privati. Coinvolti in questo progetto, la
scienza e il suo futuro appaiono vulnerabili»59.
Per altro verso questo testo, con le sue prescrizioni progettuali, il rafforzamento di ruoli e gerarchie rappresenta un altro esempio della penetrazione della cultura aziendale con cui si sta stravolgendo il ruolo della Scuola pubblica, da istituzione a impresa produttrice di formazione ridotta a merce.
Resistere a tutto questo è necessario, specialmente nella Scuola, per questa ragione sosteniamo la campagna «I.A. BASTA»60: un appello contro queste tecnologie centralizzate di dominio, una mozione da presentare in collegio docenti contro l’introduzione dell’IA nella didattica e un questionario per conoscere cosa ne pensa chi quotidianamente lavora in classe con i nostri ragazzi e le nostre ragazze.
A questo progetto non possiamo affidarci né affidargli le generazioni a venire, bocciamo nei collegi docenti eventuali proposte di introduzione acritica di queste tecnologie nella didattica, per la difesa del nostro lavoro e per il bene dei nostri studenti e delle nostre studentesse.
____________
NOTE
1. A. Aresu, Geopolitica dell’intelligenza artificiale, 2024
Time, 11.12.2025 https://time.com/7339685/person-of-the-year-2025-ai-architects/
2. A. Aresu, Geopolitica dell’intelligenza artificiale, cit. «Nel dibattito, trasmesso dalla BBC, McCarthy ammette perché ha inventato nel 1955 l’espressione «intelligenza artificiale»: per avere fondi. […] Parlare di “intelligenza artificiale”, con “l’obiettivo a lungo termine di raggiungere un’intelligenza di livello umano”, serve per attirare attenzione e soldi. È un’intuizione di marketing».
3. M. Murgia, Essere umani. L’impatto dell’intelligenza artificiale sulle nostre vite, 2025
4. D. Biella, a cura di, Atlante dell’infanzia (a rischio) in Italia 2025. Senza filtri. Voci di adolescenze, novembre 2025
5. OECD (2024), PISA 2022 Results, PISA, OECD Publishing, Paris.
6. S.I.P., Bambini troppo digitali, troppo presto: ogni ora di schermo è un rischio per corpo e mente, 2025.
7. Commissione europea, Ethical guidelines on the use of artificial intelligence (AI) and data in teaching and learning for educators, 2022.
8. M. Conti, La finta “sperimentazione” dell’intelligenza artificiale nelle scuole, Domani, 12.8.2025. «La percezione è che dietro alla presunta sperimentazione ci sia «un disegno politico», cioè la volontà di introdurre l’assistente virtuale nelle scuole, a prescindere dai riscontri. «Tanto valeva dire “noi vogliamo introdurre l’intelligenza artificiale a scuola, chi vuole aderisca, tanto tra due anni lo generalizziamo”. Sarebbe stato più onesto». E dire che le possibilità per una ricerca serie esistevano: «Bisognava affidarsi a una equipe scientifica seria, e in Italia ne abbiamo – spiega Maviglia – Ci sono tante università italiane che hanno la cattedra di pedagogia sperimentale. Si sarebbe potuta avviare una sperimentazione con tutti i crismi della scientificità. Però ci vogliono tempo e soldi, non ci si può improvvisare così».
9. Regolamento (EU) 2024/1689 del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale [AI Act], art. 3, n. 1)
10. Commissione europea, Ethical guidelines, cit.
11. F. Cabitza, Deus in Machina? L’uso umano delle nuove macchine, tra dipendenza e responsabilità, 2021
12. C. Pateman, Partecipation and Democratic Theory, 1970
13. A. Honnet, Democrazia e divisione sociale del lavoro, in AA.VV., Perché lavoro? 2020
14. «si usa designare come neoliberismo o neoliberalismo un’ideologia universale che afferma che qualunque settore della società, ciascun individuo in essa e, infine, la società intera in quanto somma dei due elementi precedenti, può funzionare meglio, costare meno, presentare minor problemi, essere più efficace ed efficiente qualora sia governata in ogni momento dai principi di una razionalità economica e strumentale […] Non solo l’economia, l’impresa o il commercio dovrebbero essere organizzati e gestiti secondo il principio della razionalità economica ma anche i servizi pubblici: scuola, sanità, ricerca, beni culturali. E così tutte le azioni degli individui, perché solo in questo modo la loro somma complessiva darebbe origine a una società migliore, nel senso di più efficiente e con costi minori […] Per quanto riguarda la scuola primaria e secondaria si sta affermando il principio che debba comportarsi, essere organizzata, agire e pensare come un’azienda. E questa è una delle caratteristiche neoliberali principali […] La riforma della scuola del governo Renzi è stata sostanzialmente scritta da una fondazione privata, di cui si citano esattamente i passi, che vengono recepiti dal governo e dal parlamento», L. Gallino, intervistato da D. Colombo e E. Gargiulo, Come il neoliberismo arrivò in Italia, “Jacobin Italia”, 26.3.2022 – https://jacobinitalia.it/come-il-neoliberismo-arrivo-in-italia/.
15. «Il lavoro “generato dagli utenti” è necessario per produrre diversi tipi di valore: il “valore di qualificazione” (gli utenti organizzano l’informazione lasciando commenti o dando voti su beni, servizi e/o su altri utenti della piattaforma), che permette il funzionamento regolare delle piattaforme; il “valore di monetizzazione” (il prelievo di commissioni o la cessione di dati forniti da attori ad altri attori) che fornisce liquidità a breve termine; il “valore di automazione” (l’utilizzo di dati e contenuti degli utenti per addestrare le intelligenze artificiali), che si iscrive in uno sviluppo più a lungo termine», A.A. Casilli, Schiavi del clic. Perché lavoriamo tutti per il nuovo capitalismo? 2020.
16. «La pandemia di COVID-19 ha rappresentato un momento decisivo per la transizione a una forma di apprendimento più a distanza nel settore dell’istruzione. L’apprendimento misto ha la potenzialità di combinare efficacemente la didattica frontale e quella online in un’unica esperienza coesiva», CE, Ethical guidelines, cit.
17. M.C. Pievatolo, Sulle spalle dei mercanti? Teledidattica e civiltà tecnologica, 2022.
18. «Il profilo professionale dei docenti è costituito da competenze disciplinari, informatiche, linguistiche, psicopedagogiche, metodologico-didattiche, organizzativo-relazionali, di orientamento e di ricerca, documentazione e valutazione tra loro correlate ed interagenti, che si sviluppano col maturare dell’esperienza didattica, l’attività di studio e di sistematizzazione della pratica didattica», art. 42, CCNL 2019/2021.
19. K. Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, 2021.
20. ad esempio dalla Dichiarazione europea sui diritti e i principi digitali per il decennio digitale (2023/C 23/01): «L’intelligenza artificiale dovrebbe fungere da strumento per le persone, con l’obiettivo ultimo di aumentare il benessere umano», «Ogni persona dovrebbe essere messa nelle condizioni di godere dei benefici offerti dai sistemi algoritmici e di intelligenza artificiale, anche compiendo le proprie scelte informate nell’ambiente digitale, e rimanendo al contempo protetta dai rischi e dai danni alla salute, alla sicurezza e ai diritti fondamentali».
21. Regolamento (UE) 2024/1689: «La diffusione dei sistemi di IA nell’istruzione è importante per promuovere un’istruzione e una formazione digitali di alta qualità e per consentire a tutti i discenti e gli insegnanti di acquisire e condividere le competenze e le abilità digitali necessarie, compresa l’alfabetizzazione mediatica, e il pensiero critico, per partecipare attivamente all’economia, alla società e ai processi democratici»
22. Agenzia per l’Italia Digitale, Dipartimento per la Trasformazione Digitale, Strategia Italiana per l’Intelligenza Artificiale 2024-2026: «Realizzare percorsi educativi sull’IA nelle scuole, per preparare le nuove generazioni a un uso attento e consapevole delle nuove tecnologie; sviluppare iniziative di divulgazione mirate a sensibilizzare e coinvolgere la società italiana nella rivoluzione dell’IA; finanziare e sostenere iniziative di reskilling e upskilling in tutti i contesti produttivi».
23. Commissione europea, Ethical guidelines on the use of artificial intelligence, cit.
24. Perfino l’OCSE ammette che: «The evidence shows that access to technology alone does not guarantee educational gain», Forsström, S. et al. (2025), The impact of digital technologies on students’ learning: Results from a literature review, OECD Education Working Papers, No. 335, OECD Publishing, Paris, https://doi.org/10.1787/9997e7b3-en.
Su specifici rischi, specialmente – ma non solo – per studenti BES, «… parents of school-aged children in the United Kingdom expressed their concerns about AI in education, particularly regarding its accountability (77%) and privacy and security (73%)», «Evidence reveals that content produced by LLMs contains bias against women, homophobic attitudes and racial stereotyping (UNESCO and IRCAI, 2024)», «AI algorithms can also reinforce biases, thereby perpetuating inequalities and discriminatory practices against specific groups (Baker and Hawn, 2021). This can occur through training data that reflect societal biases (e.g. gender, racial/ethnic) or through the unconscious or conscious biases of algorithm developers», «Another risk is that AI solutions are developed because they are technically possible, rather than resulting from real needs expressed by the intended users before or during the development phase», Linsenmayer, E. (2025), Leveraging artificial intelligence to support students with special education needs, OECD Artificial Intelligence Papers, No. 46, OECD Publishing, Paris, https://doi.org/10.1787/1e3dffa9-en.
Sulla situazione italiana, M. Gui, Il digitale a scuola. Rivoluzione o abbaglio?, 2019
25. N. Cristianini, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, 2023.
26. D. Tafani, L’«etica» come specchietto per le allodole. Sistemi di intelligenza artificiale e violazioni dei diritti, Bollettino telematico di filosofia politica, 2023 https://commentbfp.sp.unipi.it/letica-come-specchietto- per-le-allodole/
27. «L’intelligenza artificiale al servizio dell’umanità, un approccio umano al problema, la centralità del fattore umano: le variazioni sul tema sono innumerevoli. Siamo assillati da questo marketing del concetto di umanità, anche attraverso un florilegio di proposte di governance […] Nel mentre, ciò che non sappiamo definire con precisione assume una concretezza nei bilanci, negli investimenti in ricerca e in ulteriore capacità di calcolo, nelle conseguenze sulle forme e sull’organizzazione del lavoro», A. Aresu, Geopolitica dell’intelligenza artificiale, cit.
28. M. Castellini e C. Ferrario, La riforma della pubblica amministrazione italiana e il risk management: riflessioni su un processo in divenire, 2021.
29. F. Pasquale e G. Malgieri, From Transparency to Justification: Toward Ex Ante Accountability for AI, Brussels Privacy Hub Working Papers, VIII, 33, 2022.
30. G. Casula, Cos’è successo tra Report e il Garante della privacy e perché le opposizioni ora chiedono di scioglierlo, fanpage.it, 11.11.2025; T. Mackinson, “Omissioni, ritardi e sanzioni dubbie”: il Garante della Privacy finisce sotto inchiesta dopo 3 esposti. Le accuse all’Authority, Il Fatto Quotidiano, 18.11.2025.
31. F. Fiano, Sogei, dall’arresto di Iorio alle perquisizioni a Cannarsa: tutte le tappe dell’inchiesta, Corriere della Sera, 5.3.2025; I. Sacchettoni, Inchiesta Sogei: Paolino Iorio e Massimo Rossi condannati a tre anni (con patteggiamento), Corriere della Sera, 21.3.2025.
32. Access Now, The EU AI Act: a failure for human rights, a victory for industry and law enforcement, 13.3.2024.
33. Le aziende tecnologiche spendono per le lobby sulle politiche digitali di Bruxelles 97 milioni di € l’anno, Corporate Europe Observatory and LobbyControl e.V., The lobby network: Big Tech’s web of influence in the EU, 2021
34. M. Carmignani, AI Act azzoppato, favore alle big tech: Europa periferia dell’impero, Agenda Digitale, 10.11.2025.
35. sulla discussione e approvazione di questa legge: Senato della Repubblica, Legislatura 19ª – Aula – Resoconto stenografico della seduta n. 342 del 17/09/2025
36. A. Birhane, E. Ruane, T. Laurent, M.S. Brown, J. Flowers, A. Ventresque, C.L., Dancy, The Forgotten Margins of AI Ethics, in Conference on Fairness, Accountability, and Transparency, 2022 https://doi.org/10.1145/3531146.3533157
37. D. Tafani, L’«etica» come specchietto per le allodole, cit.
A. Alkhatib, To Live in Their Utopia: Why Algorithmic Systems Create Absurd Outcomes, Conference on Human Factors in Computing Systems, 2021, https://ali-alkhatib.com/papers/chi/utopia/utopia.pdf
38. «Research funding and academic freedom are presently under a worldwide attack (ALLEA 2025; Kinzelbach et al. 2025; KNAW 2025). The technology industry is taking advantage of us, sometimes even speaking through us, to convince our students that these AI technologies are useful (or necessary) and not harmful», Guest et alii, Against the Uncritical Adoption of ‘AI’ Technologies in Academia, 2025. Qui la condivisibile Lettera Aperta redatta da questi autori.
39. T. Phan, J. Goldenfein, M. Mann, D. Kuch, Economies of Virtue: The Circulation of ‘Ethics’ in Big Tech, Science as Culture, 2021 https://ssrn.com/abstract=3956318
40. Linsenmayer, E. (2025), Leveraging artificial intelligence to support students with special education needs, cit.
41. United Nations Environment Programme-UNEP, Artificial intelligence (AI) end-to-end: The environmental impact of the full AI life cycle needs to be comprehensively assessed, 2024.
42. S. Tirrito, AtomicAi: così le Big tech investono sul nucleare per sfamare i data center, 17.11.2025.
43. M. Carmignani, I modelli AI mentono nei test: sicurezza a rischio, ecco perché, Agenda Digitale, 23.9.2025
44. Commissione europea, Ethical guidelines on the use of artificial intelligence (AI) and data in teaching and learning for educators, 2022.
45. Council of Europe – Committee on Artificial Intelligence (CAI), Methodology For The Risk And Impact Assessment Of Artificial Intelligence Systems From The Point Of View Of Human Rights, Democracy And The Rule Of Law (HUDERIA Methodology), 2024.
46. D. Tafani, L’«etica» come specchietto per le allodole. Sistemi di intelligenza artificiale e violazioni dei diritti, cit.
47. Amazon Web Services – AWS, Generative Artificial Intelligence (AI). Document Summarisation Proof Of Concept. Prepared For Australian Securities And Investments Commission (ASIC), Final Report, March 2024
48. C. Wilson, AI worse than humans in every way at summarising information, government trial finds, Crikey, 2024
49. MIT NANDA, The GenAI Divide STATE OF AI IN BUSINESS 2025, 2025.
50. D. Fant e C. Milani, Pedagogia hacker, Approfondimenti, 2024
51. H. Braverman, Lavoro e capitale monopolistico. La degradazione del lavoro nel XX secolo, 1978.
52. PNRR. Missione 4: Istruzione e ricerca. Componente 1 – Potenziamento dell’offerta dei servizi di istruzione: dagli asili nido alle Università Investimento 3.2: Scuola 4.0 – Piano Scuola 4.0, 2022.
53. Commissione europea, European Framework for the Digital Competence of Educators: DigCompEdu, 2017.
54. L. Hao-Ping (Hank) et al., The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers, 2025.
Forti preoccupazioni emergono anche dai recenti studi condotti negli U.S.A. dal College Board: U.S. High School Students’ Use of Generative Artificial Intelligence, ottobre 2025 e Variation in High School Student, Parent, and Teacher Attitudes Toward the Use of Generative Artificial Intelligence, dicembre 2025.
55. R. Vuorikari, S. Kluzer, and Y. Punie, DigComp 2.2: The Digital Competence Framework for Citizens, 2022.
56. R. Kurzweil, The Age of Spiritual Machines. When Computers Exceed Human Intelligence, 1999 in A. Aresu, cit.
57. Linsenmayer, E. (2025), Leveraging artificial intelligence to support students with special education needs, OECD Artificial Intelligence Papers, cit.
58. D. Tafani, Do AI systems have politics? Predictive optimisation as a move away from liberalism, the rule of law and democracy, https://doi.org/10.5281/zenodo.10229060
59. A. Saltelli, D.J. Dankel, M. Di Fiore, N. Holland, M. Pigeon, Science, the endless frontier of regulatory capture, 2021, https://doi.org/10.1016/j.futures.2021.102860.
60. il sito della campagna «I.A. Basta» è raggiungibile all’indirizzo https://iabasta.ghost.io/
