LINEE
GUIDA SULL’I.A.: COSA DICONO E COSA NON DICONO
«…
la nostra concezione della società differisce dalla società ideale
prospettata dai fascisti e da molti magnati del mondo degli affari e
della politica. Essi preferiscono una organizzazione in cui tutti i
comandi provengano dall’alto senza che sia possibile nessuna
reversibilità. Sotto di essi gli uomini sono stati ridotti al
livello di esecutori degli ordini di un centro nervoso che pretende
di essere superiore»
N.
Wiener, The
Human Use of Human Beings,
1950
«L’essere
umano è sul mercato: in primo luogo attraverso la vendita della
capacità di lavorare; poi attraverso gli intermediari della salute;
terzo, per la suscettibilità alla salute e alla malattia, al
benessere e al malessere, alla gioia e al dolore, e a tutti gli
estremi permessi dalle sensazioni, dalle emozioni e dai desideri, per
come sono misurabili dalle tecnologie ubique; infine attraverso dati
e informazioni (che sono diventati il nostro lavoro a tempo pieno),
che gli operatori della “nuova” industria aggregano e usano per
generare conoscenza, trasformandola in valore attraverso la
codificazione della vita umana»
S.
Iaconesi e O. Persico, La
cura,
2016
Prologo
Nella Premessa al
suo ultimo libro, Alessandro Aresu ci mette in guardia rispetto alle
grandi formule che «ormai
pervadono il nostro discorso pubblico sulla tecnologia, in un mondo
dove le questioni dell’intelligenza artificiale, dell’apprendimento
e del ragionamento delle macchine sono divenute onnipresenti,
ossessive»,
arrivando fino all’estrema considerazione: «L’intelligenza
artificiale è l’invenzione definitiva dell’umanità» nonché
alla consacrazione dell’I.A. e dei suoi architetti come persona
dell’anno 2025 da parte del TIME1.
Probabilmente
esagerazioni di questo tipo servono soprattuto a scuotere un’opinione
pubblica vieppiù assuefatta ai clamori, ha una funzione
pubblicitaria, uno scopo di marketing, dal quale – per altro –
le storie sull’intelligenza
artificiale non si sono mai liberate fin dal loro inizio2.
Ma,
non c’è dubbio che «I
sistemi di IA avranno un impatto sulla vostra salute, sul vostro
lavoro, sulle vostre finanze, sui vostri figli, sui vostri genitori,
sui vostri servizi pubblici e sui vostri diritti umani, se non
l’hanno già avuto»3,
soprattutto a cominciare dalle nostre scuole dove bambini e bambine,
ragazzi e ragazze e – anche – docenti e tutto il personale
iniziano a essere addestrati all’utilizzo di
questa «invenzione».
Secondo
un recente rapporto di Save
the Children4, «Il
74,2% degli adolescenti in Italia utilizza tutti i giorni o quasi
(30,9%) o qualche volta a settimana (43,3%) strumenti di Intelligenza
Artificiale. Solo il 7,5% non li utilizza mai»,
e il Focus «Adolescenti
e AI» si
conclude confermando l’urgenza di conoscere l’impatto che queste
tecnologie stanno già producendo sulla crescita, dal punto di vista
emotivo, psicologico, di dipendenza affettiva, oltre che didattico,
specialmente in un paese come l’Italia in cui meno della metà
dei/lle giovani dichiara «un
buon equilibrio psicologico» [contro
il 59.19% della media europea] e solo il 17% di quindicenni è «molto
soddisfatto della propria vita».
Intanto i risultati OCSE-PISA nel
periodo 2012/2022 hanno registrato un calo generalizzato in tutti i
paesi [Italia: -14 punti in matematica, -9 in lettura e -17 in
scienze]5.
E senza dimenticare il rinnovato allarme della Società
Italiana di Pediatria sull’aumento
dei danni causati da una precoce esposizione dei bambini al digitale:
obesità, sviluppo cognitivo, sonno, salute mentale, dipendenze
digitali, salute visiva: «posticipare
l’esposizione digitale, proteggere corpo e mente, promuovere
esperienze reali e preservare la centralità dell’adulto»6.
Tutto il contrario di ciò che accade nelle scuole!
Una
situazione che già di per sé imporrebbe – al MIM e agli altri
corifei dell’intelligenza artificiale – la necessità di un
serio, approfondito e vero confronto con chi vive quotidianamente
dentro le aule, piuttosto che l’adesione acritica alle agende
commerciali delle grandi aziende tecnologiche, come accaduto con le
ingenti risorse del PNRR, arrivando a far proprie le priorità
strategiche della Commissione
europea di
favorire l’acquisizione di capacità e competenze digitali «sin
dall’infanzia»7.
Invece
cosa succede nella Scuola italiana? Il ministero, senza neppure
attendere che si completi la “finta” sperimentazione dell’uso
dell’IA al
posto di un tutor umano [avviata nello scorso a.s. 2024/2025 in sole
15 classi, utilizzando il software «Esercizi
guidati» su Google
Workspace con
valutazione finale INValSI]
e senza che se ne conoscano i risultati8,
accelera: ad agosto ha emanato le Linee
Guida per l’introduzione dell’Intelligenza Artificiale nelle
scuole e
comincia la formazione di docenti e alunni sull’uso di questi
strumenti.
Definizioni
e contesto
Prima
di esaminare gli specifici aspetti riguardanti il testo normativo,
iniziamo da un paio di definizioni essenziali e da una breve
descrizione del contesto che possano servirci da riferimento nel
corso del ragionamento:
–
Sistema
di intelligenza artificiale: «un
sistema automatizzato progettato per funzionare con livelli di
autonomia variabili e che può presentare adattabilità dopo la
diffusione e che, per obiettivi espliciti o impliciti, deduce
dall’input che riceve come generare output quali previsioni,
contenuti, raccomandazioni o decisioni che possono influenzare
ambienti fisici o virtuali»9.
Più spesso però, al posto di questa condivisibile definizione ne
viene diffusa pubblicamente un’altra, fuorviante: «sistemi
di IA: intendiamo riferirci a software di computer o macchine
programmati per svolgere compiti che di solito richiedono
l’intelligenza umana, ad esempio l’apprendimento o il
ragionamento. Utilizzando i dati è possibile “addestrare” alcuni
sistemi di IA a formulare previsioni, fornire raccomandazioni o
adottare decisioni, talvolta senza l’intervento umano»10.
–
Macchina:
«qualsiasi
mezzo, artificio o meccanismo (comprese regole, protocolli, gerarchie
e divisioni del lavoro) che rende possibile ciò
che non lo sarebbe per come è fatto il nostro corpo, per la
difficoltà del compito o la grandezza dell’obiettivo in
gioco […] Con
l’automazione deleghiamo alle macchine l’esecuzione di compiti
ripetitivi, gravosi, rischiosi o semplicemente impegnativi; compiti
sempre più complessi, ove la tecnologia disponibile ne permetta
l’automazione, affinché questi compiti siano svolti in maniera
sempre più efficiente ed efficace, o per il maggior agio delle
persone interessate (e sottolineo: non necessariamente beneficio, ma
agio)»11.
Dall’avvento
delle macchine – fin dalla prima rivoluzione industriale – la
lettura che è stata data da chi le possedeva è stata quella di
semplificare o facilitare il lavoro del lavoratore e della
lavoratrice, tacendo invece sullo spossessamento delle loro attività
e sulla maggiore possibilità di controllo e comando sul lavoro vivo
che le macchine stesse permettono.
Con la diffusione dell’I.A.
in tutti i settori lavorativi – e non solo – nel prossimo futuro
le nuove generazioni rischiano di subire ancor di più le tipiche
conseguenze dell’automazione: «meno
potere si ha sul luogo di lavoro, meno impegnative risultano le
attività che definiscono un’occupazione e più debole è la
fiducia nel proprio potere politico»12. «Studi
e analisi dimostrano che l’inclusione dei lavoratori nei processi
decisionali […]implica
un aumento non solo della soddisfazione da parte dei lavoratori e
della loro autostima, ma anche del loro interesse verso i processi
politici che si svolgono all’interno della società»13,
una partecipazione che la diffusione dei sistemi di intelligenza
artificiale nella formazione, nella selezione del personale e per il
suo sviluppo professionale stanno rapidamente sgretolando.
D’altro
canto, le tecnologie informatiche e digitali sembrano in grado di
realizzare il sogno [o meglio l’incubo] dell’ideologia
neoliberista14 che
aspira a mettere a profitto tutto il tempo e l’intero agire umano,
arrivando a trasformare il «gesto
produttivo umano in micro-operazioni sottoremunerate o non remunerate
al fine di alimentare un’economia dell’informazione basata
principalmente sull’estrazione di dati e sull’assegnazione a
operatori umani di mansioni produttive costantemente svalutate poiché
considerate troppo piccole, troppo poco visibili, troppo ludiche o
troppo poco gratificanti»,
dove perfino dietro lo svago può nascondersi il lavoro: «il
lavoro generato dagli utenti»15.
Nell’ultimo
decennio abbiamo assistito ad un sempre più consistente processo di
colonizzazione del mondo della Scuola, dagli ambiti
organizzativo-amministrativi alla didattica, da parte delle
tecnologie digitali proprietarie; tale processo, che ha visto una
forte accelerazione durante la pandemia16 che «ha
sospinto milioni di studenti [ma
anche di docenti e familiari, ndr] nelle
piattaforme proprietarie di Microsoft e Google»17,
e i successivi progetti legati al PNRR, giunge oggi al suo apice con
l’introduzione di un nuovo strumento digitale: l’intelligenza
artificiale.
Spacciata come assistente del nostro lavoro, in
grado di risolvere – in un batter d’occhio e nel modo giusto –
qualunque problematicità nel rapporto tra insegnamento e
apprendimento, garantendo diagnosi cognitive rapide e veritiere e il
cosiddetto «insegnamento
personalizzato»,
bandiera sventolata a più non posso negli scritti
ministeriali.
Questo processo ci preoccupa e ci preoccupa che
venga accolto, al di là del facile entusiasmo degli addetti ai
lavori, a cui da voce quasi tutta la stampa e una fiorente editoria,
con un atteggiamento generalizzato di rassegnazione e di
ineludibilità da buona parte del mondo docente, perché frammenta,
erode e polverizza la complessa articolazione della nostra funzione
professionale18,
spossessandoci di quelle parti che possono essere consegnate alla
“macchina”. Proprio quello che accade con i test preparati e
corretti da numerose applicazioni e con il “tutor virtuale” che
il MIM sta sperimentando.
L’intelligenza
artificiale,
macchina di calcolo statistico con funzione predittiva di proprietà
privata, di intelligente non ha nulla19,
non genera, piuttosto riproduce sulla base degli input esterni e dei
dati immagazzinati. E c’è chi pretenderebbe di sostituirla
all’umano nell’area decisionale.
Il
decreto ministeriale n. 166/2025
Lo
scorso 1° settembre, il MIM ha dato notizia dell’avvenuta
registrazione del d.m. n. 166 del 9.8.2025, Concernente
l’implementazione di un servizio digitale in materia di
Intelligenza Artificiale nell’ambito della Piattaforma Unica di
cui sono parte integrante le Linee
Guida IA,
allegate allo stesso.
Nonostante i 10 articoli del decreto, le
oltre trenta pagine delle Linee
Guida e
i numerosi rimandi alla normativa nazionale e comunitaria, sembrano
più le cose non dette che quelle dette.
Le
Premesse al decreto
Le
lunghe premesse al decreto richiamano alcuni princìpi contenuti
nella normativa europea20,
ma per capire l’orizzonte di riferimento di questo decreto – un
orizzonte limitato all’acquisizione di competenze spendibili sul
mercato del lavoro: la produzione del cosiddetto capitale
umano –
è forse più significativo riprendere il Considerando (56)21 del
cosiddetto AI
Act [pure
questo citato in premessa] nel quale si evidenzia come finalità
principale – per discenti e docenti – la partecipazione attiva
all’economia, prima ancora che alla società e alla democrazia.
Concetto esplicitamente ribadito anche nella citazione
dalla Strategia
Italiana per l’Intelligenza Artificiale 2024-2026,
nella quale vengono messi insieme i «percorsi
educativi sull’IA nelle scuole» con
il finanziamento e il sostegno a «iniziative
di reskilling e upskilling in tutti i contesti produttivi»22, e
in molti altri passaggi.
Insomma: la quarta
rivoluzione industriale ha
– come tutte le precedenti – lo scopo di ridefinire la struttura
produttiva e di consumo della società, nascondendo l’impoverimento
e la disarticolazione del lavoro [anche quello “mentale”] e
l’addestramento a un consumo di massa di prodotti digitali
standardizzati [anche la formazione] dietro il mito di questo
progresso tecnologico presentato come naturale e ineluttabile se non,
addirittura, entusiasticamente auspicabile.
D’altro canto,
anche gli Orientamenti
etici per gli educatori sull’uso dell’intelligenza artificiale
(IA) e dei dati nell’insegnamento e nell’apprendimento23 della
Commissione europea [altro documento citato nelle Premesse al
decreto] fanno acriticamente proprio l’entusiasmo tecno-ottimista
diffuso dalle Big Tech, arrivando a scrivere che «L’uso
dei sistemi di IA risulta potenzialmente in grado di migliorare
l’insegnamento, l’apprendimento e la valutazione, di assicurare
risultati dell’apprendimento migliori e di aiutare le scuole a
operare in maniera più efficiente»,
senza nessuna conferma sul campo e – anzi – in aperta
contraddizione con i risultati delle ricerche al momento
disponibili24.
Risultati deficitari che sono intrinseci all’architettura stessa di
queste macchine, alle «scorciatoie»25 che
sono state scelte nella loro progettazione e che non è possibile
migliorare solo attraverso un sostenibile intervento tecnico, come
vorrebbero farci credere i seguaci del “soluzionismo”
tecnologico: «La
tesi che il problema sia quello di «‘risolvere’ i bias» grazie
a interventi tecnici non è che un «seducente diversivo»,
escogitato da aziende in conflitto di interessi che mirano a
depoliticizzare la questione»26.
Gli
articoli del decreto e l’IA antropocentrica
Dopo
queste lunghe premesse che, insieme alle Linee
Guida IA,
sono «parte
integrante e sostanziale del Decreto»,
il ministero prova a ordinare nei primi sei articoli l’oggetto, le
finalità, le modalità di accesso degli «utenti» [in cui è
compreso anche tutto il personale scolastico] e le due «sezioni»
[una pubblica, «Linee
Guida IA» e
una riservata agli utenti autorizzati per l’inserimento
dei «Progetti
IA»]
di quello che definisce «servizio
digitale».
La
principale finalità sarebbe quella di «promuovere
nel mondo dell’istruzione l’innovazione tecnologica e la
diffusione di un’IA antropocentrica, sicura, affidabile, etica e
responsabile» [art.
2, comma 3, lett.a)]. Una definizione «umana» dell’intelligenza
artificiale, ripresa dai documenti comunitari e che verrà
semplicemente ripetuta nelle Linee
Guida,
ma che rimane una vuota dichiarazione di principio, dietro la quale
si nasconde la sostanza dei profitti delle aziende del digitale e
della trasformazione del lavoro e del consumo27.
Viene,
quindi, prevista la valutazione rischio/opportunità [art. 2, comma
3, lett.c)], per «un
uso attento e consapevole delle nuove tecnologie»,
uno strumento inadatto, mutuato dall’armamentario della cultura
manageriale privata, derivante dal modello di riferimento «del
mercato autoregolantesi sulla base di processi competitivi»28,
che già tanti danni ha fatto alla Scuola pubblica. Un approccio
basato sulla cosiddetta mitigazione
del rischio,
piuttosto che sulla tutela piena dei diritti, che – in un ambito di
estrema incertezza e profonda invasività come quello delle
tecnologie digitali in continua evoluzione – dovrebbe invece
comportare la maggiore cautela possibile e possibilmente prevedere
una «“illegalità
di default” per i sistemi di AI»29,
facendo ricadere interamente sulle aziende produttrici la
responsabilità di dimostrare che sia «sicura,
affidabile, etica e responsabile»,
a pena del divieto del suo utilizzo.
I successivi tre articoli
riguardano il trattamento dei dati, con l’ovvia dichiarazione
del «rispetto
dei principi del GDPR, del Codice in materia di protezione dei dati
personali e del CAD» e
la ripartizione delle responsabilità tra MIM, titolare dei dati
degli utenti della sezione privata; scuole, per i dati inseriti nella
sezione «Progetti
IA»;
e la SOGEI S.p.A. che, in quanto affidataria del sistema informativo
del ministero, è «responsabile
del trattamento dei dati personali».
Una società, la SOGEI, che – al pari del consiglio del Garante
della privacy30 –
ha i suoi vertici coinvolti in svariate inchieste31.
L’ultimo
articolo annuncia l’attivazione del «Servizio» [ancora
senza i progetti delle scuole], ma soprattutto il rinvio ad
ulteriori «appositi
decreti ministeriali» per
disciplinare le modalità con cui le scuole dovranno progettare e
realizzare le iniziative di IA, la formazione nonché l’aggiornamento
delle stesse Linee
Guida adottate
col decreto.
Naturalmente, «All’attuazione
di quanto previsto dal presente Decreto, si provvede senza nuovi o
maggiori oneri per la finanza pubblica»!
Le Linee
Guida per
l’introduzione dell’IA nelle scuole
Le Linee
Guida sono
suddivise in sei Paragrafi principali, con una premessa e due
Glossari.
Paragrafo
1. Il ruolo dell’IA nella Scuola
Il
testo si apre con la roboante definizione dell’IA come «tecnologia
rivoluzionaria», ribadendo
l’ispirazione a un «approccio
antropocentrico, incentrato sul rispetto della dignità umana e dei
diritti e delle libertà fondamentali».
1.1 Il
ministero intende introdurre l’IA nelle scuole – in ambito
didattico e in ambito gestionale – «per
rafforzare la competitività del sistema educativo italiano» e
per farlo propone alle scuole autonome una «metodologia
condivisa»,
promuove la diffusione di una «IA
antropocentrica»,
incentiva un «uso
uniforme» dell’IA
e favorisce la conoscenza delle «opportunità» e
dei «rischi» legati
al suo uso.
Le scuole «nell’ambito
della propria discrezionalità» potranno
attivare le loro iniziative di IA. Il procedimento è solo accennato
[cfr. par. 4.1.1], ma – dai primi passi che si stanno muovendo
nelle scuole e nel rispetto della normativa vigente – dovrebbe
comportare un atto di indirizzo del dirigente, una successiva
elaborazione e approvazione in collegio dei docenti e quindi
un’integrazione al PTOF da parte del consiglio d’istituto.
Naturalmente dovrà esserci pure il coinvolgimento delle RSU per
eventuali aspetti relativi ai compensi del personale interessato.
Ma
su questi aspetti dovranno arrivare i successivi «appositi
decreti» previsti
dall’art. 10 del d.m. e ricordati nelle Linee
Guida.
Le
finalità indicate, a titolo non esaustivo, sono sempre le solite
presenti nella pubblicistica ministeriale, senza ulteriori
approfondimenti o specifici adattamenti: migliorare l’apprendimento;
promuovere l’inclusione; semplificare e ottimizzare i processi
amministrativi; potenziare la qualità e l’efficienza dei servizi;
garantire una preparazione continua e specifica per l’adozione di
nuove tecnologie.
È responsabilità della singola scuola
garantire la tutela e le libertà fondamentali degli
interessati.
Quindi sono indicate alcune delle «pratiche
vietate» contenute
nell’art. 5, par. 1 dell’AI
Act:
uso di tecniche subliminali o volutamente manipolative o ingannevoli;
valutazione o classificazione delle persone sulla base del
comportamento o di caratteristiche personali, con punteggi e
trattamenti pregiudizievoli o sfavorevoli; categorizzazione
biometrica che classificano le persone per trarre deduzioni o
inferenze in merito a razza, opinioni politiche, appartenenza
sindacale, convinzioni religiose o filosofiche, vita sessuale o
orientamento sessuale; individuare le emozioni di una persona in
ambito scolastico, tranne se sia per motivi medici o di
sicurezza.
Questo tipo di esclusioni sono
state oggetto di forti critiche, da parte delle associazioni per la
difesa dei diritti umani, fin dall’approvazione dell’IA
Act,
perché permettono «scappatoie,
ritagli ed eccezioni, il che significa che non proteggerà le
persone, né i loro diritti umani, da alcuni degli usi più
pericolosi dell’IA»32.
Tra l’altro, proprio in questi giorni la Commissione
UE,
sempre oggetto di costose attenzioni delle lobby del web33,
ha previsto «una
moratoria di un anno per i sistemi ad alto rischio e il rinvio delle
sanzioni al 2027. Dietro la scelta, le pressioni di Big Tech e la
paura di frenare l’innovazione»34.
Infine, a indebolire ulteriormente l’efficacia delle limitate
tutele dell’AI
Act concorre
anche la nostra legislazione nazionale. Infatti la recente l. n.
132/2025 Disposizioni
e deleghe al Governo in materia di intelligenza artificiale,
rimanda a un futuro imprecisato questioni cruciali come la
definizione dei poteri di vigilanza delle autorità di controllo e –
soprattutto – non stanzia risorse aggiuntive per assolvere ai
propri compiti: garantire «la
vigilanza sui rischi economici e sociali e sull’impatto sui diritti
fondamentali dell’intelligenza artificiale»35.
Il
sotto-paragrafo si conclude con l’indicazione dei «sistemi
di IA ad alto rischio»,
secondo quanto previsto dall’art. 6, par. 2, dell’AI Act, che per
il settore dell’istruzione e della formazione professionale,
[Allegato III] comprende i sistemi utilizzati per: a) determinare
l’accesso, l’ammissione o l’assegnazione di persone; b)
valutare i risultati dell’apprendimento; c) valutare il livello di
istruzione adeguato che una persona riceverà o a cui potrà
accedere; d) monitorare e rilevare comportamenti vietati degli
studenti durante le prove o all’interno di istituti.
A questo
proposito, il Considerando
(56) dello
stesso AI
Act aggiunge
che questi sistemi «ad
alto rischio»,
nella misura in cui possono determinare il percorso d’istruzione e
professionale della vita della persona, incidendo sulla sua capacità
di garantire il proprio sostentamento, «se
progettati e utilizzati in modo inadeguato, […] possono essere
particolarmente intrusivi e violare il diritto all’istruzione e
alla formazione, nonché il diritto alla non discriminazione, e
perpetuare modelli storici di discriminazione»,
su donne, anziani, disabili, etnie, orientamento sessuale.
Ma
il problema non deriva solamente dal progetto o
dall’uso «inadeguato» di
queste macchine, bensì dalla loro strutturale impossibilità – in
quanto funzionanti su basi statistiche – di prendere nella dovuta
considerazione le aree marginali36 di
quelle categorie su cui sono stati ottimizzati gli algoritmi. «Le
decisioni basate sui sistemi di apprendimento automatico sono infatti
costitutivamente discriminatorie, in quanto procedono trattando gli
individui in base al loro raggruppamento in classi, costituite a
partire dalle regolarità rilevate nei dati di partenza. Essendo
radicata nella natura statistica di questi sistemi, la caratteristica
di dimenticare i «margini» è strutturale: non è accidentale e non
è dovuta a singoli bias tecnicamente modificabili. Ci si può
trovare ai margini dei modelli algoritmici di normalità in virtù di
caratteristiche totalmente irrilevanti, rispetto alle decisioni di
cui si è oggetto»37.
1.2 Il
MIM ha definito un modello di introduzione dell’IA fondato su
quattro pilastri, illustrati nei successivi 4 paragrafi: Principi di
riferimento; Requisiti di base; Framework di implementazione dell’IA;
Comunicazione e governance.
Paragrafo
2. Principi di riferimento
Il
MIM indica sei principi generali per guidare l’introduzione dell’IA
nella scuola: la centralità della persona; l’equità;
l’innovazione etica e responsabile; la sostenibilità; la tutela
dei diritti e delle libertà fondamentali e infine la sicurezza dei
sistemi e modelli di IA.
Per quanto riguarda l’etica e
l’equità è fatto un esplicito richiamo alle Ethical
guidelines on the use of artificial intelligence (AI) and data in
teaching and learning for educators,
elaborato nel 2022 dal Gruppo
di esperti della CE,
un documento che secondo Daniela Tafani «recepisce
acriticamente» quanto
propagandano i mercanti dell’IA. Come già detto, questi documenti
appaiono prigionieri delle logiche con cui le grandi aziende sono
riuscite a catturare sia i decisori politici sia l’opinione
pubblica, anche grazie al ruolo di megafonoche ha assunto
l’università38,
sempre alla ricerca di finanziamenti privati una volta che le
politiche neoliberali hanno ridotto drasticamente quelli
pubblici, «questo
panorama finanziario crea condizioni strutturali che spingono i
ricercatori a partecipare a questa economia della virtù»39.
Secondo
il testo ministeriale, sono tre gli aspetti a cui il principio di
sostenibilità dovrebbe riferirsi: quello sociale, economico e
ambientale, ma anche in questo caso – oltre la generica
dichiarazione d’intenti – non c’è nessun particolare
approfondimento. Esistono, invece, ormai numerosi studi che
dimostrano la scarsa sostenibilità ambientale di queste tecnologie.
Secondo un recente paper dell’OCSE40,
soltanto per quanto riguarda i cosiddetti «effetti
diretti» [consumo
di energia, acqua e risorse minerali, emissioni e rifiuti,
prescindendo quelli «indiretti» e
quelli «di
ordine superiore»],
entro il 2026, si stima un consumo di elettricità per l’IA
paragonabile a quello di Austria e Finlandia. Secondo l’UNEP41:
una singola query a un LLM consuma quasi 10 volte l’energia di una
ricerca web; il cosiddetto “addestramento” di un singolo LLM
genera circa 300.000 kg di emissioni di anidride carbonica; i data
center nel mondo dal 2012 sono aumentati da 500.000 a oltre 8 milioni
e il loro consumo energetico raddoppia ogni quattro anni; nel 2027 si
stima che la domanda globale di acqua che serve per l’IA possa
raggiungere i 4,2–6,6 miliardi di metri cubi; solo il 22% dei
rifiuti elettronici viene riciclato e smaltito in modo ambientalmente
sostenibile e anche i tassi di riciclo sono bassi: dal misero 1%
delle terre rare al 46% del rame. L’UNEP conclude
così la sua Nota: «ad
oggi, non esiste un modo standardizzato di misurare, segnalare o
mitigare l’impatto ambientale dell’IA».
Intanto,
Google, Amazon, Meta e Microsoft intendono riaprire vecchie centrali
nucleari dismesse o costruirne di nuove42.
A
proposito della sostenibilità sociale dell’IA, la stessa Nota
dell’UNEP riconosce
che «l’uso
diffuso dell’IA può aggravare le disuguaglianze esistenti,
colpendo in particolare donne, minoranze e individui provenienti da
contesti a basso reddito. Ciò è principalmente causato da bias e
scarsa qualità dei dati di addestramento, come la scarsità di dati
provenienti da gruppi sottorappresentati che porta a decisioni
favorevoli ad altri gruppi».
Infine,
per quanto riguarda la presunta sicurezza e robustezza dei sistemi,
bisogna tenere presente che «i
modelli IA possono accorgersi di essere testati e nel caso sviluppano
comportamenti ingannevoli per soddisfare le aspettative dell’utente.
Un problema che ostacola i test di safety del modello»43.
Paragrafo
3. Requisiti di base per l’introduzione dell’IA
I
requisiti di base suggeriti dal ministero sono di tre tipi: etici,
tecnici e normativi.
3.1 I
requisiti etici si realizzerebbero attraverso l’intervento e la
sorveglianza umana, la trasparenza e la spiegabilità, l’attribuzione
di ruoli e responsabilità, criteri per evitare discriminazioni.
Ma
quali strumenti hanno a disposizione le scuole per poterne accertare
la presenza? A meno che tutto non si risolva con quanto previsto dal
gruppo di esperti nominati per la stesura di presunti «orientamenti
etici» dalla
Commissione europea: «può
essere superfluo comprendere il modo di funzionamento del sistema, ma
è importante che la scuola o l’educatore siano in grado di
formulare alcune domande pertinenti e di avviare un dialogo
costruttivo con i fornitori di sistemi di IA o con gli enti pubblici
responsabili»44.
Cioè? Come chiedere all’oste se il suo vino è buono!
3.2 Secondo
il MIM è sufficiente una «particolare
attenzione» riguardo
i requisiti tecnici che i sistemi di IA devono possedere in ordine a:
sicurezza, equità e affidabilità. Rimandando alle centinaia di
pagine delle Linee
guida dell’Agenzia per l’Italia Digitale e
dell’Agenzia
per la Cybersicurezza Nazionale per
gli aspetti specifici. Vengono comunque individuati i principali
requisiti da considerare: certificazione e conformità dei fornitori,
gestione responsabile dei dati, gestione del diritto di non
partecipazione ed equità del sistema di IA. Anche in questo caso non
è chiaro come effettivamente poter verificare l’effettiva
esistenza dei requisiti previsti.
3.3 Il
sottoparagrafo dedicato ai requisiti normativi per la protezione dei
dati personali è il più esteso tra quelli delle Linee Guida, forse
a causa della legittima preoccupazione di non incorrere in eventuali
infrazioni e conseguenti sanzioni, ma – di fatto – come è ovvio
non aggiunge nulla a quanto già previsto dalla normativa
preesistente – dal GDPR al Codice
in materia di protezione dei dati personali,
dall’IA
Act alle Linee
guida del Gruppo Art. 29 –
che viene continuamente richiamata nel testo e il cui rispetto è
responsabilità di ogni singola scuola «che
agisce in qualità di titolare del trattamento, qualora il Sistema di
IA implementato preveda il trattamento di dati personali»,
anche se «Resta
ferma, in ogni caso, l’eventuale titolarità autonoma del
Ministero, che lo stesso valuterà in concreto rispetto a ciascuna
applicazione dei Sistemi di IA che potrà essere utilizzata».
Viene inoltre ricordato che il MIM dovrà emanare altri decreti per
disciplinare la progettazione e realizzazione delle singole
iniziative di IA, la formazione e ulteriori elementi di controllo
sull’operato delle singole scuole. Ovviamente è sottolineata la
necessità di rispettare il Testo
Unico dell’istruzione il
d.lgs. n. 297/1994 e la l. n. 92/2019 sull’Introduzione
dell’insegnamento scolastico dell’educazione civica,
per quanto riguarda la «cittadinanza
digitale» e
la cosiddetta «alfabetizzazione
digitale».
Sono,
infine, elencati i principali adempimenti che riguardano le scuole:
individuazione di una specifica base giuridica, esecuzione di una
valutazione di impatto – DPIA [per la quale si consiglia
la «metodologia
HUDERIA»45],
rilascio informativa sul trattamento dei dati personali, nomina dei
soggetti autorizzati al trattamento dei dati personali e dei
responsabili, adozione di misure tecnico-organizzative, tenuta del
registro delle attività del trattamento, notifica eventuali
violazioni dei dati al Garante e comunicazione agli interessati,
insomma tanto altro lavoro burocratico per evitare contestazioni.
Paragrafo
4. Come introdurre l’IA nelle scuole
Le Linee
Guida classificano
tre ambiti principali in cui introdurre l’IA: al servizio degli
studenti, a supporto dei docenti e a sostegno
dell’organizzazione.
Quindi sono indicate le istruzioni
operative e gli strumenti di accompagnamento nonché possibili esempi
pratici [?] per la didattica e l’organizzazione.
Infine, sono
elencati alcuni rischi e le relative azioni di mitigazione.
4.1 Istruzioni
operative e strumenti di accompagnamento
L’approccio
metodologico proposto dalle Linee
Guida ricalca
le fasi essenziali del project
management aziendale,
ne adotta il linguaggio e ne sottintende anche l’organizzazione del
lavoro nei suoi cinque passaggi: definizione, pianificazione,
adozione, monitoraggio, conclusione.
4.1.1 Definizione
– Definizione del progetto e approvazione iniziale
Identificazione
del bisogno: una volta selezionati i casi d’usosu cui introdurre
l’IA, l’identificazione del bisogno si basa sui «documenti
programmatici della scuola» [RAV,
PdM, PTOF, ecc.] che – come ben sappiamo per esperienza diretta –
sono spesso il risultato del lavoro del dirigente e di una ristretta
schiera di docenti che gli gravita intorno e che, ancor più spesso,
esprimono concezioni e aspettative spesso non sufficientemente
approfondite da tutta la comunità scolastica prima delle necessarie
approvazioni collegiali. Di fatto questa progettazione non nasce da
un’effettiva condivisione di obiettivi e finalità e consolida
quella struttura gerarchica della scuola-azienda che tanti danni sta
facendo alla Scuola pubblica.
Identificazione degli stakeholder:
anche in questo caso la concezione imprenditoriale da cui deriva
rischia il coinvolgimento di soggetti esterni “forti” che possono
influenzare significativamente le scelte da assumere, nonostante le
presunte tutele per i soggetti più deboli e vulnerabili che sono
previste dallo Stakeholder
Engagement Process – SEP del modello
HUDERIA.
Un processo che in ogni caso verrebbe sempre condotto da “gruppi di
progetto” ristretti.
Nonostante gli auspici alla
partecipazione di tutta la comunità scolastica contenuti nelle Linee
Guida,
il rischio che invece si consolidi una visione gerarchica e
piramidale è confermata dall’affermazione
conclusiva: «Nell’attivazione
di questo processo gioca un ruolo strategico la leadership del
dirigente scolastico».
4.1.2 Pianificazione
– Elaborazione dettagliata del progetto
Piano del progetto:
prevede l’individuazione del team,
i costi e la valutazione delle milestone in
cui è scomposto il progetto stesso.
Piano di gestione dei
rischi: sostanzialmente rimanda al The
Risk and Impact Assessment di HUDERIA e
al successivo Paragrafo 4.3 «Mitigazione
dei rischi» delle Linee
Guida.
Insomma tutto il gran parlare di «etica» sembra ridursi
alla «questione
della conformità procedurale a un «anemico set di strumenti» e
standard tecnici»46.
4.1.3 Adozione
– Implementazione del progetto
È suggerito un
approccio «graduale» accompagnato
da iniziative, guidate dal dirigente, di comunicazione, informazione
e formazione che faciliti il consenso e la motivazione dei singoli,
chiaro esempio di coaching
motivazionale aziendale.
4.1.4 Monitoraggio
– Verifica e miglioramento continuo
Il monitoraggio procede
parallelamente all’adozione, sia per verificare il raggiungimento
delle diverse fasi in sui è scomposto il progetto [milestone]
sia per controllare gli output dei sistemi IA impiegati, anche per
un’eventuale rivalutazione dei rischi e degli impatti [come
previsto dalla metodologia
HUDERIA]
e una condivisione con gli organi collegiali e gli stakeholder,
nell’ottica della rendicontazione sociale.
4.1.5 Conclusione
– Valutazione del risultato
Attraverso: la verifica del
risultato finale, l’analisi delle lezioni apprese, la
valorizzazione dei risultati e il riconoscimento del team: «preziosa
occasione per incoraggiare il senso di appartenenza, il clima
positivo e valorizzare il coinvolgimento attivo»,
tipico approccio imprenditoriale al lavoro.
4.2 Focus:
aree di applicazione per tipologia di destinatari
Questo
sottoparagrafo rafforza la visione aziendalistica attraverso alcuni
esempi pratici di applicazione dell’IA nelle scuole, che
enfatizzano i ruoli individuali e sfumano il ruolo degli organi
collegiali, citati solo cinque volte in tutto il testo.
Dirigente
scolastico. Secondo le Linee
Guida «Il dirigente scolastico rappresenta la figura chiave per
condurre la scuola lungo un percorso di transizione digitale
incentrato sull’utilizzo dell’IA ed è chiamato a facilitare
l’innestarsi di processi virtuosi che permettano l’innovazione e
l’adattamento dell’istruzione alla realtà che cambia. L’IA può
rafforzare questa leadership, consentendo di ottimizzare e ridurre le
tempistiche dei processi considerati più routinari e
standardizzabili. Il dirigente scolastico, grazie all’aiuto di
sistemi di Intelligenza Artificiale, può potenziare i necessari
processi di analisi che supportano le decisioni, affrontando sfide
moderne in modo più strategico ed efficace».
Le decisioni dirigenziali avrebbero, dunque, il supporto dell’IA
sul: monitoraggio dei documenti programmatici, la pianificazione
della formazione, l’ottimizzazione nell’organizzazione
dell’orario, miglioramento della comunicazione.
Personale
amministrativo. La gestione amministrativa [organizzazione delle
richieste, gestioni di comunicazioni periodiche, gestione dei beni
mobili] dovrebbe essere ottimizzata dall’uso dell’IA
addirittura «riducendo
significativamente l’errore umano»,
un’affermazione che però è smentita da studi sul campo che
dimostrano che l’IA può commettere più errori degli operatori
umani47,
che «la
tecnologia potrebbe effettivamente costringere le persone a più
lavoro, non a meno»48 o
che il 95% dei progetti di GenAI fallisce,
secondo un recente studio del MIT49.
Docente.
Oltre all’inevitabile pressione verso una
“formazione” «imprescindibile» ridotta
a forzoso addestramento all’uso delle tecnologie scelte per il
progetto, per quanto riguarda l’attività didattica ci troviamo di
fronte al più duro attacco che l’insegnamento ha dovuto finora
affrontare: la complessa relazione umana e sociale che costituisce la
sostanza viva del rapporto tra docente e discente viene frammentata,
alcune parti scorporate e affidate alla macchina. Non più che
un «supporto» suggerisce
il testo, visto che «L’IA
non dovrebbe [sic!] sostituire
l’interazione umana e l’insegnamento diretto»,
ma la vita in aula ci racconta ben altro: con la promessa di
agevolare, queste tecnologie digitali «invitano
con «spintarelle gentili» a lasciar perdere laboriose metodologie
di valutazione degli apprendimenti, per valutare la qualità, per
passare senz’altro a test quantitativi a risposta chiusa, che
l’applicazione stessa correggerà. Verrà così evitata una certa
fatica nella formulazione di modalità di verifica, in modo che il
rapporto con il sapere dei discenti si faccia sempre più liscio e
frictionless, senza attriti […] Il
lavoro di insegnamento, apprendimento e ricerca si curva
impercettibilmente ma significativamente verso traiettorie mai decise
in maniera consapevole»50.
Ci si ritrova così spossessati di parti qualificanti del nostro
lavoro, dalla personalizzazione dei materiali didattici, alla scelta
degli strumenti interattivi e innovativi, dall’organizzazione di
visite didattiche e attività extracurriculari, alla redazione di
rubriche di valutazione, fino al tutoraggio. Una frammentazione,
parcellizzazione e semplificazione del lavoro didattico che spossessa
i docenti – formalmente però sempre più qualificati – di parte
delle loro attività, per affidarle all’imperscrutabile
funzionalità della macchina, che nel tempo indebolisce l’identità
lavorativa, determina una sempre più scarsa solidarietà e,
conseguenza inevitabile, retribuzioni più basse, come accaduto nel
tempo a tante altre professioni travolte dalle rivoluzioni
tecnologiche. Aspetto particolare di quella più generale «evoluzione
sociale» che
affianca quella tecnica: «la
progressiva creazione di […] una
popolazione lavoratrice conforme ai bisogni di questa organizzazione
sociale del lavoro, nella quale la conoscenza della macchina diventa
un tratto specialistico e separato, mentre nella massa dei lavoratori
fioriscono solo l’ignoranza, l’incompetenza e quindi la
propensione alla dipendenza servile dalla macchina»51.
Una situazione che nella Scuola
4.052 è
chiaramente espressa nella gerarchia dei 6 livelli di competenza,
da Novizio
(A1) a Pioniere
(C2),
previsti dal DigCompEdu53.
Tenendo presente che tra i lavoratori della conoscenza «una
maggiore fiducia nella GenAI è associata a un minor pensiero
critico, mentre una maggiore fiducia in se stessi è associata a un
pensiero critico maggiore […] sebbene
GenAI possa migliorare l’efficienza dei lavoratori, può inibire
l’impegno critico nel lavoro e può potenzialmente portare a un
eccessivo affidamento a lungo termine allo strumento e a una
diminuzione delle capacità di risoluzione indipendente dei
problemi»54.
Studente.
Quanto viene previsto per studenti e studentesse in qualche modo
completa quella «evoluzione
sociale» di
cui si trattava a proposito dei docenti: in quanto futura forza
lavoro – risorsa
umana – «devono
essere preparati a diventare co-creatori attivi di contenuti con
l’IA, nonché futuri leader che definiranno il rapporto di questa
tecnologia con la società»,
solo belle parole per dire che la stragrande maggioranza di loro
dovrà essere addestrata – secondo quanto previsto dal DigComp
2.255 –
a diventare appendice di quelle macchine intorno alle quali si
dovrebbe distribuire la società futura, secondo la visione dei
proprietari delle Big Tech.
Anche per loro sono prospettate
semplificazioni e facilitazioni attraverso
una «personalizzazione» “rapida”
con «feedback
immediati»,
ma che rischia di essere la peggiore delle discriminazioni perché
condanna ognuno a rimanere nella situazione in cui si trova, magari
ampliando i divari già esistenti proprio a causa di un adeguamento
automatico dell’offerta formativa. Per altro, anche sugli aspetti
legati all’inclusione bisogna fare attenzione. Non c’è dubbio
che si «possono
fornire soluzioni efficaci per alcuni deficit circoscritti della
maggior parte delle persone disabili»56,
ma, come ribadito recentemente dall’OCSE, «una
preoccupazione fondamentale nell’adozione degli strumenti di IA
risiede nel rischio di perpetuare il tecno-abilismo – l’assunzione
che la tecnologia debba rendere gli individui abili e neurotipici
(Shew, 2020). Questa prospettiva emargina coloro che non si
conformano agli standard normativi e ignorano la loro autonomia e le
esperienze vissute […]Sono
necessarie ulteriori ricerche per valutare se i benefici marginali
dell’uso dell’IA siano giustificati, considerando i rischi
dell’IA in termini di uso improprio dei dati, costi finanziari e
ambientali, e pregiudizi»57.
Infine, la presunta «promozione
dell’autonomia» promessa
dall’IA si scontra con quanto già detto a proposito dei lavoratori
della conoscenza: può inibire l’approccio critico e portare a un
eccessivo affidamento alla macchina e quindi a una diminuzione di
autonomia.
4.3 Mitigazione
dei rischi
Anche in questo ambito le Linee
Guida affidano
al dirigente scolastico e al suo staff il controllo sulle cosiddette
azioni di mitigazione, e di conseguenza su chi deve metterle in atto,
ancora una volta sulla scorta della metodologia
HUDERIA:
protezione dei dati, programmi di manutenzione, progettazione etica
degli algoritmi, migliore comprensione dell’IA, formazione
continua, integrazione di sistemi ibridi, interazione sociale,
promozione del dialogo e del coinvolgimento.
Riemerge anche in
questo caso una visione tecno-ottimista «influenzata
dal “pregiudizio soluzionista” che trasforma ogni questione
sociale o politica in una questione tecnica, poiché “incorpora
l’idea che il modo per risolvere un problema sia trovare un
obiettivo su cui ottimizzare”»58.
4.4 Consapevolezza
e responsabilità nell’utilizzo dell’IA
A chiusura del
paragrafo dedicato all’introduzione dell’IA nelle scuole, ai/lle
docenti viene ricordato il proprio «fondamentale» ruolo
di guida e supporto allo sviluppo dell’autonomia dei/lle discenti,
nonché la necessità «imprescindibile» di
un costante aggiornamento. Al dirigente e al suo staff è affidato il
compito di verificare l’adeguatezza dei sistemi di IA.
Paragrafo
5. Comunicazione e governance
Il quarto
pilastro del
modello ha l’obiettivo di «facilitare
il pieno allineamento tra le indicazioni e le direttive del Ministero
e le progettualità realizzate dalle Istituzioni scolastiche, nonché
supportare il coinvolgimento e la sensibilizzazione dei diversi
stakeholder sul tema, dedicando particolare attenzione alla
governance dell’IA nelle Istituzioni scolastiche»,
col coordinamento degli USR. Il MIM «assumerà
un ruolo proattivo di monitoraggio, intercettando potenziali
criticità al fine di evitare disfunzioni operative e tutelare la
reputazione delle Istituzioni scolastiche».
Insomma,
le scuole dovranno allinearsi, subire eventuali condizionamenti di
soggetti esterni, mentre il ministero sorveglierà, effettuando
anche «valutazioni
a campione».
Paragrafo
6. Conclusioni
Le
conclusioni ribadiscono la «grande
opportunità» che
si presenta alle scuole e che il MIM intende «sostenere
e promuovere»,
e la necessità di un impegno costante da parte di tutti. Le Linee
Guida offrirebbero «una
struttura chiara e operativa» per
l’introduzione dell’IA nelle scuole, con un approccio graduale
per «raggiungere
gli obiettivi prefissati e costruire una scuola più inclusiva, equa
e preparata ad affrontare le sfide del futuro».
Che
fare?
Queste Linee
Guida sono
un ulteriore esempio dell’efficacia della «cattura
del regolatore» da
parte delle imprese Big Tech che, fin dalla pubblicazione, nel 2019,
delle Ethics
Guidelines for Trustworthy Artificial Intelligence (AI),
redatte dall’High-Level
Expert Group on Artificial Intelligence della
Commissione europea, mostrano la loro capacità di orientare verso i
propri interessi la discussione pubblica anche in questo settore.
Un
altro caso di ethics
washing: «”L’industria
organizza e coltiva dibattiti etici per guadagnare tempo – per
distrarre il pubblico e per prevenire o almeno ritardare una
regolamentazione e un processo decisionale efficaci”. Più in
generale, per Metzinger [uno
degli esperti che ha partecipato alla redazione delle Ethics
Guidelines,
ndr] la
storia di una “IA affidabile” è una narrazione di marketing
inventata dall’industria come “una storia della buonanotte per i
clienti di domani”».
«Il
lavaggio dell’etica nell’intelligenza artificiale è un ulteriore
passo di colonizzazione di contesti istituzionali che mostra la
portata e la velocità dell’azione aziendale. Un uso retorico
dell’etica nella dichiarazione è una potente strategia per
contrastare l’immagine dei lobbisti come sostenitori di un
“interesse speciale” e per integrarli tra i custodi
dell’“interesse pubblico” della scienza […] In
questa visione, l’intervento di lobbying passa dal mettere in
discussione le prove al mettere in discussione la loro legittimità,
fino ad agire come un modo per creare una visione del mondo in cui
non solo le prove, ma anche l’idea stessa di regolamentazione,
diventano irrilevanti o indesiderabili, se non come veicolo per la
ricerca di interessi privati. Coinvolti in questo progetto, la
scienza e il suo futuro appaiono vulnerabili»59.
Per
altro verso questo testo, con le sue prescrizioni progettuali, il
rafforzamento di ruoli e gerarchie rappresenta un altro esempio della
penetrazione della cultura aziendale con cui si sta stravolgendo il
ruolo della Scuola pubblica, da istituzione a impresa produttrice di
formazione ridotta a merce.
Resistere
a tutto questo è necessario, specialmente nella Scuola, per questa
ragione sosteniamo la campagna «I.A.
BASTA»60:
un appello contro queste tecnologie centralizzate di dominio, una
mozione da presentare in collegio docenti contro l’introduzione
dell’IA nella didattica e un questionario per conoscere cosa ne
pensa chi quotidianamente lavora in classe con i nostri ragazzi e le
nostre ragazze.
A
questo progetto non possiamo affidarci né affidargli le generazioni
a venire, bocciamo nei collegi docenti eventuali proposte di
introduzione acritica di queste tecnologie nella didattica, per la
difesa del nostro lavoro e per il bene dei nostri studenti e delle
nostre studentesse.
____________
NOTE
1.
A. Aresu, Geopolitica
dell’intelligenza artificiale,
2024
Time,
11.12.2025 https://time.com/7339685/person-of-the-year-2025-ai-architects/
2.
A. Aresu, Geopolitica
dell’intelligenza artificiale,
cit. «Nel
dibattito, trasmesso dalla BBC, McCarthy ammette perché ha inventato
nel 1955 l’espressione «intelligenza artificiale»: per avere
fondi. […] Parlare
di “intelligenza artificiale”, con “l’obiettivo a lungo
termine di raggiungere un’intelligenza di livello umano”, serve
per attirare attenzione e soldi. È un’intuizione di marketing».
3.
M. Murgia, Essere
umani. L’impatto dell’intelligenza artificiale sulle nostre vite,
2025
4.
D. Biella, a cura di, Atlante
dell’infanzia (a rischio) in Italia 2025. Senza filtri. Voci di
adolescenze,
novembre 2025
5.
OECD (2024), PISA
2022 Results,
PISA, OECD Publishing, Paris.
6.
S.I.P., Bambini
troppo digitali, troppo presto: ogni ora di schermo è un rischio per
corpo e mente,
2025.
7.
Commissione europea, Ethical
guidelines on the use of artificial intelligence (AI) and data in
teaching and learning for educators, 2022.
8.
M. Conti, La
finta “sperimentazione” dell’intelligenza artificiale nelle
scuole, Domani,
12.8.2025. «La
percezione è che dietro alla presunta sperimentazione ci sia «un
disegno politico», cioè la volontà di introdurre l’assistente
virtuale nelle scuole, a prescindere dai riscontri. «Tanto valeva
dire “noi vogliamo introdurre l’intelligenza artificiale a
scuola, chi vuole aderisca, tanto tra due anni lo generalizziamo”.
Sarebbe stato più onesto». E dire che le possibilità per una
ricerca serie esistevano: «Bisognava affidarsi a una equipe
scientifica seria, e in Italia ne abbiamo – spiega Maviglia – Ci
sono tante università italiane che hanno la cattedra di pedagogia
sperimentale. Si sarebbe potuta avviare una sperimentazione con tutti
i crismi della scientificità. Però ci vogliono tempo e soldi, non
ci si può improvvisare così».
9. Regolamento
(EU) 2024/1689 del Parlamento Europeo e del Consiglio che stabilisce
regole armonizzate sull’intelligenza artificiale [AI
Act],
art. 3, n. 1)
10.
Commissione europea, Ethical
guidelines, cit.
11.
F. Cabitza, Deus
in Machina? L’uso umano delle nuove macchine, tra dipendenza e
responsabilità,
2021
12.
C. Pateman, Partecipation
and Democratic Theory,
1970
13.
A. Honnet, Democrazia
e divisione sociale del lavoro,
in AA.VV., Perché
lavoro? 2020
14.
«si
usa designare come neoliberismo o neoliberalismo un’ideologia
universale che afferma che qualunque settore della società, ciascun
individuo in essa e, infine, la società intera in quanto somma dei
due elementi precedenti, può funzionare meglio, costare meno,
presentare minor problemi, essere più efficace ed efficiente qualora
sia governata in ogni momento dai principi di una razionalità
economica e strumentale […] Non
solo l’economia, l’impresa o il commercio dovrebbero essere
organizzati e gestiti secondo il principio della razionalità
economica ma anche i servizi pubblici: scuola, sanità, ricerca, beni
culturali. E così tutte le azioni degli individui, perché solo in
questo modo la loro somma complessiva darebbe origine a una società
migliore, nel senso di più efficiente e con costi minori […] Per
quanto riguarda la scuola primaria e secondaria si sta affermando il
principio che debba comportarsi, essere organizzata, agire e pensare
come un’azienda. E questa è una delle caratteristiche neoliberali
principali […] La
riforma della scuola del governo Renzi è stata sostanzialmente
scritta da una fondazione privata, di cui si citano esattamente i
passi, che vengono recepiti dal governo e dal parlamento»,
L. Gallino, intervistato da D. Colombo e E. Gargiulo, Come
il neoliberismo arrivò in Italia,
“Jacobin Italia”, 26.3.2022
– https://jacobinitalia.it/come-il-neoliberismo-arrivo-in-italia/.
15. «Il
lavoro “generato dagli utenti” è necessario per produrre diversi
tipi di valore: il “valore di qualificazione” (gli utenti
organizzano l’informazione lasciando commenti o dando voti su beni,
servizi e/o su altri utenti della piattaforma), che permette il
funzionamento regolare delle piattaforme; il “valore di
monetizzazione” (il prelievo di commissioni o la cessione di dati
forniti da attori ad altri attori) che fornisce liquidità a breve
termine; il “valore di automazione” (l’utilizzo di dati e
contenuti degli utenti per addestrare le intelligenze artificiali),
che si iscrive in uno sviluppo più a lungo termine», A.A.
Casilli, Schiavi
del clic. Perché lavoriamo tutti per il nuovo capitalismo? 2020.
16. «La
pandemia di COVID-19 ha rappresentato un momento decisivo per la
transizione a una forma di apprendimento più a distanza nel settore
dell’istruzione. L’apprendimento misto ha la potenzialità di
combinare efficacemente la didattica frontale e quella online in
un’unica esperienza coesiva»,
CE, Ethical
guidelines, cit.
17.
M.C. Pievatolo, Sulle
spalle dei mercanti? Teledidattica e civiltà tecnologica,
2022.
18. «Il
profilo professionale dei docenti è costituito da competenze
disciplinari, informatiche, linguistiche, psicopedagogiche,
metodologico-didattiche, organizzativo-relazionali, di orientamento e
di ricerca, documentazione e valutazione tra loro correlate ed
interagenti, che si sviluppano col maturare dell’esperienza
didattica, l’attività di studio e di sistematizzazione della
pratica didattica»,
art. 42, CCNL 2019/2021.
19.
K. Crawford, Né
intelligente né artificiale. Il lato oscuro dell’IA,
2021.
20.
ad esempio dalla Dichiarazione
europea sui diritti e i principi digitali per il decennio
digitale (2023/C
23/01): «L’intelligenza
artificiale dovrebbe fungere da strumento per le persone, con
l’obiettivo ultimo di aumentare il benessere umano», «Ogni
persona dovrebbe essere messa nelle condizioni di godere dei benefici
offerti dai sistemi algoritmici e di intelligenza artificiale, anche
compiendo le proprie scelte informate nell’ambiente digitale, e
rimanendo al contempo protetta dai rischi e dai danni alla salute,
alla sicurezza e ai diritti fondamentali».
21.
Regolamento (UE) 2024/1689: «La
diffusione dei sistemi di IA nell’istruzione è importante per
promuovere un’istruzione e una formazione digitali di alta qualità
e per consentire a tutti i discenti e gli insegnanti di acquisire e
condividere le competenze e le abilità digitali necessarie, compresa
l’alfabetizzazione mediatica, e il pensiero critico, per
partecipare attivamente all’economia, alla società e ai processi
democratici»
22. Agenzia
per l’Italia Digitale, Dipartimento
per la Trasformazione Digitale, Strategia Italiana per l’Intelligenza
Artificiale 2024-2026: «Realizzare percorsi educativi sull’IA
nelle scuole, per preparare le nuove generazioni a un uso attento e
consapevole delle nuove tecnologie; sviluppare iniziative di
divulgazione mirate a sensibilizzare e coinvolgere la società
italiana nella rivoluzione dell’IA; finanziare e sostenere
iniziative di reskilling e upskilling in tutti i contesti
produttivi».
23.
Commissione europea, Ethical
guidelines on the use of artificial intelligence,
cit.
24.
Perfino l’OCSE ammette che: «The
evidence shows that access to technology alone does not guarantee
educational gain»,
Forsström, S. et al. (2025), The
impact of digital technologies on students’ learning: Results from
a literature review, OECD
Education Working Papers,
No. 335, OECD Publishing, Paris, https://doi.org/10.1787/9997e7b3-en.
Su
specifici rischi, specialmente – ma non solo – per studenti
BES, «…
parents of school-aged children in the United Kingdom expressed their
concerns about AI in education, particularly regarding its
accountability (77%) and privacy and security (73%)», «Evidence
reveals that content produced by LLMs contains bias against women,
homophobic attitudes and racial stereotyping (UNESCO and IRCAI,
2024)», «AI
algorithms can also reinforce biases, thereby perpetuating
inequalities and discriminatory practices against specific groups
(Baker and Hawn, 2021). This can occur through training data that
reflect societal biases (e.g. gender, racial/ethnic) or through the
unconscious or conscious biases of algorithm developers», «Another
risk is that AI solutions are developed because they are technically
possible, rather than resulting from real needs expressed by the
intended users before or during the development phase»,
Linsenmayer, E. (2025), Leveraging
artificial intelligence to support students with special education
needs, OECD
Artificial Intelligence Papers,
No. 46, OECD Publishing, Paris, https://doi.org/10.1787/1e3dffa9-en.
Sulla
situazione italiana, M. Gui, Il
digitale a scuola. Rivoluzione o abbaglio?,
2019
25.
N. Cristianini, La
scorciatoia. Come le macchine sono diventate intelligenti senza
pensare in modo umano,
2023.
26.
D. Tafani, L’«etica»
come specchietto per le allodole. Sistemi di intelligenza artificiale
e violazioni dei diritti, Bollettino
telematico di filosofia politica,
2023 https://commentbfp.sp.unipi.it/letica-come-specchietto- per-le-allodole/
27. «L’intelligenza
artificiale al servizio dell’umanità, un approccio umano al
problema, la centralità del fattore umano: le variazioni sul tema
sono innumerevoli. Siamo assillati da questo marketing del concetto
di umanità, anche attraverso un florilegio di proposte di
governance […] Nel
mentre, ciò che non sappiamo definire con precisione assume una
concretezza nei bilanci, negli investimenti in ricerca e in ulteriore
capacità di calcolo, nelle conseguenze sulle forme e
sull’organizzazione del lavoro»,
A. Aresu, Geopolitica
dell’intelligenza artificiale,
cit.
28.
M. Castellini e C. Ferrario, La
riforma della pubblica amministrazione italiana e il risk management:
riflessioni su un processo in divenire,
2021.
29.
F. Pasquale e G. Malgieri, From
Transparency to Justification: Toward Ex Ante Accountability for
AI, Brussels
Privacy Hub Working Papers,
VIII, 33, 2022.
30.
G. Casula, Cos’è
successo tra Report e il Garante della privacy e perché le
opposizioni ora chiedono di scioglierlo, fanpage.it,
11.11.2025; T. Mackinson, “Omissioni,
ritardi e sanzioni dubbie”: il Garante della Privacy finisce sotto
inchiesta dopo 3 esposti. Le accuse all’Authority, Il
Fatto Quotidiano,
18.11.2025.
31.
F. Fiano, Sogei,
dall’arresto di Iorio alle perquisizioni a Cannarsa: tutte le tappe
dell’inchiesta, Corriere
della Sera,
5.3.2025; I. Sacchettoni, Inchiesta
Sogei: Paolino Iorio e Massimo Rossi condannati a tre anni (con
patteggiamento), Corriere
della Sera,
21.3.2025.
32.
Access Now, The
EU AI Act: a failure for human rights, a victory for industry and law
enforcement,
13.3.2024.
33.
Le aziende tecnologiche spendono per le lobby sulle politiche
digitali di Bruxelles 97 milioni di € l’anno, Corporate Europe
Observatory and LobbyControl e.V., The
lobby network: Big Tech’s web of influence in the EU,
2021
34.
M. Carmignani, AI
Act azzoppato, favore alle big tech: Europa periferia dell’impero,
Agenda Digitale, 10.11.2025.
35.
sulla discussione e approvazione di questa legge: Senato della
Repubblica, Legislatura
19ª – Aula – Resoconto stenografico della seduta n. 342 del
17/09/2025
36.
A. Birhane, E. Ruane, T. Laurent, M.S. Brown, J. Flowers, A.
Ventresque, C.L., Dancy, The
Forgotten Margins of AI Ethics,
in Conference
on Fairness, Accountability, and Transparency,
2022 https://doi.org/10.1145/3531146.3533157
37.
D. Tafani, L’«etica»
come specchietto per le allodole,
cit.
A.
Alkhatib, To
Live in Their Utopia: Why Algorithmic Systems Create Absurd
Outcomes, Conference
on Human Factors in Computing Systems,
2021, https://ali-alkhatib.com/papers/chi/utopia/utopia.pdf
38. «Research
funding and academic freedom are presently under a worldwide attack
(ALLEA 2025;
Kinzelbach et al. 2025;
KNAW 2025).
The technology industry is taking advantage of us, sometimes even
speaking through us, to convince our students that these AI
technologies are useful (or necessary) and not harmful»,
Guest et alii, Against
the Uncritical Adoption of ‘AI’ Technologies in Academia,
2025. Qui la
condivisibile Lettera
Aperta redatta
da questi autori.
39.
T. Phan, J. Goldenfein, M. Mann, D. Kuch, Economies
of Virtue: The Circulation of ‘Ethics’ in Big Tech, Science
as Culture,
2021 https://ssrn.com/abstract=3956318
40.
Linsenmayer, E. (2025), Leveraging
artificial intelligence to support students with special education
needs,
cit.
41.
United Nations Environment Programme-UNEP, Artificial
intelligence (AI) end-to-end: The environmental impact of the full AI
life cycle needs to be comprehensively assessed,
2024.
42.
S. Tirrito, AtomicAi:
così le Big tech investono sul nucleare per sfamare i data center,
17.11.2025.
43.
M. Carmignani, I
modelli AI mentono nei test: sicurezza a rischio, ecco perché,
Agenda Digitale, 23.9.2025
44.
Commissione europea, Ethical
guidelines on the use of artificial intelligence (AI) and data in
teaching and learning for educators,
2022.
45.
Council of Europe – Committee on Artificial Intelligence
(CAI), Methodology
For The Risk And Impact Assessment Of Artificial Intelligence Systems
From The Point Of View Of Human Rights, Democracy And The Rule Of
Law (HUDERIA
Methodology), 2024.
46.
D. Tafani, L’«etica»
come specchietto per le allodole. Sistemi di intelligenza artificiale
e violazioni dei diritti,
cit.
47.
Amazon Web Services – AWS, Generative
Artificial Intelligence (AI). Document Summarisation Proof Of
Concept. Prepared For Australian Securities And Investments
Commission (ASIC),
Final Report, March 2024
48.
C. Wilson, AI
worse than humans in every way at summarising information, government
trial finds, Crikey,
2024
49.
MIT NANDA, The
GenAI Divide STATE OF AI IN BUSINESS 2025,
2025.
50.
D. Fant e C. Milani, Pedagogia
hacker,
Approfondimenti, 2024
51.
H. Braverman, Lavoro
e capitale monopolistico. La degradazione del lavoro nel XX secolo,
1978.
52. PNRR.
Missione 4: Istruzione e ricerca. Componente 1 – Potenziamento
dell’offerta dei servizi di istruzione: dagli asili nido alle
Università Investimento 3.2: Scuola 4.0 – Piano Scuola 4.0,
2022.
53.
Commissione europea, European
Framework for the Digital Competence of Educators: DigCompEdu,
2017.
54.
L. Hao-Ping (Hank) et al., The
Impact of Generative AI on Critical Thinking: Self-Reported
Reductions in Cognitive Effort and Confidence Effects From a Survey
of Knowledge Workers,
2025.
Forti
preoccupazioni emergono anche dai recenti studi condotti negli U.S.A.
dal College
Board: U.S.
High School Students’ Use of Generative Artificial Intelligence,
ottobre 2025 e Variation
in High School Student, Parent, and Teacher Attitudes Toward the Use
of Generative Artificial Intelligence,
dicembre 2025.
55.
R. Vuorikari, S. Kluzer, and Y. Punie, DigComp
2.2: The Digital Competence Framework for Citizens,
2022.
56.
R. Kurzweil, The
Age of Spiritual Machines. When Computers Exceed Human Intelligence,
1999 in A. Aresu, cit.
57.
Linsenmayer, E. (2025), Leveraging
artificial intelligence to support students with special education
needs, OECD
Artificial Intelligence Papers,
cit.
58.
D. Tafani, Do
AI systems have politics? Predictive optimisation as a move away from
liberalism, the rule of law and
democracy, https://doi.org/10.5281/zenodo.10229060
59.
A. Saltelli, D.J. Dankel, M. Di Fiore, N. Holland, M.
Pigeon, Science,
the endless frontier of regulatory capture,
2021, https://doi.org/10.1016/j.futures.2021.102860.
60.
il sito della campagna «I.A.
Basta» è
raggiungibile all’indirizzo https://iabasta.ghost.io/