Intelligenza Artificiale a Scuola: un Alleato per Insegnanti e Alunni? Wanda Mass a Cinzia Notaro.

13 Agosto 2025 Pubblicato da Lascia il tuo commento

  
  

Marco Tosatti

Cari amici e nemici di Stilum Curiae, Cinzia Notaro, che ringraziamo di cuore, offre alla vostra attenzione questa intervista alla dott.ssa Wanda Massa. Buona lettura e diffusione.

§§§

INTELLIGENZA ARTIFICIALE A SCUOLA: UN ALLEATO PER INSEGNANTI E ALUNNI ?

 

  
  

Sebbene occorra riconoscere i vantaggi dell’Intelligenza Artificiale nel contesto scolastico come la personalizzazione dell’apprendimento, il supporto educativo, l’ottimizzazione della gestione scolastica, l’insegnamento interattivo e coinvolgente, il supporto agli insegnanti, l’accessibilità, lo sviluppo di competenze futuristiche, la flessibilità e l’adattamento … bisogna anche tenere conto dei relativi rischi del suo utilizzo.
Facciamo il punto con la dott.ssa Wanda Massa, laureata in Scienze dell’Informazione, vicepresidente dell’Associazione “Ora et Labora in Difesa della Vita”, tra i soci fondatori dell’associazione “Luces Veritatis”, finalizzata a favorire la realizzazione di una rete di comunità, ispirate alla regola benedettina e alla dottrina sociale della Chiesa Cattolica.

La dott.ssa specifica di essersi avvalsa nell’elaborazione delle risposte, dell’autorevole e preziosa collaborazione del presidente della su citata Associazione, il prof. Luca Lezzerini,ricercatore,consulente e saggista,che quotidianamente si occupa di I.A. nell’ ambito della propria attività di docente universitario presso l’Università Polis di Tirana.

 

 

 

Dott. Massa l’ I.A. potrebbe portare ad essere passivi cognitivamente accettando come validi, senza alcuno spirito critico quanto viene risposto dagli algoritmi?

 

L’I.A. rientra nella scienza dei dati. In passato la scienza dei dati si fondava esclusivamente su tecnologie statistiche, oggi queste ultime vengono supportate dall’I.A., che attraverso strumenti di machine learning (apprendimento automatico), consente l’elaborazione in tempo reale di un’enorme mole di informazioni.

In questa intervista ci riferiremo ad alcune applicazioni di tipo chatbot (ChatGPT, Copilot, Gemini …), afferenti all’intelligenza generativa, che a fronte di esplicite direttive in linguaggio naturale da parte dell’utente, sono in grado di produrre complessi contenuti di tipo multimediale (testo, musica, immagini).

L’utilizzo di questi strumenti comporta diversi rischi. Primo fra tutti, la possibilità di produrre contenuti erronei. In gergo tecnico si parla di allucinazioni dell’IA. Si tratta di eventualità tutt’altro che remote e dipendenti principalmente dalla tipologia di dati sui quali l’I.A. è stata addestrata oltre che dal modo in cui le risposte vengono generate.

Considerando che l’obiettivo primario dell’intelligenza generativa non è fornire risultati veri, ma verosimili, è fondamentale educare le persone al suo uso consapevole, incoraggiando la ricerca di fonti diverse su cui confrontare i risultati ottenuti, vincendo la diffusa tentazione dell’inerzia mentale, alimentata dalla comodità di disporre di risposte preconfezionate.

Sono quindi da privilegiare quel tipo di tecnologie che, a differenza di ChatGPT, corredano i propri risultati con l’elenco delle fonti consultate (ad esempio Perplexity), consentendo quindi di valutarne correttezza e autorevolezza.

Il principio in base a cui “chi controlla il sapere, controlla il potere” è valido da sempre e l’I.A. non fa eccezione perché si presta ad essere utilizzata dai centri di potere come strumento di divulgazione del pensiero unico, omologante e manipolatorio. Basta riflettere sul fatto che ogni  nuova intelligenza artificiale prodotta  viene affidata a team di ricercatori affinchè  ne verifichino i requisiti di attendibilità, attraverso una specifica fase di test.

È dunque fondamentale che gli insegnanti educhino i propri studenti ad esercitare lo spirito critico, insegnando loro ad utilizzare le intelligenze generative come strumenti complementari, che richiedono il nostro attivo coinvolgimento nel processo.

Il prof. Luca Lezzerini, come modus operandi, consiglia agli studenti di preparare un canovaccio preliminare del lavoro che si intende produrre con l’ausilio dell’I.A., così da utilizzarlo come strumento di verifica e perfezionamento del risultato che verrà prodotto dallo strumento automatico.

 

Potrebbe anche causare un’atrofia della memoria?

 

La domanda evoca la polemica molto antica, sollevata già da Platone nel Fedro, dove, attraverso il mito di Theuth, raccontato da Socrate, la scrittura viene accusata di cristallizzare il pensiero e quindi rendersi responsabile dell’atrofia della memoria, rispetto all’utilizzo del dialogo come strumento vivo di indagine filosofica.

Se è vero il principio fisico per cui si atrofizza l’organo che non esercita la funzione per cui è stato preposto, il maggior responsabile dell’odierna atrofia della memoria è la cultura dell’ASAP (as soon as possible), ormai diffusa ovunque e in qualunque contesto.

Se le persone, nella logica del “tutto subito” utilizzano l’ I.A. in modo immediato e passivo, certamente si espongono a questo rischio; qualora invece se ne avvalgano come un formidabile motore di ricerca e strumento di introspezione dei dati, su cui innestare il proprio contributo personale, può rivelarsi uno strumento straordinariamente efficace.

In definitiva, anche in questo caso la questione si colloca nella modalità di utilizzo della tecnologia. Se questa è considerata come un’opportunità per ampliare le facoltà della nostra mente e non come un mero sostituto della nostra memoria, potremmo usufruirne senza compromettere le nostre capacità cognitive. Ma se ci affidiamo completamente a questi strumenti senza stimolare il nostro pensiero attivo, allora l’atrofia della memoria potrebbe diventare una realtà.

In concreto il consiglio per gli educatori è di spronare i giovani a riscoprire tutta una serie di attività che compensino questa tendenza all’atrofia cerebrale, dal gioco degli scacchi, alla lettura, all’allenamento della memoria.

L’esercizio della forma mentale, non meno importante di quella fisica, deve essere un obiettivo primario della scuola, che dovrebbe incentivare negli alunni un sano spirito di collaborazione e competizione, promuovendo, in una sorta di palestra cerebrale, attività quali gare di matematica, di memorizzazione, studio della poesia e dell’arte figurativa …

 

Un sovraccarico di dati può rendere difficile per gli insegnanti prendere decisioni efficaci fondandosi su tali informazioni?

 

Si. L’insegnante, che per sua natura sintetizza e contestualizza il sapere con l’ IA,  si deve misurare con un’enorme quantità di dati, la cui gestione può risultare impegnativa in termini di comprensione e presa di decisione.

Il docente, che dovrebbe comunque beneficiare di una formazione adeguata sull’utilizzo di queste tecnologie, deve essere in grado di valutare le fonti utilizzate dall’intelligenza generativa in termini di autorevolezza e pertinenza.

Un’altra criticità per i docenti è costituita dalla necessità di elaborare un giudizio sullo studente a partire dalla pletora di esiti delle valutazioni automatiche (test, osservazioni, registri digitali e piattaforme educative) talvolta contradditorie, non esenti da errori e spesso riduttive e svilenti nella valorizzazione delle capacità individuali, se non integrate e mediate da verifiche di tipo tradizionale, a risposta aperta.

Per destreggiarsi in uno scenario così complesso e in divenire, l’insegnante dovrebbe riscoprire la passione per la propria materia per poter comunicare un sapere che vive in prima persona, piuttosto che agire come mero ripetitore del contenuto dei libri di testo o dei risultati prodotti dall’I.A.

 

La privacy e la sicurezza non sarebbero protetti nel caso l’ I.A. richiedesse dati personali degli studenti?

 

Premesso che per dato personale si intende un’informazione riconducibile a un individuo identificabile, la privacy e la sicurezza di questo genere di informazioni sono preoccupazioni fondamentali quando si parla di intelligenza artificiale in ambito scolastico. Gli studenti, in particolare i minori, sono soggetti vulnerabili e i dati che li riguardano devono essere trattati con la massima cura.

In particolare la raccolta di questi dati deve essere giustificata, sottoposta al consenso esplicito delle famiglie o degli studenti stessi (se maggiorenni) e deve rispettare le disposizioni di legge che la disciplinano, come il GDPR (Regolamento Generale sulla Protezione dei Dati) dell’UE.

Consideriamo inoltre che tutti i dati che vengono forniti alle applicazioni di I.A. vanno ad arricchire il set di informazioni di addestramento utilizzato dalle stesse.

Talvolta può accadere che, nonostante le disposizioni di autocensura e sbarramento di cui sono dotati i programmi di I.A., questo genere di informazioni venga reso pubblico.

Inoltre le applicazioni di I.A. sono progettate per essere amichevoli, per assecondare l’utente e far proseguire il dialogo, può quindi accadere che i giovani, scambiando la macchina per un confidente forniscano informazioni più sensibili e riservate, esponendosi in tal modo a seri rischi.

L’utilizzo di un motore di ricerca che può dare consigli affettivi nelle mani di un ragazzo, senza la supervisione di un adulto esperto, può essere estremamente pericoloso. L’ I.A. infatti può amplificare disagi psicologici e pensieri ossessivi, oltre ad incentivare l’individualismo e creare problemi relazionali.

 

Anche i sistemi che utilizzano l’ I.A. possono essere al centro di attacchi informatici?

 

I sistemi che utilizzano l’ I.A. sono vulnerabili al pari di qualunque altra tecnologia informatica, sia nella fase di addestramento, che in quella di generazione (ossia quando rispondono ad una domanda …).

In alcuni casi, possono rappresentare un obiettivo ancora più interessante per gli hackers, a causa della natura complessa e dei dati sensibili che gestiscono.

La manipolazione dei dati di addestramento o di input/output conduce a previsioni o decisioni errate.

Particolarmente grave è il pericolo di furto di identità, truffe, estorsioni o violazione della privacy degli utenti quando vengono violati i dati sensibili presenti nel sistema.

La stessa I.A. può essere utilizzata per condurre attacchi informatici e per creare deepfake, ovvero elementi multimediali (audio, video, immagini) falsi ma verosimili, con finalità criminali e manipolatorie.

In questi casi si parla di attacco di ingegneria sociale, fenomeno che sarà sempre più diffuso.

È quindi necessario che gli studenti ricevano una formazione adeguata per difendersi da queste minacce.

 

L’accesso non uniforme alla tecnologia può aumentare il divario tra gli alunni in possesso di strumenti I.A. e quelli che non li possiedono?

 

Marguerite Yourcenar in Memorie di Adriano (1953) scriveva che fondare biblioteche è come costruire granai a dimostrazione dell’importanza della cultura e dei libri in particolare, nell’affrontare l’inverno dello spirito.

La stessa cosa vale anche per l’ I.A.

Una buona biblioteca scolastica dovrebbe disporre di adeguati strumenti di I.A. corredati di corsi di formazione per il relativo utilizzo.

Oggi i costi degli strumenti di intelligenza generativa a pagamento sono relativamente contenuti (dell’ordine di poche decine di euro al mese) e quindi risultano sostenibili nella maggior parte dei casi.

Il divario tecnologico esiste, ma può e deve essere colmato, soprattutto per quanto riguarda la necessità di mettere i giovani in condizioni di avvalersi efficacemente di tali strumenti, in piena consapevolezza dei rischi e benefici.

 

Potrebbe generare dipendenza tecnologica per l’apprendimento a discapito dell’interazione umana?

 

Disporre di uno strumento facilitatore, condiscendente fino all’adulazione può facilmente indurre a privilegiare l’interazione con il dispositivo tecnologico, piuttosto che coltivare relazioni umane, che sono estremamente più complesse, ma soprattutto reali.

Al contrario, l’uso ragionato, critico e corretto di queste tecnologie può favorire il livello di interazione perché contribuisce ad arricchire il bagaglio culturale personale condivisibile con i propri simili.

Il rischio di dipendenza e isolamento è ancora più grave e concreto, non tanto per l’influenza dell’ I.A., quanto piuttosto per l’uso indiscriminato dei social e dei pericoli ad essi connessi, in primis la pornografia, che produce effetti devastanti dal punto di vista relazionale e affettivo.

Esistono diverse soluzioni approntabili in ambito scolastico; il prof. Luca Lezzerini in base alla propria esperienza fornisce alcuni utili suggerimenti nell’incentivare il lavoro di squadra in cui l’ I.A. è uno degli strumenti che si prestano nello stimolare la creatività non in modo spontaneistico, ma guidato, attraverso la proposta di modelli concreti di riferimento.

Si tratta di passare da un insegnamento di tipo frontale, in cui il docente intrattiene monologhi interminabili di fronte ad un uditorio apatico, ad un modo di insegnamento che propone delle sfide, in cui l’insegnante introduce un argomento e il discente lo perfeziona sotto la sua guida, lavorando singolarmente o in gruppo.

È la metodologia del baccalaureato internazionale, sperimentata con successo sin dal 2013 dall’associazione Still I Rise, con l’obiettivo di offrire una istruzione d’eccellenza completamente gratuita ai ragazzi vulnerabili delle aree disagiate del globo e ai rifugiati.

Il 14 giugno scorso è stato presentato a Bologna in anteprima mondiale il film School of Life, prodotto da Groenlandia con Rai Cinema che documenta questa straordinaria esperienza didattica, il cui approccio educativo, fondato sull’elaborazione personale e sulla condivisione risulta particolarmente interessante nell’affrontare le attuali sfide tecnologiche.

 

Se non strutturati e controllati adeguatamente, gli algoritmi di I. A. potrebbero contenere pregiudizi che riflettono o aumentano le disuguaglianze nel sistema educativo?

 

È così ed è stato riscontrato scientificamente.

Studi condotti su alcune chatbot hanno evidenziato come queste tecnologie forniscano giudizi allineati al pensiero dem statunitense. Gli algoritmi di I.A. sono quindi spesso orientati ideologicamente e politicamente in una forma  ben definita.

Di conseguenza, se veicoliamo l’insegnamento solo attraverso l’ I.A. ci esponiamo al rischio del bias, ovvero delle distorsioni introdotte accidentalmente o volutamente nell’elaborazione dei risultati, contribuendo a formare una generazione di indottrinati.

Le stesse considerazioni purtroppo valgono anche per la maggioranza dei testi scolastici.

È quindi essenziale, come si è ribadito più volte nel corso di questa intervista, educare all’esercizio dello spirito critico.

È importante che le scuole tornino ad essere, come nel Medioevo, centri di produzione di contenuti, prodotti dagli studenti sotto la guida dei propri insegnanti.

 

E’ fondamentale stabilire principi etici per un uso corretto dell’I.A. affinché possa essere impiegata in modo proficuo per gli studenti?

 

Certamente e per vari motivi.

In primo luogo perché i giovani devono comprendere la rilevanza del ruolo dell’etica nella scienza. È stato uno dei temi centrali del pontificato di Benedetto XVI, che già nel 2005 pronunciava queste parole: “Occorre infatti guardarsi dai rischi di una scienza e di una tecnologia che si pretendano completamente autonome nei confronti delle norme morali inscritte nella natura dell’essere umano”  https://www.vatican.va/content/benedict-xvi/it/speeches/2005/november/documents/hf_ben_xvi_spe_20051119_pastorale-salute.html ).

Riconoscere l’esistenza e la validità di principi etici nell’impiego della tecnologia, disciplina la ricerca scientifica e le impedisce di recare danno all’uomo. In particolare nel giovane è di primaria importanza riconoscere l’esistenza di limiti e regole, fondate sul diritto naturale per perseguire il benessere proprio e altrui.

Educare gli studenti ai principi di solidarietà, sussidiarietà e bene comune, come sono illustrati nella Dottrina Sociale della Chiesa, consente loro di affrontare la vita con serenità e chiarezza di giudizio.

Vediamo come i tre principi cardine possono essere calati nel contesto tecnologico attuale.

La sussidiarietà prevede che se esistono delle attività che posso compiere autonomamente, devo gestirle in autonomia. Nel caso dell’I.A. si declina nel compito di verifica, integrazione e correzione dei risultati prodotti dall’applicazione tecnologica.

La solidarietà si traduce nell’educazione dei giovani alla condivisione e al lavoro di squadra.

Infine il bene comune scaturisce dalla necessità di agire in modo da recare giovamento a tutti, nella consapevolezza che ogni nostra azione deve perseguire anche l’obiettivo secondario del bene comune.

Siamo di fronte al ribaltamento dell’attuale sistema educativo, che spesso si fonda su una malsana competizione, sul livellamento al ribasso, sulla deresponsabilizzazione del singolo.

I principi etici innestati sul solido fondamento della Dottrina Sociale chiaramente non sono finalizzati alla sola I.A., ma conducono al miglioramento della società stessa anche attraverso l’uso dell’I.A.

 

Ormai l’epoca di “carta , penna e calamaio” sono superati, roba di altri tempi . Qualche nostalgia?

 

Carta e penna devono essere mantenute perché hanno un ruolo fondamentale nello sviluppo cognitivo.

Oggi in modo particolare devono essere preservate la capacità di scrittura e di calcolo mnemonico, che sono competenze estremamente importanti.

Oltretutto la loro mancanza ci impedisce di comprendere il valore degli strumenti tecnologici di cui disponiamo.

Più si avanza nella digitalizzazione, più diventa importante preservare l’analogico.

Le abilità di scrittura, calligrafia, lettura e lettura veloce, di calcolo scritto e a mente, di pensiero critico e di pensiero laterale devono essere assolutamente mantenute, in quanto costituiscono la nostra identità e ci rendono persone libere. Anche se la scuola in molti casi le ha praticamente abbandonate, vanno riscoperte e rivalutate.

Le nuove generazioni  devono esercitare queste abilità divertendosi, in una sana competizione positiva.

Pochi giorni fa, in occasione del giubileo dei giovani, papa Leone XIV parlando delle nuove tecnologie ha pronunciato queste parole, che si prestano bene come sintesi e conclusione di questa intervista:

“Oggi ci sono algoritmi che ci dicono quello che dobbiamo vedere, quello che dobbiamo pensare, e quali dovrebbero essere i nostri amici. E allora le nostre relazioni diventano confuse, a volte ansiose. È che quando lo strumento domina sull’uomo, l’uomo diventa uno strumento: sì, strumento di mercato, merce a sua volta. Solo relazioni sincere e legami stabili fanno crescere storie di vita buona” (rif. https://www.vatican.va/content/leo-xiv/it/speeches/2025/august/documents/20250802-veglia-tor-vergata.html).

§§§

Aiutate Stilum Curiae

IBAN: IT79N0200805319000400690898

BIC/SWIFT: UNCRITM1E35

ATTENZIONE:

L’IBAN INDICATO NELLA FOTO A DESTRA E’ OBSOLETO.

QUELLO GIUSTO E’:

IBAN: IT79N0200805319000400690898

***

  
  

Condividi i miei articoli:

Libri Marco Tosatti

Tag: , , , ,

Categoria:

Lascia un commento