RSS

Archivi tag: pedagogia

IA in aula: serve una visione chiara

L’intelligenza artificiale è già seduta tra i banchi: nei compiti scritti con l’aiuto di ChatGPT, nei registri elettronici, nei sistemi di supporto alla valutazione, nelle piattaforme didattiche che suggeriscono esercizi personalizzati. L’ingresso dell’IA nel mondo dell’istruzione è ormai affermato e il tempo di chiedersi se sia giusto o meno è scaduto: ora è il momento di capire come farne un uso costruttivo e, soprattutto, con quali regole e con quali consapevolezze. Non spetta ovviamente al sottoscritto dare risposte definitive: il mio intento, umile ma spero utile, è quello di proporre qualche strumento di lettura critica su un fenomeno che riguarda tutti: studenti, docenti, famiglie, istituzioni.

Nell’agosto del 2025 il Ministero dell’Istruzione e del Merito ha pubblicato le Linee guida per l’introduzione dell’Intelligenza Artificiale nelle scuole, parte della più ampia Strategia italiana per l’intelligenza artificiale 2024-2026 elaborata dall’AgID. Nel novembre dello stesso anno è arrivato un investimento di 100 milioni di euro destinati alla formazione del corpo docente e alla creazione di laboratori dedicati alla transizione digitale, risorse PNRR che segnalano quanto la questione sia ormai considerata prioritaria anche a livello di politica pubblica.

Il documento ministeriale afferma un principio chiaro: l’IA è uno strumento, non un fine. Deve essere messa al servizio della didattica e della crescita umana degli studenti, sempre nel rispetto dell’AI Act europeo e dei diritti fondamentali. La sorveglianza umana di insegnanti, dirigenti e famiglie resta insostituibile.

Il quadro italiano si inserisce in una riflessione più ampia. A gennaio 2026 l’OCSE ha pubblicato il suo rapporto sull’educazione digitale e l’IA generativa nell’istruzione, un documento che vale la pena leggere con attenzione, non perché offra ricette facili, ma proprio perché si guarda bene dal farlo. Il tono è volutamente sobrio: dopo anni di investimenti in tecnologia educativa in tutto il mondo, i risultati si sono rivelati disomogenei. Il digitale ha allargato opportunità in molti contesti, ma non ha automaticamente chiuso i gap di apprendimento, né innalzato in modo uniforme la qualità della didattica. La lezione principale è quasi controintuitiva: digitalizzare non significa migliorare. Non è sufficiente dotare le classi di dispositivi o piattaforme. Ciò che fa la differenza, secondo l’OCSE, è la preparazione pedagogica dei docenti, la coerenza tra strumenti digitali e obiettivi curricolari, insieme alla capacità di misurare davvero l’impatto di quello che si fa.

Anche il dibattito pubblico italiano si è intensificato: Il podcast Puntini sull’AI di Radio Radicale, nella puntata del gennaio 2026 dedicata alla scuola, ha esplorato cosa accade davvero quando gli algoritmi entrano nelle aule, non nella versione patinata dei convegni, ma nelle realtà quotidiane di chi insegna e di chi impara. E a questo proposito suggerisco anche la puntata di Intelligenze Artificiali che Matteo Flora ha dedicato all’IA nelle scuole, in cui ha esaminato i modi d’uso concreti dell’IA nel sistema scolastico italiano, evidenziando le tensioni tra potenziale innovativo e rischi sottovalutati.

Vale la pena guardare con onestà alle possibilità genuine che queste tecnologie aprono, senza cedere né all’entusiasmo acritico né al rifiuto pregiudiziale. Ogni studente ha tempi, modalità e punti di forza diversi. Gli strumenti di IA generativa possono adattare spiegazioni, esercizi e feedback alla fase in cui si trova ciascuno, cosa difficilissima da garantire in una classe di venticinque persone con un solo insegnante. E non si tratta solo di teoria: alcune sperimentazioni negli Stati Uniti citate nel rapporto OCSE 2026 mostrano che l’impiego di un tutor basato su IA generativa, progettato per stimolare il ragionamento attivo invece di limitarsi a fornire risposte, ha prodotto risultati di apprendimento superiori rispetto allo stesso corso tenuto in aula senza supporto algoritmico. Gli studenti hanno compreso di più e si sono mostrati più coinvolti. La differenza, però, stava nel come: l’IA era costruita con un preciso obiettivo pedagogico, non come scorciatoia.

Sempre nel rapporto OCSE si parla di un caso particolarmente interessante: docenti meno esperti che, grazie al supporto di strumenti di IA generativa, hanno migliorato la qualità delle loro strategie didattiche, con ricadute positive anche sugli apprendimenti degli studenti. Questo suggerisce che l’IA, se ben calibrata, può avere effetti positivi anche sul fronte dell’equità, aiutando a compensare le disuguaglianze legate alla qualità variabile dell’insegnamento.

Uno studente universitario che usa un assistente conversazionale per farsi spiegare un concetto in modi diversi, per testare la propria comprensione con domande simulate, o per organizzare la struttura di una tesi, sta sfruttando un potenziale reale. Questo non deve essere visto come un espediente per barare: è come avere un tutor disponibile a qualsiasi ora. Anche gli insegnanti possono farsi supportare dalla IA: le incombenze amministrative, la compilazione di registri, la preparazione di materiali standardizzati occupano una parte importante del loro tempo. Liberarli da queste attività tramite strumenti intelligenti significa restituire energia e attenzione alla parte più preziosa del lavoro: la relazione con gli studenti, la lettura delle loro difficoltà, la capacità di motivare.

Un articolo pubblicato su Nature a dicembre 2025, raccontando un’esperienza in corso a Sydney, proponeva la visione radicale (ma stimolante) dell’IA come infrastruttura di base di tutto il percorso accademico. In questo scenario, ogni fase (dall’orientamento iniziale alla personalizzazione dei contenuti, dalla valutazione dei progressi alla gestione amministrativa) verrebbe ripensata con l’IA come asse portante e il ruolo dei docenti cambierebbe di conseguenza: meno trasmissione frontale di nozioni, più mentorship, guida critica, accompagnamento umano. L’ateneo diventerebbe più flessibile, potenzialmente più capace di rispondere al calo delle iscrizioni e al disallineamento tra formazione e mercato del lavoro. In teoria, un sistema più accessibile e rilevante. In teoria.

Ma eccoci al punto in cui la prudenza è d’obbligo. Le opportunità appena descritte non sono automatiche: si realizzano solo in presenza di condizioni precise, e in loro assenza possono trasformarsi in danni. Il rischio più documentato e più insidioso è nel “miraggio della competenza”: il rapporto OCSE cita uno studio su studenti di matematica che, affidandosi a strumenti generici di IA generativa durante le esercitazioni, hanno mostrato un miglioramento apparente vicino al 50% nei compiti svolti con il supporto dell’algoritmo. Ma quando, all’esame, l’IA è stata rimossa, le loro prestazioni sono risultate sensibilmente peggiori rispetto a chi aveva studiato senza supporti artificiali. La tecnologia aveva prodotto un’illusione di padronanza: certo, migliorava l’output immediato, ma senza costruire comprensione reale. È una distinzione fondamentale, e dovrebbe far riflettere chiunque sia tentato di valutare l’efficacia di uno strumento solo dai risultati a breve termine.

Un altro rischio è il debito cognitivo: se deleghiamo all’IA la fatica del pensiero, cioè la ricerca delle parole giuste, la costruzione di un argomento, il ragionamento, rischiamo di non sviluppare quelle capacità. Come un muscolo che non viene allenato, il senso critico e analitico si atrofizza se non viene esercitato. L’articolo di Nature su Sydney avverte esplicitamente che un ricorso eccessivo all’IA può portare a plasmare studenti abituati a farsi condurre dagli algoritmi, con effetti negativi sull’autonomia intellettuale e sullo sviluppo del pensiero critico. E l’attendibilità delle fonti? I modelli di linguaggio generativo producono testi plausibili, ben scritti, convincenti… ma non necessariamente veri, lo sappiamo. A volte inventano citazioni, in altri casi falsificano dati e confondono dettagli storici con la stessa disinvoltura con cui producono contenuti accurati. Uno studente che non ha ancora sviluppato gli strumenti per verificare le fonti è particolarmente vulnerabile. L’IA non è un’enciclopedia: è uno strumento che richiede senso critico da parte di chi la usa.

Ma c’è anche un aspetto strutturale: le scuole con meno risorse, che spesso sono quelle che servono le comunità più fragili, rischiano di rimanere ai margini della transizione digitale, non potendo garantire connettività, dispositivi adeguati e docenti formati. Il rapporto OCSE è esplicito nel descrivere la possibilità che il digital divide si estenda: il digitale non riduce automaticamente le disuguaglianze e, in assenza di politiche mirate, può renderle ancora più evidenti. In Italia questo tema è particolarmente sensibile, dato il persistente divario tra Nord e Sud, ma anche tra aree urbane e periferiche.

C’è da considerare anche l’aspetto della governance dei dati. Sistemi di IA che tracciano i progressi degli studenti, ne analizzano le difficoltà e modellano i percorsi di apprendimento raccolgono dati straordinariamente sensibili. Chi li gestisce? Con quali garanzie? Se scuola e università si affidano a piattaforme proprietarie di grandi aziende tecnologiche, di fatto, cedono autonomia pedagogica. Le scelte su cosa insegnare, come valutare, quali contenuti privilegiare rischiano di migrare progressivamente verso pochi grandi attori privati con logiche e interessi propri.

Veniamo alla sostenibilità: In Italia il PNRR ha rappresentato, per chi è stato in grado di sfruttarlo, un’iniezione di risorse senza precedenti per la digitalizzazione educativa, con la nascita di Digital Educational Hub universitari e iniziative rivolte a scuole e fasce fragili della popolazione. Il quadro che emerge è quello di un sistema in rapida costruzione, capace di produrre esperienze di qualità. Ma molte di queste strutture restano dipendenti dai finanziamenti straordinari. La domanda che pochi si pongono apertamente è: cosa accadrà quando i fondi si esauriranno? Senza modelli istituzionali ed economici solidi, il rischio è che alcune di queste esperienze rimangano episodi brillanti ma isolati, incapaci di trasformarsi in patrimonio stabile del sistema educativo.

Ed è importante considerare l’importanza della relazione educativa: l’insegnamento non è un trasferimento di informazioni, ma una vera e propria relazione. La capacità di un docente di leggere lo stato emotivo di uno studente, di dargli forza nei momenti di scoraggiamento, di stimolarne la curiosità con un’osservazione inattesa, non è replicabile da nessun algoritmo. Se l’IA viene percepita come un sostituto dell’insegnante anziché come uno strumento di supporto, si rischia di sminuire qualcosa di irriducibile.

Il messaggio che emerge dalla riflessione più seria sul tema, dal rapporto OCSE, dalla ricerca accademica, dalle esperienze di chi insegna davvero, è che la tecnologia non funziona senza la pedagogia. Non basta introdurre uno strumento in classe per migliorare i risultati di apprendimento. Occorre chiedersi prima: perché? Con quali obiettivi? Come si valuta se funziona? Il vero salto di qualità, come scrive Adriana Agrimi su Agenda Digitale, non dipende dai device o dalle piattaforme, ma da scelte culturali e politiche coerenti nel tempo.

Da tutto questo si possono trarre alcune indicazioni utili, ricavate dall’esperienza di chi già lavora su questi temi:

Regole chiare e condivise. Ogni scuola, ogni ateneo dovrebbe definire in modo trasparente in quali contesti l’uso dell’IA va incoraggiato, consentito o vietato. Non per reprimere, ma per creare le condizioni di un uso consapevole.

Formare i docenti, davvero. Un insegnante che non conosce gli strumenti non può guidare gli studenti nel loro utilizzo critico. La formazione non può essere una tantum: deve essere continua, pratica, ancorata ai contesti reali. Il PNRR ha già finanziato percorsi importanti in questa direzione — il problema è che spesso si tratta di interventi a termine, non di cambiamenti strutturali.

Progettare con intenzione pedagogica. La differenza tra un tutor IA che “produce” apprendimento reale e uno che genera solo l’apparenza di competenza sta nel modo in cui è costruito e nel contesto in cui viene usato. Strumenti pensati per sollecitare il ragionamento, fare domande, stimolare la riflessione danno risultati diversi rispetto a quelli usati per ottenere risposte già pronte. La progettazione didattica deve precedere la scelta tecnologica.

Sviluppare l’AI literacy negli studenti. Capire come funziona un modello di linguaggio con i suoi limiti, i suoi meccanismi, ma anche con i suoi bias, deve essere considerato una competenza di cittadinanza. La scuola ha il compito di formare persone capaci di leggere criticamente i contenuti prodotti dall’IA, non solo di utilizzarla. Può aiutare a trovare risorse, a strutturare idee, a correggere bozze. Ma la valutazione critica, l’argomentazione originale, il giudizio autonomo devono restare compiti dello studente. Questo è il cuore dell’educazione.

Last but not least: non lasciare indietro nessuno. Qualsiasi politica di introduzione dell’IA nella scuola deve essere accompagnata da investimenti in infrastrutture e connettività, soprattutto nelle aree più svantaggiate. L’inclusione non è un optional.

L’intelligenza artificiale è uno specchio potente: riflette le scelte di chi la progetta, le aspettative di chi la usa, le condizioni strutturali in cui viene adottata. Ma è anche una spugna, perché assorbe le nozioni con cui viene addestrata. Nella scuola, come altrove, può fare molto bene o molto male, ma soprattutto può fare cose molto diverse a seconda di come viene introdotta e governata. L’IA può essere uno strumento straordinario al servizio di una visione educativa chiara: i problemi sorgono quando è la visione a mancare e si lascia che sia la tecnologia a colmare il vuoto.

 
Lascia un commento

Pubblicato da su 12 febbraio 2026 in news

 

Tag: , , , , , , , , , , , , , ,