Il dibattito sull’intelligenza artificiale (IA) nell’ambito educativo tende spesso a concentrare l’attenzione esclusivamente su che cosa l’IA fa agli studenti: processi personalizzati, automazione delle attività di routine, valutazione predittiva. Tuttavia questa prospettiva è parziale e rischia di dare per scontato che gli studenti rimangano recettori passivi. È invece necessario porre la domanda diversa: che cosa possono fare gli studenti con l’IA.
Questo spostamento di prospettiva ha conseguenze reali sul modo in cui pensiamo l’istruzione, la pedagogia e la governance della tecnologia. Non si tratta quindi soltanto di introdurre strumenti “innovativi” in classe, ma di mettere gli studenti in condizione di agire da soggetti critici, creativi e consapevoli.
Comprendere l’IA come costruzione sociale

Le iniziative internazionali lo ricordano: ad esempio il progetto Organisation for Economic Co‑operation and Development (OCSE) “Artificial Intelligence and the Future of Skills” rileva che l’IA non è neutra; essa riflette capacità, limiti e scelte umane. Il rapporto segnala che «non è assicurato che l’istruzione vinca la corsa con la tecnologia» OECD+1.
Nel contesto europeo, la European Declaration on Digital Rights and Principles stabilisce che la trasformazione digitale deve «mettere le persone al centro», estendere diritti fondamentali online come offline e promuovere inclusione, sostenibilità, accesso equo.
Queste premesse richiedono che gli studenti non siano solo “oggetto” dell’IA (strumenti di apprendimento) ma anche “soggetto” (co-progettisti, valutatori, critici).
Agency, responsabilità, creatività
Se lo studente rimane solo utente, si rischia la fascinazione acritica verso l’IA oppure la sua esclusione per diffidenza. Entrambe le reazioni sono problematiche. Una formazione pienamente educativa comporta sviluppare competenze critiche: comprendere bias nei dati, discutere le implicazioni etiche della generazione automatica di contenuti, analizzare chi decide cosa l’IA può o non può fare.
In questo senso, le competenze digitali avanzate non si limitano a “usare strumenti”, ma comprendono saper progettare, domandare, mettere in discussione. Gli studenti dovrebbero poter identificare le logiche che stanno dietro un algoritmo, partecipare alle scelte implicite di progettazione, rendersi conto che ogni sistema di IA incorpora valori, limiti, e potenziali distorsioni.
Alfabetizzazione all’IA
Un’alfabetizzazione all’IA (AI literacy) robusta prevede tre dimensioni integrate:
- capire come funziona un sistema di IA — dati, modelli, output — e i suoi limiti;
- usare l’IA in modo responsabile — tutela della privacy, riconoscimento del valore dei dati, consapevolezza dei bias;
- creare con l’IA — progettare attività, soluzioni, progetti che rispondono a problemi reali, consapevoli dei vincoli etici e tecnici.
Gli studenti non solo “consumatori” ma “co-creatori” dell’IA.
In questo quadro, la tecnologia non è più fine, ma mezzo per attivare capacità umane: pensiero critico, empatia, creatività.
Contesto etico‐civico
L’IA nell’educazione non è soltanto questione tecnica: è questione di cittadinanza digitale. Gli studenti devono confrontarsi con interrogativi quali: chi è responsabile quando un algoritmo sbaglia? Chi decide l’accesso ai dati? Quali conseguenze socio‐politiche hanno le scelte progettuali dell’IA?
La Dichiarazione europea sui diritti e i principi digitali afferma che la trasformazione digitale deve essere giusta, sicura e sostenibile, ponendo al centro la persona e i suoi diritti fondamentali. In questo quadro, educare alla cittadinanza digitale significa formare soggetti capaci di comprendere, valutare e orientare criticamente l’uso dell’intelligenza artificiale, non semplicemente addestrarli alla sua applicazione tecnica.
Ripensare l’ambiente educativo
Integrare l’IA in modo significativo non significa “fare più tecnologia”, ma progettare ambienti dove studenti e docenti cooperano per riflettere, sperimentare e valutare insieme. Le metodologie attive — apprendimento basato su progetti, tinkering, simulazioni — possono essere amplificate dall’IA, purché l’IA non diventi sostituto dell’intelligenza umana.
In questi contesti, l’insegnante non è più soltanto colui che trasmette conoscenze, ma un facilitatore della riflessione, un mediatore del pensiero critico e un promotore di progettazione autonoma e consapevole, capace di guidare gli studenti a interpretare la tecnologia e a usarla come strumento di emancipazione cognitiva e civile.
Affermare che «non si tratta solo dell’impatto dell’IA sugli studenti, ma dell’impatto degli studenti con l’IA» significa adottare una prospettiva educativa chiara: gli studenti non rappresentano il punto di arrivo delle innovazioni tecnologiche, ma il punto di partenza da cui esse devono essere comprese, discusse e orientate.
Se la scuola non forma questi soggetti attivi, rischia di diventare terreno di sperimentazione passiva, dove l’IA è venduta come risposta e non interrogata come problema.
L’IA non determina di per sé Il futuro dell’istruzione — lo farà il modo in cui gli studenti la comprendono, la usano e la trasformano. Se gli studenti accettano acriticamente gli output dell’IA o si vedono semplicemente come recipienti di strumenti, allora l’IA rafforza solo il modello esistente. Se invece gli studenti imparano a interrogare, modificare, progettare l’IA, allora possono diventare agenti di cambiamento, capaci di orientare la tecnologia verso fini umani e democratici.
La misura educativa non sarà più il numero di dispositivi, né il tasso di introduzione di algoritmi, ma la qualità delle domande che gli studenti apprendono a porre. E in questa direzione, la scelta didattica fondamentale è quella di dare spazio reale all’agenzia degli studenti nell’ecosistema dell’IA.
Dare spazio reale all’agenzia degli studenti nell’ecosistema dell’IA.
European Commission (2022).
European Declaration on Digital Rights and Principles for the Digital Decade.
Bruxelles: European Commission.
https://digital-strategy.ec.europa.eu/en/library/european-declaration-digital-rights-and-principles
OECD – Organisation for Economic Co-operation and Development (2021).
Artificial Intelligence and the Future of Skills, Volume 1: Capabilities and Assessments.
Paris: OECD Publishing.
https://www.oecd.org/en/publications/ai-and-the-future-of-skills-volume-1_5ee71f34-en.html
OECD (2024, in preparation).
PISA 2029 – Media and Artificial Intelligence Literacy (MAIL) Assessment Framework.
Paris: OECD.
https://www.oecd.org/en/about/projects/pisa-2029-media-and-artificial-intelligence-literacy.html
European Commission, Joint Research Centre (2022).
The Digital Competence Framework for Citizens 2.2 (DigComp 2.2).
Luxembourg: Publications Office of the European Union.
https://publications.jrc.ec.europa.eu/repository/handle/JRC128415
UNESCO (2021).
Recommendation on the Ethics of Artificial Intelligence.
Paris: UNESCO.
https://unesdoc.unesco.org/ark:/48223/pf0000381137
UNESCO (2023).
AI Competency Framework for Teachers and Students.
Paris: UNESCO.
https://discovery.ucl.ac.uk/id/eprint/10196729/1/UNESCO_AI_CFT_Final.pdf
https://unesdoc.unesco.org/ark:/48223/pf0000391105
AI Literacy Framework (2024).
Empowering Learners for the Age of AI.
https://ailiteracyframework.org