Nell’attuale ecosistema digitale, in cui i contenuti si diffondono rapidamente e senza filtri, il contrasto alla disinformazione rappresenta una priorità educativa imprescindibile. I chatbot basati su intelligenza artificiale generativa – come ChatGPT – possono offrire un supporto significativo sia agli studenti sia ai docenti. La pratica qui descritta propone un modello di utilizzo consapevole e didatticamente mirato di chatbot personalizzati per potenziare nei ragazzi e nelle ragazze dai 16 anni in su la capacità di riconoscere, analizzare e contrastare la disinformazione su larga scala.
La disinformazione è l’insieme di contenuti falsi, ingannevoli o manipolati che vengono diffusi intenzionalmente con lo scopo di fuorviare, confondere o influenzare l’opinione pubblica. A differenza della misinformazione (informazione errata diffusa in buona fede), la disinformazione comporta un intento deliberato a deformare la realtà per ottenere un vantaggio, suscitare emozioni forti, danneggiare individui o gruppi, oppure orientare decisioni politiche, sociali o economiche. Può assumere forme diverse: notizie completamente inventate, immagini fuori contesto, titoli fuorvianti, manipolazioni di dati statistici, video ritoccati (come i deepfake), oppure narrazioni che combinano elementi veri con informazioni distorte. La sua efficacia si basa sulla velocità con cui si diffonde nei social media, sulla mancanza di alfabetizzazione mediatica e sull’utilizzo di tecniche persuasive che fanno leva su emozioni come la paura, la rabbia o il senso di appartenenza. Nel contesto educativo e civico, riconoscere e contrastare la disinformazione significa sviluppare competenze critiche, capacità di verifica delle fonti e una consapevolezza attiva del proprio ruolo nell’ecosistema informativo digitale.
Il contesto didattico
L’attività si colloca all’interno di percorsi dedicati all’educazione civica digitale, alla media literacy e allo sviluppo del pensiero critico, ed è rivolta agli studenti del secondo biennio e dell’ultimo anno della scuola secondaria di secondo grado. Essa persegue un duplice obiettivo: da un lato, offrire agli studenti l’opportunità di interagire attivamente con chatbot basati sull’intelligenza artificiale generativa appositamente addestrati per individuare e smontare narrazioni distorte o manipolatorie; dall’altro, coinvolgere i docenti in un processo di progettazione condivisa e personalizzazione degli strumenti conversazionali, affinché siano coerenti con le esigenze formative e i livelli di competenza del proprio contesto classe.
Integrare i chatbot nell’attività didattica
L’inserimento dei chatbot personalizzati basati su intelligenza artificiale nei percorsi educativi rappresenta un’opportunità strategica per rinnovare le pratiche didattiche e sostenere lo sviluppo di competenze critiche trasversali. In particolare, nel campo dell’educazione alla cittadinanza digitale e dell’alfabetizzazione mediatica, questi strumenti consentono di promuovere l’apprendimento attivo, l’autonomia cognitiva e l’interazione ragionata con contenuti informativi complessi.
L’integrazione dei chatbot può avvenire in contesti scolastici fisici o digitali, attraverso ambienti strutturati come piattaforme di gestione dell’apprendimento o spazi collaborativi online. L’adozione di questi strumenti non implica la sostituzione del docente, ma il rafforzamento della sua funzione di guida pedagogica, favorendo una didattica più flessibile, personalizzabile e centrata sullo sviluppo del pensiero critico.
I chatbot possono essere impiegati con finalità formative differenziate e in diverse fasi del processo di apprendimento: nella fase iniziale, per attivare il confronto e stimolare la curiosità; durante lo svolgimento delle attività, per supportare la ricerca, orientare l’analisi e sostenere il dialogo tra pari; nella fase finale, per incoraggiare la riflessione metacognitiva e la valutazione critica del proprio percorso.
Le modalità di impiego didattico dei chatbot possono articolarsi secondo quattro principali approcci operativi:
- Simulazioni interattive: i chatbot interagiscono con gli studenti simulando situazioni comunicative complesse, che richiedono la decodifica di contenuti informativi ambigui, parziali o fuorvianti. Tali interazioni sollecitano la capacità di identificare elementi problematici nei messaggi, di individuare segnali di manipolazione e di valutare la coerenza logica e argomentativa delle affermazioni presentate.
- Percorsi guidati di verifica delle fonti: i chatbot possono condurre gli studenti attraverso sequenze strutturate di interrogazione, analisi e validazione di fonti informative, stimolando un approccio metodico e consapevole alla ricerca delle evidenze. In tal modo si consolidano le capacità di riconoscere la qualità dell’informazione, valutare l’affidabilità delle fonti e documentare il processo di verifica.
- Discussioni argomentative: i chatbot possono essere configurati per assumere ruoli dialettici e favorire l’interazione critica. Gli studenti, sollecitati a confrontarsi con opinioni divergenti o affermazioni problematiche, sono chiamati a esercitare la propria capacità argomentativa, sostenendo le proprie posizioni con dati, fonti e ragionamenti coerenti, in un contesto di confronto rispettoso e documentato.
- Laboratori sui meccanismi cognitivi: attraverso conversazioni strutturate, i chatbot possono accompagnare gli studenti nell’esplorazione dei propri processi decisionali e delle modalità con cui interpretano e selezionano le informazioni. Questo tipo di attività promuove la consapevolezza dei bias cognitivi, l’analisi delle dinamiche di influenza emotiva o sociale, e lo sviluppo di strategie per gestire in modo riflessivo l’interazione con i contenuti digitali.
L’efficacia dell’integrazione dei chatbot dipende dalla chiarezza degli obiettivi educativi, dalla qualità delle fonti utilizzate per addestrarli, dalla coerenza delle istruzioni impartite al sistema, e dalla capacità del docente di gestire in modo attivo l’interazione tra studenti e tecnologia. È fondamentale che l’uso dei chatbot sia accompagnato da attività di discussione, documentazione e riflessione collettiva, in modo da evitare forme di delega acritica alla macchina e valorizzare, invece, il pensiero autonomo e l’assunzione di responsabilità nell’elaborazione delle conoscenze.
Grazie alle funzionalità offerte da piattaforme come ChatGPT di OpenAI e Brisk Teaching, i docenti hanno oggi la possibilità di creare chatbot personalizzati progettati per supportare specifici obiettivi educativi (in questo caso il contrasto alla disinformazione). Questi chatbot non si limitano a fornire risposte generiche, ma vengono configurati direttamente dal docente per riflettere contenuti, fonti, ruoli e strategie didattiche coerenti con il tema da trattare.
Il processo di personalizzazione non richiede al docente di scrivere codice o di disporre di competenze di programmazione avanzata. Il docente agisce come “curatore pedagogico” del chatbot, scegliendo cosa far dire, come, a chi e con quale finalità formativa, trasformando così l’intelligenza artificiale generativa in uno strumento educativo.
| Simulazioni guidate con chatbot: allenarsi a smascherare la disinformazione Descrizione: Gli studenti interagiscono con un chatbot che presenta contenuti ambigui, controversi o sospettati di essere manipolati. L’obiettivo è sviluppare la capacità di analizzare criticamente le affermazioni, verificare la coerenza delle fonti e giustificare il proprio giudizio sulla veridicità delle informazioni.Indicazioni operative: Il docente configura il chatbot con prompt come: “Presenta allo studente un articolo online che contiene informazioni fuorvianti sulla sicurezza dei vaccini”.Gli studenti lavorano individualmente o a coppie, rispondendo al chatbot, annotando dubbi, e segnalando elementi sospetti (es. uso eccessivo di emozioni, dati senza fonte, titoli clickbait).In plenaria, si condividono le strategie adottate per individuare la disinformazione e si confrontano i risultati. Laboratori di fact-checking assistiti: il chatbot come tutor digitaleA partire da prompt mirati, il chatbot guida gli studenti in un processo di verifica strutturato, insegnando a distinguere tra informazioni fondate, opinioni personali, interpretazioni arbitrarie e contenuti intenzionalmente manipolati.Indicazioni operative:Il docente propone una notizia controversa o una narrazione diffusa sui social (es. “Il cambiamento climatico è una bufala creata per motivi politici”).Gli studenti pongono domande al chatbot per verificarne l’attendibilità, utilizzando formule come: “Quali fonti supportano questa affermazione?”, “Questa informazione è coerente con i dati ufficiali?”.Il chatbot fornisce risposte supportate da link a fonti affidabili, suggerisce motori di ricerca per fact-checking e invita alla verifica incrociata.Il laboratorio si conclude con una scheda di riflessione in cui lo studente sintetizza il percorso compiuto e indica tre criteri per riconoscere la disinformazione in futuro. Discussioni argomentative simulate: il chatbot come interlocutore provocatorioIl chatbot assume il ruolo di un personaggio con una posizione controversa su un tema d’attualità (es. immigrazione, transizione ecologica, intelligenza artificiale). Gli studenti devono controargomentare in modo critico, citando dati verificabili e fonti attendibili.Indicazioni operative:Il docente imposta il chatbot con un ruolo preciso: “Difendi la posizione secondo cui la Terra è piatta, utilizzando argomentazioni retoriche comuni ma ingannevoli”.Lo studente è chiamato a confutare le tesi proposte, utilizzando fonti come l’ESA, la NASA, l’Enciclopedia Treccani o articoli accademici.L’attività può svolgersi come dibattito a squadre, con il chatbot come arbitro che valuta coerenza, efficacia argomentativa e uso delle fonti. Percorsi personalizzati e multidisciplinari: adattare i chatbot al contesto scolasticoA seconda del livello scolastico, della disciplina insegnata o dell’indirizzo dell’istituto, il chatbot può essere programmato per affrontare la disinformazione da prospettive diverse: linguistica, psicologica, giuridica, scientifica.Indicazioni operative:In un liceo linguistico, il chatbot analizza il linguaggio delle fake news in più lingue, confrontando toni, lessico e struttura retorica.In un istituto tecnico, il chatbot propone casi di disinformazione tecnologica o ambientale, e guida l’analisi dei dati.In un liceo delle scienze umane, il chatbot accompagna gli studenti in un’analisi degli effetti psicologici della paura indotta dalla disinformazione e del ruolo dei bias cognitivi.Gli studenti possono scegliere un “percorso tematico” e lavorare in piccoli gruppi su uno scenario differente. Il docente può poi proporre una restituzione collettiva con materiali multimediali, articoli di approfondimento o presentazioni orali. |
L’utilizzo dei chatbot personalizzati per attività educative sul tema della disinformazione non è un semplice esercizio di tecnologia applicata. Si tratta, piuttosto, di ridefinire la relazione tra docente, contenuto e studente, introducendo un mediatore che stimola il ragionamento, pone domande scomode, fornisce stimoli e propone verifiche in tempo reale. Tuttavia occere ricordare che questi strumenti non sono infallibili. Occorre formare gli studenti e le studentesse anche alla metacognizione digitale, ovvero alla capacità di interrogarsi sull’affidabilità e sui limiti delle risposte generate dai chatbot. È compito del docente supervisionare l’esperienza, selezionare con cura i dati da inserire nei GPT, guidare il confronto tra risposte automatiche e pensiero critico.
È fondamentale che il docente:
- Svolga un ruolo attivo di regia pedagogica, monitorando le interazioni e integrando i contributi dei chatbot con approfondimenti, chiarimenti e discussioni in presenza.
- Guardi con consapevolezza ai limiti della tecnologia, mettendo in guardia gli studenti dall’uso acritico delle risposte automatiche.
- Stimoli la riflessione metacognitiva, ad esempio chiedendo agli studenti: “Ti fideresti ciecamente di questa risposta?”, “Come verificheresti un’informazione, anche se fornita dal chatbot?”, “Hai trovato incongruenze o omissioni?”
| Esempi concreti di personalizzazioneFact-checker GPT (creato con ChatGPT)Il docente crea un GPT che incorpora le linee guida di realtà di fact-checking italiane e internazionali (Pagella Politica, Facta, Snopes, EUvsDisinfo). Il chatbot è istruito a rispondere solo sulla base di fonti accreditate, citandole nel dialogo. Gli studenti pongono domande come: “La guerra in Ucraina è stata provocata dalla NATO?” e il chatbot risponde riportando dati geopolitici e articoli verificati.Detective della disinformazione (con Brisk Teaching)All’interno di un compito su Google Docs, il docente inserisce un testo inventato contenente sei manipolazioni retoriche. Brisk genera un chatbot che interagisce con lo studente chiedendo: “Cosa noti in questa affermazione? Potrebbe essere un indizio di disinformazione?” Il chatbot fornisce feedback immediato, proponendo strategie per approfondire l’affermazione o riformularla in modo neutro. |
Custom GPTs con ChatGPT
Attraverso la piattaforma ChatGPT di OpenAI, i docenti possono accedere all’area dedicata alla creazione di agenti conversazionali personalizzati – i cosiddetti Custom GPTs – visitando l’indirizzo https://chat.openai.com/gpts. Il processo è concepito per essere intuitivo e guidato, permettendo anche a chi non possiede competenze di programmazione di configurare un proprio chatbot educativo.
Durante la fase di configurazione, l’insegnante ha la possibilità di personalizzare il comportamento, il tono e le fonti del chatbot secondo obiettivi didattici specifici. Il primo passo consiste nella definizione del ruolo che il chatbot dovrà assumere. Ad esempio, può essere istruito a comportarsi come un fact-checker, un educatore esperto in media literacy, o un moderatore imparziale di dibattiti digitali. Questa indicazione iniziale è fondamentale per guidare la coerenza delle risposte del modello.
Un elemento centrale del processo di personalizzazione consiste nel caricare o integrare un set di fonti affidabili e aggiornate. Queste possono includere:
- Articoli e dossier provenienti da progetti di fact-checking accreditati, come Facta, Pagella Politica, Snopes o EUvsDisinfo;
- Rapporti istituzionali sull’alfabetizzazione informativa, come le linee guida UNESCO sulla disinformazione o i documenti della Commissione Europea dedicati alla qualità dell’informazione digitale;
- Materiali selezionati dal docente stesso, come moduli formativi, schede didattiche o esempi di contenuti manipolatori da utilizzare a fini educativi.
Oltre alle fonti, il docente può inserire istruzioni comportamentali dettagliate, le cosiddette custom instructions, che definiscono il modo in cui il chatbot deve rispondere agli utenti. Queste istruzioni vanno ben oltre la semplice impostazione di toni formali o amichevoli: permettono di stabilire il tipo di contenuto da privilegiare, la profondità dell’argomentazione e persino la struttura delle risposte. Esempi concreti includono:
- “Spiega la differenza tra disinformazione, misinformazione e malinformazione, utilizzando esempi tratti dall’attualità”;
- “Sottolinea sempre l’importanza della verifica incrociata delle fonti, invitando lo studente a consultare almeno due riferimenti affidabili”;
- “In caso di contenuti dubbi, guida lo studente con domande socratiche per stimolare il pensiero critico, senza fornire una risposta immediata”.
Inoltre, il docente può modulare il livello di complessità del linguaggio in base all’età, al grado di istruzione o al contesto scolastico. È possibile, ad esempio, istruire il chatbot affinché utilizzi un linguaggio semplice e accessibile per le classi quarte, oppure più tecnico e argomentativo per gli studenti dell’ultimo anno o di licei a indirizzo umanistico e sociale.
Infine, è possibile testare il GPT direttamente all’interno dell’interfaccia di ChatGPT, simulando l’interazione con uno studente e osservando come risponde alle domande, come tratta contenuti sensibili e come argomenta in presenza di notizie false. Questo permette ai docenti di apportare correzioni e miglioramenti prima di utilizzare il chatbot in aula.
La possibilità di creare un Custom GPT con ChatGPT consente agli insegnanti di trasformare un’intelligenza artificiale generativa in un assistente didattico su misura, in grado di guidare gli studenti nell’esplorazione critica dell’informazione digitale, nella decostruzione delle narrazioni ingannevoli e nella promozione di un uso consapevole dei media.
Chatbot personalizzati con Brisk Teaching
Brisk Teaching è una piattaforma integrabile con l’ambiente Google Workspace for Education (in particolare Google Docs, Slides e Classroom), che consente ai docenti di generare rapidamente chatbot personalizzati, progettati per svolgere funzioni formative specifiche. Uno degli aspetti distintivi di Brisk è la sua capacità di adattarsi in tempo reale al contenuto fornito e agli obiettivi didattici, rendendolo uno strumento flessibile per attività legate all’educazione alla cittadinanza digitale e al pensiero critico.
Il processo inizia caricando o selezionando un insieme mirato di materiali didattici. I docenti possono scegliere contenuti autentici o simulati come:
- Articoli di giornale o estratti da blog e portali informativi, utili per analizzare il linguaggio giornalistico e la selezione delle fonti;
- Comunicati ufficiali di istituzioni nazionali o internazionali, come l’OMS, l’Unione Europea o l’Istituto Superiore di Sanità, da confrontare con versioni manipolate o decontestualizzate;
- Contenuti di debunking, tratti da siti di fact-checking accreditati (Facta, Pagella Politica, EUvsDisinfo), per costruire confronti tra narrazioni veritiere e narrative ingannevoli.
Una volta forniti questi materiali, Brisk genera automaticamente un chatbot didattico che può essere programmato per simulare scenari realistici, nei quali lo studente è chiamato a decodificare la qualità e l’attendibilità delle informazioni. Il chatbot può assumere ruoli diversi in funzione del contesto formativo:
- Simulazione dell’influencer disinformativo: il chatbot interpreta un personaggio digitale che diffonde messaggi sensazionalistici, contenuti pseudoscientifici o fake news. Gli studenti devono riconoscere le tecniche persuasive impiegate, individuare l’assenza di fonti o la distorsione dei dati, e costruire una contro-argomentazione basata su evidenze.
- Ruolo del fact-checker digitale: il chatbot accompagna lo studente nella verifica delle affermazioni presenti in un post, proponendo fonti attendibili, spiegando come risalire alla fonte primaria, e indicando se e dove si riscontra manipolazione, omissione o falso equilibrio.
In entrambi i casi, l’interazione si sviluppa all’interno del documento stesso, con un’interfaccia fluida che permette allo studente di ricevere feedback immediato, visualizzare suggerimenti contestuali e proseguire con attività interattive.
Inoltre, Brisk può essere configurato per proporre esercitazioni progressive, in cui lo studente affronta situazioni informative sempre più complesse. Ad esempio:
- Analizzare un post virale contenente errori logici (come generalizzazioni indebite, falsa causalità o attacchi ad hominem);
- Esaminare grafici o statistiche fuorvianti, verificando la provenienza dei dati e la loro interpretazione;
- Riscrivere un testo parziale o emotivamente carico, trasformandolo in un articolo informativo equilibrato, privo di retorica manipolativa.
Dal punto di vista pedagogico, Brisk consente al docente di monitorare il processo cognitivo degli studenti, favorendo la metariflessione: lo studente non riceve solo un “giusto/sbagliato”, ma viene guidato nella comprensione del perché un contenuto è inaffidabile e come migliorarlo.
Infine, grazie alla compatibilità con Google Workspace, tutte le interazioni possono essere archiviate, condivise e valutate, rendendo Brisk uno strumento ideale per l’apprendimento personalizzato, l’educazione civica digitale e lo sviluppo di competenze trasversali come l’analisi argomentativa, la comunicazione consapevole e la responsabilità informativa.
Brisk offre un’opportunità concreta e scalabile per integrare l’IA generativa in un percorso didattico volto a formare cittadini digitali attivi, capaci di riconoscere, decostruire e contrastare la disinformazione con strumenti critici e competenze pratiche.
Usare i chatbot educativi per contrastare i bias cognitivi e rafforzare la consapevolezza informativa
Nel contesto educativo attuale, caratterizzato da un’esposizione crescente a contenuti digitali di ogni tipo, l’alfabetizzazione informativa non può limitarsi alla trasmissione di tecniche di verifica delle fonti. Diventa indispensabile accompagnare gli studenti in un percorso di esplorazione dei meccanismi mentali che influenzano la percezione e l’interpretazione dell’informazione, spesso in modo inconscio. Tra questi, il bias di conferma e l’effetto Dunning-Kruger rappresentano due ostacoli significativi alla costruzione di un pensiero critico equilibrato e alla resistenza alla disinformazione.
L’integrazione dei chatbot personalizzati nell’ambiente didattico offre un’opportunità concreta per affrontare in modo attivo e riflessivo tali distorsioni cognitive. Grazie alla loro capacità di generare interazioni adattive, di porre domande metacognitive e di proporre scenari differenziati, i chatbot possono svolgere il ruolo di facilitatori nei processi di autoanalisi, confronto argomentativo e verifica dei propri limiti conoscitivi.
Il bias di conferma è una distorsione cognitiva per cui le persone tendono a ricercare, selezionare, interpretare e ricordare solo le informazioni che confermano le proprie convinzioni preesistenti, ignorando o svalutando quelle che le mettono in discussione. Questo meccanismo, sebbene radicato nella naturale tendenza alla coerenza cognitiva, rappresenta una minaccia per l’obiettività del giudizio e alimenta le cosiddette “bolle informative”, rafforzando la polarizzazione e la diffusione di contenuti parziali o falsati.
Nel contesto scolastico, l’azione educativa deve mirare a rendere visibile questo bias, trasformandolo in oggetto di riflessione critica. I chatbot, se opportunamente configurati, possono proporre interazioni in cui gli studenti si trovano di fronte a contenuti che sfidano le loro opinioni, ponendo domande che sollecitano la revisione delle proprie convinzioni e favorendo il confronto con fonti contrastanti. Inoltre, possono essere programmati per rilevare atteggiamenti di chiusura cognitiva o selettività interpretativa, restituendo allo studente feedback che invitano a esplorare prospettive alternative.
Attraverso questi dialoghi, è possibile allenare gli studenti a:
- riconoscere l’influenza delle preferenze personali nell’interpretazione dei contenuti;
- confrontarsi attivamente con punti di vista diversi, anche quando risultano scomodi;
- abituarsi a verificare tutte le informazioni, incluse quelle che sembrano confermare ciò che si crede già vero.
L’effetto Dunning-Kruger, invece, è una distorsione metacognitiva che porta gli individui con bassa competenza in un determinato ambito a sovrastimare le proprie conoscenze, mentre chi possiede competenze elevate tende a essere più consapevole dei propri limiti. Questo fenomeno contribuisce alla diffusione inconsapevole della disinformazione, poiché chi non ha gli strumenti per valutare criticamente la complessità di un argomento è più incline a produrre e condividere contenuti semplificati, errati o fuorvianti con un’eccessiva sicurezza.
Nel contesto educativo, contrastare l’effetto Dunning-Kruger significa promuovere la metacognizione, ossia la capacità di riflettere sul proprio livello di preparazione, di riconoscere le proprie lacune e di assumere un atteggiamento di apertura all’apprendimento. I chatbot educativi possono supportare questo processo proponendo domande riflessive, percorsi adattivi e risposte che incoraggiano l’auto-valutazione. In particolare, possono essere utilizzati per:
- segnalare, in modo costruttivo, quando uno studente formula affermazioni infondate o eccessivamente semplificate;
- offrire spiegazioni graduate, che evidenziano la complessità di un concetto e suggeriscono l’approfondimento;
- stimolare la prudenza nel giudizio, contrastando la tendenza a trarre conclusioni affrettate o assolute.
L’obiettivo non è scoraggiare l’espressione delle opinioni, ma creare le condizioni per prendere consapevolezza dei propri limiti conoscitivi e sviluppare l’abitudine a interrogarsi su ciò che si sa e su ciò che si ignora.
Sia il bias di conferma che l’effetto Dunning-Kruger agiscono come barriere cognitive che limitano la capacità di valutare in modo imparziale e accurato l’informazione. Per questo motivo, le attività didattiche orientate al contrasto della disinformazione dovrebbero includere, accanto all’insegnamento delle tecniche di fact-checking, un’esplicita educazione alla consapevolezza cognitiva. I chatbot, utilizzati in modo intenzionale e pedagogicamente guidato, possono offrire un supporto prezioso in questo senso.
Per essere efficaci, questi strumenti devono essere configurati non solo per fornire risposte corrette, ma per stimolare processi cognitivi ed emotivi: sollecitare il dubbio, promuovere la revisione critica, valorizzare il percorso di apprendimento più che il risultato immediato. Il docente mantiene un ruolo centrale nella mediazione, supervisionando l’interazione tra studente e chatbot, interpretando le reazioni cognitive, favorendo il dialogo metacognitivo e integrando le attività digitali con momenti di confronto collettivo.
Contrastare la disinformazione significa agire non solo sulla qualità dei contenuti, ma anche sulla qualità del pensiero. Il bias di conferma e l’effetto Dunning-Kruger, pur essendo invisibili, hanno un impatto profondo sul modo in cui gli individui costruiscono le proprie convinzioni e interagiscono con l’informazione. Utilizzare i chatbot per far emergere, riconoscere e decostruire questi bias significa trasformare l’intelligenza artificiale in uno strumento di autoformazione cognitiva, capace di potenziare il pensiero critico, l’autovalutazione e la responsabilità informativa. Una scuola che voglia formare cittadini digitali competenti e consapevoli non può prescindere da questo livello di profondità educativa.
Un’occasione formativa significativa
L’uso di chatbot personalizzati per il contrasto alla disinformazione rappresenta un’occasione formativa significativa per promuovere nei giovani la responsabilità digitale e la competenza informativa. Grazie alla possibilità di configurare GPT su misura, i docenti possono offrire agli studenti esperienze autentiche, coinvolgenti e cognitive, valorizzando l’IA come alleato nella formazione di cittadini consapevoli. Ma questa alleanza esige vigilanza, mediazione pedagogica e un uso critico degli strumenti: solo così la tecnologia può diventare davvero una risorsa educativa.
La possibilità di creare chatbot educativi personalizzati rappresenta una risorsa potente, flessibile e accessibile per affrontare il tema urgente della disinformazione. Attraverso un uso mirato di piattaforme come ChatGPT e Brisk, i docenti possono progettare esperienze didattiche coinvolgenti e significative, capaci di sviluppare nei ragazzi competenze critiche, capacità di analisi e responsabilità digitale. Ma questa innovazione non può prescindere da una solida cornice pedagogica: i chatbot non sostituiscono l’insegnamento, ma lo potenziano quando sono integrati in un progetto educativo consapevole. In un’epoca segnata da manipolazione informativa e polarizzazione, educare a riconoscere la disinformazione è un atto di cittadinanza attiva. Farlo con il supporto dell’intelligenza artificiale, se guidato con rigore e spirito critico, può davvero fare la differenza.
Bibliografia
European Commission. (2022). Final report of the Commission Expert Group on tackling disinformation and promoting digital literacy through education and training.
URL: https://education.ec.europa.eu/document/final-report-of-the-expert-group-on-tackling-disinformation-and-promoting-digital-literacy-through-education-and-training
Joint Research Centre. (2022). DigComp 2.2 – The Digital Competence Framework for Citizens.
URL: https://joint-research-centre.ec.europa.eu/digcomp-digital-competence-framework_en
Machete, P., & Turpin, M. (2020). The use of critical thinking to identify fake news: A systematic literature review. In Responsible design, implementation and use of ICT, Springer.
URL: https://link.springer.com/chapter/10.1007/978-3-030-45002-1_20
McDougall, J. (2019). Media literacy versus fake news: Critical thinking, resilience and civic engagement. Medijske Studije, 10(19), 29–45.
URL: https://hrcak.srce.hr/file/330876
Mihailidis, P., & Viotty, S. (2017). Spreadable spectacle in digital culture: Civic expression, fake news, and the role of media literacies in ‘post-fact’ society. American Behavioral Scientist, 61(4), 441–454.
URL: https://journals.sagepub.com/doi/abs/10.1177/0002764217701217
Troia, S. (2020). Mi posso fidare? Contrastare con le competenze la disinformazione. BRICKS, 4.
URL: https://www.rivistabricks.it/wp-content/uploads/2020/09/2020_04_19_Troia.pdf
Troia, S. (2022). Disinformazione, le linee guida UE per insegnanti e educatori: cosa sono e prossimi step. Agenda Digitale.
URL: https://www.agendadigitale.eu/scuola-digitale/lotta-alla-disinformazione-le-linee-guida-ue-per-insegnanti-e-educatori-cosa-sono-e-prossimi-step
Troia, S. (2023). Conoscere la visione europea per l’istruzione digitale per vivere un coinvolgimento attivo. Impara Digitale.
URL: https://imparadigitale.nova100.ilsole24ore.com/2023/02/05/conoscere-la-visione-europea-per-listruzione-digitale-per-vivere-un-coinvolgimento-attivo-deap-digcomp
Troia, S. (2025). Guida all’IA generativa nell’istruzione e nella ricerca. Cittadinanza Digitale.
URL: https://www.cittadinanzadigitale.eu/?cat=315
Troia, S. (2025). Il certificato europeo delle competenze digitali: perché è importante. Agenda Digitale.
URL: https://www.agendadigitale.eu/giornalista/sandra-troia
Troia, S. (2025). LAB_Cyberbullingfreezone. Cittadinanza Digitale.
URL: https://www.cittadinanzadigitale.eu/?cat=315
UNESCO. (2018). Journalism, “fake news” and disinformation: A handbook for journalism education and training.
URL: https://en.unesco.org/fightfakenews
Vraga, E. K., Bode, L., & Tully, M. (2020). Creating news literacy messages to enhance expert corrections of misinformation on Twitter. Communication Research.
URL: https://journals.sagepub.com/doi/full/10.1177/0093650220910064
Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policymaking. Council of Europe.
URL: https://rm.coe.int/information-disorder-toward-an-interdisciplinary-framework-for-researc/168076277c
Wineburg, S., & McGrew, S. (2019). Lateral reading and the nature of expertise: Reading less and learning more when evaluating digital information. Teachers College Record, 121(11), 1–40.
URL: https://www.tc.columbia.edu/faculty/sw2342/faculty-profile/files/LateralReadingWineburgMcGrewTCR2019.pdf
Risorse e piattaforme di fact-checking
EUvsDisinfo – iniziativa dell’Unione Europea per contrastare la disinformazione.
Facta News – progetto italiano dedicato al debunking.
URL: https://facta.news
Pagella Politica – piattaforma italiana di fact-checking.
URL: https://pagellapolitica.it
Snopes – fact-checking internazionale.URL: https://www.snopes.com
A cura di Sandra Troia
Articolo già pubblicato su https://www.rivistabricks.it/wp-content/uploads/2025/06/BRICKS_5_2025_09_Troia.pdf