Anucha Tiemsom/Shutterstock
Quando OpenAI ha presentato ChatGPT il 30 novembre 2022, la risposta è stata modesta. Nel giro di due mesi, la piattaforma ha accumulato 100 milioni di utenti attivi, stabilendo un record per l’app in più rapida crescita nella storia. Questa rapida adozione si è estesa a tutti i settori che si basano sul linguaggio umano e l’istruzione non fa eccezione. Le università e le scuole di tutto il mondo si sono trovate a dover lottare per determinare se il lavoro degli studenti fosse veramente il loro o il prodotto di una macchina.
Per molti educatori, i rilevatori di intelligenza artificiale sembravano una panacea:un modo per distinguere lo sforzo dall’inganno. Eppure, anche prima che ChatGPT esistesse, i software anti-plagio avevano già lottato contro i falsi positivi, penalizzando ingiustamente gli studenti. I nuovi strumenti di intelligenza artificiale hanno solo amplificato questo problema. Gli studenti ora possono produrre saggi raffinati premendo pochi tasti, scaricando il pensiero critico che l'apprendimento dovrebbe coltivare. Nella corsa per tenere il passo, gli insegnanti si affidano sempre più a strumenti di rilevamento che classificano erroneamente il lavoro originale come generato automaticamente, portando ad accuse ingiustificate di imbroglio.
In questo articolo esaminiamo l'impatto che l'intelligenza artificiale ha avuto sulle scuole a livello globale, favorendo l'imbroglio, la dipendenza dalla tecnologia e la diffusione della disinformazione, rivelando allo stesso tempo un percorso verso un'istruzione più incentrata sull'uomo in un'era di cambiamenti tecnologici senza precedenti.
Saverio Lorenzo/Shutterstock
ChatGPT e piattaforme simili forniscono agli studenti una nuova scorciatoia per la disonestà accademica. Oltre a generare saggi, questi strumenti possono risolvere problemi matematici complessi (con precisione variabile) e persino produrre codice informatico da istruzioni minime. Individuare questo tipo di lavoro è notoriamente difficile. Uno studio pubblicato su PLOS One prevedeva che i ricercatori presentassero saggi interamente generati dall'intelligenza artificiale nel sistema di esami di un programma di psicologia del Regno Unito; Il 94% delle proposte non è stato rilevato. Nei corsi di informatica, gli insegnanti temono che GitHub Copilot e altri strumenti di generazione di codice richiedano una riprogettazione completa dei programmi.
Gli episodi di imbrogli alimentati dall’intelligenza artificiale sono aumentati. La Scozia ha segnalato centinaia di casi negli ultimi due anni e un'università turca ha recentemente arrestato uno studente che utilizzava una fotocamera camuffata da bottone della camicia, collegata all'intelligenza artificiale tramite un router nascosto in una scarpa, per ricevere risposte durante un esame di ammissione.
Luis Alvarez/Getty Images
Sebbene l’intelligenza artificiale possa semplificare le operazioni in classe, la ricerca in *Computers &Education* mostra che gli studenti che fanno molto affidamento su questi strumenti mostrano una capacità di azione ridotta, imparando di più copiando che interagendo con i contenuti. Anche gli insegnanti dipendono sempre più dai rilevatori di plagio basati sull’intelligenza artificiale, nonostante l’evidenza dei loro alti tassi di falsi positivi. Da un sondaggio condotto dal Center for Democracy &Technology è emerso che due terzi di un campione rappresentativo a livello nazionale di 460 istruttori statunitensi utilizzano tali strumenti.
OpenAI ha sviluppato una tecnica di watermarking che identifica in modo affidabile il testo AI, ma il rilascio commerciale è limitato dalle pressioni del mercato. I recenti sforzi di Google potrebbero offrire una soluzione di rilevamento più accessibile. Inoltre, alcuni insegnanti utilizzano l'intelligenza artificiale per valutare i saggi, innescando dibattiti etici e sollevando problemi di privacy quando il lavoro degli studenti viene caricato su questi sistemi senza consenso.
Rob Dobi/Getty Images
I grandi modelli linguistici sono inclini alle “allucinazioni”, ovvero presentano informazioni inventate in un tono convincente e autorevole. Ciò è particolarmente problematico nel campo dell’istruzione, dove l’obiettivo è insegnare il ragionamento basato sui fatti. Nel dicembre 2023, uno studente della Hingham High School nel Massachusetts ha ricevuto un voto negativo in un progetto AP di storia degli Stati Uniti dopo aver inviato un testo generato dall'intelligenza artificiale che citava fonti inesistenti. La mancanza di una politica anti-IA da parte della scuola ha portato i genitori dello studente a fare causa per un'inversione di grado, una richiesta che il tribunale federale ha respinto.
Scientific Reports riporta che il 55% delle revisioni della letteratura prodotte da ChatGPT‑3.5 e il 18% da ChatGPT‑4 contenevano citazioni inventate. Man mano che gli insegnanti incorporano l'intelligenza artificiale nella pianificazione delle lezioni, aumenta il rischio di diffondere inavvertitamente informazioni false agli studenti.
Tarikvision/Getty Images
I sistemi di intelligenza artificiale addestrati su set di dati vasti e non filtrati possono perpetuare e amplificare i pregiudizi esistenti. OpenAI riconosce che i suoi modelli tendono verso punti di vista occidentali e favoriscono l’input in lingua inglese. Questo pregiudizio può svantaggiare gli anglofoni non nativi, con i rilevatori di intelligenza artificiale che più spesso segnalano il loro lavoro come generato dalla macchina.
L’analisi predittiva utilizzata nelle scuole, come gli strumenti che prevedono la probabilità del conseguimento del diploma di scuola superiore, spesso classifica erroneamente gli studenti appartenenti a minoranze. Un sistema del Wisconsin, in uso dal 2012, identificava ripetutamente gli studenti neri e ispanici come a rischio, ma l'algoritmo era sbagliato quasi tre quarti delle volte, distorcendo la percezione degli insegnanti.
Eyesfoto/Getty Images
Nonostante le sue sfide, l’intelligenza artificiale può migliorare l’esperienza educativa se applicata in modo ponderato. Gli studi dimostrano che gli strumenti di intelligenza artificiale fungono da partner efficaci per il brainstorming, suscitando curiosità e indagine. Gli studenti dovrebbero prima esercitarsi nel pensiero originale prima di sfruttare l’intelligenza artificiale come tutor per un’esplorazione più profonda. Il feedback basato sull'intelligenza artificiale e la generazione di contenuti in tempo reale possono creare un ambiente di apprendimento più reattivo e personalizzato.
L’equilibrio è la chiave per sbloccare i vantaggi dell’intelligenza artificiale mitigandone al tempo stesso i danni. Per coloro che sono interessati all'impatto sociale più ampio dell'intelligenza artificiale, consulta la nostra analisi delle preoccupazioni di Elon Musk riguardo DeepMind di Google e l'incidente che ha coinvolto il dialogo di Google Gemini con uno studente.