Nelle scuole primarie e secondarie di tutto il Paese è in corso una sorta di nuova corsa all'oro:le aule di tutto il paese stanno facendo a gara per portare in classe gli strumenti di intelligenza artificiale più recenti, come le piattaforme basate sul chatbot ChatGPT.
Alex Molnar, direttore del National Education Policy Center (NEPC) presso la CU Boulder, vede un pericolo in questa fretta di introdurre l’intelligenza artificiale nelle scuole. Queste piattaforme, ha affermato, utilizzano algoritmi opachi e solitamente proprietari, rendendo il loro funzionamento interno misterioso sia per educatori, genitori che studenti.
"Quello che hai è una manciata di promesse che l'intelligenza artificiale manterrà come promesso", ha detto Molnar, professore di ricerca presso la School of Education. "Il problema è che attualmente non esiste un modo per valutare in modo indipendente le affermazioni avanzate."
In un nuovo rapporto, Molnar e i suoi colleghi evidenziano le potenziali insidie dell’intelligenza artificiale nell’istruzione e chiedono una “pausa” indefinita nell’integrazione dell’intelligenza artificiale nell’apprendimento K-12. Tra i coautori figurano Ben Williamson dell'Università di Edimburgo nel Regno Unito e Faith Boninger, assistente professore di ricerca in materia di educazione presso la CU Boulder.
Molnar spiega il motivo per cui l'intelligenza artificiale è una scommessa rischiosa per l'istruzione e cosa possono fare i genitori preoccupati e altre persone per essere coinvolti.
Le nuove tecnologie comportano rischi per l'istruzione primaria e secondaria?
Esistono problemi di ogni tipo associati all'uso delle piattaforme digitali nelle scuole, anche prima dell'adozione diffusa dell'intelligenza artificiale.
I dati degli studenti spesso non sono adeguatamente protetti. Ad esempio, si sono verificati tutti i tipi di fughe di notizie da parte di fornitori di terze parti e non esiste alcuna legge o politica efficace che li ritenga responsabili. Ci sono anche moltissimi beta testing in corso nelle scuole. Le affermazioni di marketing sembrano buone, ma le piattaforme digitali spesso non producono i risultati promessi e sono piene di problemi tecnici.
Le tecnologie digitali hanno reso difficile o impossibile rispondere a domande fondamentali, come ad esempio:chi decide i contenuti del curriculum da integrare in queste piattaforme? Chi sta rivedendo il loro lavoro?
L'intelligenza artificiale potrebbe peggiorare questi problemi?
Tutte le problematiche legate alle tecnologie digitali tendono ad essere amplificate dall'intelligenza artificiale.
La cosiddetta IA utilizza algoritmi ed enormi quantità di potenza di calcolo per produrre risultati basati su innumerevoli calcoli di probabilità. Ad esempio, qual è la probabilità che la parola successiva in una sequenza sia "juice"? Questi calcoli non producono “verità” e nemmeno, necessariamente, accuratezza. Producono output probabilistici.
Attualmente, la costruzione e il funzionamento degli algoritmi di intelligenza artificiale sono in gran parte al di fuori dell’opinione pubblica e senza alcuna responsabilità pubblica. Tuttavia, il personale scolastico viene spinto, sia dagli operatori di marketing che dagli enti governativi, a essere considerato in prima linea in questa presunta rivoluzione digitale, affidando sempre più processi scolastici a tecnologi con poca o nessuna conoscenza della pedagogia o del curriculum scolastico.
Molte persone definiscono gli strumenti di intelligenza artificiale una "scatola nera". Cosa significa?
Per usare una spiegazione del vecchio mondo, immagina se dicessi:"Mi piacerebbe vedere il libro di testo di geografia di mio figlio". Potresti dire:"Ho dei problemi qui". Potresti parlarne con qualcuno, qualcuno che potrebbe spiegarti questi problemi. Ma con l'intelligenza artificiale questo non è possibile.
Non puoi entrare e dire, ad esempio, "Come ha funzionato il punteggio di questo?" La risposta sarebbe:"Beh, non lo sappiamo". "Come facciamo a sapere che questo contenuto è accurato?" "Beh, non lo sappiamo nemmeno noi."
C'è quindi preoccupazione che l'intelligenza artificiale possa prendere decisioni al posto degli educatori o dei genitori?
Puoi utilizzare l'intelligenza artificiale per aiutarti a determinare se un bambino ha tradito. Lo usi per determinare se un bambino dovrebbe essere o meno in questo programma o in quel programma. Puoi utilizzare l'intelligenza artificiale per decidere qualsiasi cosa riguardo a un bambino, e il bambino viene bloccato con poche o nessuna possibilità di ricorso.
I genitori possono lamentarsi quanto vogliono. Non riescono ancora a ottenere informazioni sulle basi di una decisione presa da AI perché il preside non le ha. L'insegnante non ce l'ha. Il sovrintendente non ce l'ha. È nascosto dietro una tenda proprietaria da un fornitore privato.
Sostieni una "pausa" nell'uso dell'intelligenza artificiale nelle scuole. Come sarebbe?
La soluzione sarebbe che le legislature statali dicessero, per statuto, in sostanza:le scuole pubbliche in questo stato non possono adottare programmi di intelligenza artificiale a meno che e finché tali programmi non siano certificati da questa entità governativa:dovrebbero creare l'entità. Ha esaminato questi programmi. Ha affermato che sono sicuri da usare e definisce quali sono gli usi appropriati del programma e per chi.
In altre parole, nelle scuole non entrerà nulla finché non avremo il quadro statutario e normativo e la capacità istituzionale per valutare in modo indipendente le piattaforme di intelligenza artificiale proposte per l'uso scolastico.
Cosa possono fare i genitori, o chiunque altro, che sono preoccupati per questo problema?
Chiedete ai vostri rappresentanti di prendere sul serio queste questioni, prima di tutto di legiferare su una pausa nell’adozione dell’intelligenza artificiale nelle scuole. Periodo. Quindi potranno chiedere ai loro rappresentanti di creare un ente statale progettato per regolamentare l'uso dell'intelligenza artificiale nelle scuole.
Questo è un problema politico. Questo non è un problema tecnico.
Abbiamo una lunga storia di aziende tecnologiche che non riescono a seguire le proprie regole, che sono di per sé ridicolmente inadeguate. Chiunque stia seriamente cercando di capire come utilizzare in modo responsabile l'intelligenza artificiale nell'istruzione, se non parla di azione politica, non sta realmente parlando. I tecnologi non ci salveranno.