Se cerchi su Google Scholar la frase "come modello linguistico dell'intelligenza artificiale", troverai molta letteratura di ricerca sull'intelligenza artificiale e anche alcuni risultati piuttosto sospetti. Ad esempio, un articolo sulla tecnologia agricola afferma:
"In quanto modello linguistico dell'intelligenza artificiale, non ho accesso diretto agli articoli o agli studi di ricerca attuali. Tuttavia, posso fornirti una panoramica di alcune tendenze e progressi recenti..."
Gaffe evidenti come questa non sono gli unici segnali del fatto che i ricercatori si rivolgono sempre più a strumenti di intelligenza artificiale generativa quando scrivono le loro ricerche. Uno studio recente ha esaminato la frequenza di alcune parole nella scrittura accademica (come "lodevole", "meticolosamente" e "intricato") e ha scoperto che sono diventate molto più comuni dopo il lancio di ChatGPT, tanto che l'1% di tutte le riviste gli articoli pubblicati nel 2023 potrebbero contenere testo generato dall'intelligenza artificiale.
(Perché i modelli di intelligenza artificiale abusano di queste parole? Si ipotizza che sia perché sono più comuni nell'inglese parlato in Nigeria, dove spesso si verificano elementi chiave dell'addestramento dei modelli.)
Lo studio sopra citato esamina anche i dati preliminari del 2024, che indicano che l’assistenza alla scrittura tramite intelligenza artificiale sta diventando sempre più comune. Si tratta di una crisi per gli studi moderni o di un vantaggio per la produttività accademica?
Molte persone sono preoccupate dall’uso dell’intelligenza artificiale nei documenti accademici. In effetti, la pratica è stata descritta come "contaminante" della letteratura accademica.
Alcuni sostengono che l’utilizzo dell’output dell’intelligenza artificiale equivalga a plagio. Se le tue idee vengono copiate e incollate da ChatGPT, è discutibile se ne meriti davvero il merito.
Ma ci sono differenze importanti tra il “plagio” del testo creato da esseri umani e il testo creato dall’intelligenza artificiale. Coloro che plagiano il lavoro umano ricevono credito per idee che avrebbero dovuto andare all'autore originale.
È invece discutibile se i sistemi di intelligenza artificiale come ChatGPT possano avere idee, per non parlare di meritarne il merito. Uno strumento di intelligenza artificiale è più simile alla funzione di completamento automatico del tuo telefono che a un ricercatore umano.
Un’altra preoccupazione è che i risultati dell’intelligenza artificiale potrebbero essere distorti in modi che potrebbero penetrare nella documentazione accademica. È tristemente noto che i modelli linguistici più antichi tendessero a ritrarre le persone di sesso femminile, nere e/o gay in modi decisamente poco lusinghieri, rispetto alle persone di sesso maschile, bianche e/o etero.
Questo tipo di pregiudizio è meno pronunciato nella versione attuale di ChatGPT.
Tuttavia, altri studi hanno riscontrato un diverso tipo di pregiudizio in ChatGPT e in altri modelli linguistici di grandi dimensioni:una tendenza a riflettere un'ideologia politica di sinistra liberale.
Qualsiasi pregiudizio di questo tipo potrebbe distorcere sottilmente la scrittura accademica prodotta utilizzando questi strumenti.
La preoccupazione più grave riguarda un limite ben noto dei sistemi di intelligenza artificiale generativa:che spesso commettono errori gravi.
Ad esempio, quando ho chiesto a ChatGPT-4 di generare un'immagine ASCII di un fungo, mi ha fornito il seguente output.
Poi mi ha detto con sicurezza che avrei potuto usare questa immagine di un "fungo" per i miei scopi.
Questi tipi di errori di eccessiva sicurezza sono stati definiti "allucinazioni dell'IA" e "stronzate dell'IA". Sebbene sia facile notare che l'immagine ASCII sopra non assomiglia per niente a un fungo (e piuttosto a una lumaca), potrebbe essere molto più difficile identificare eventuali errori commessi da ChatGPT quando si esamina la letteratura scientifica o si descrive lo stato di un dibattito filosofico.
A differenza della maggior parte degli esseri umani, i sistemi di intelligenza artificiale sono fondamentalmente indifferenti alla verità di ciò che dicono. Se usate con noncuranza, le loro allucinazioni potrebbero corrompere la documentazione accademica.
Una risposta all’aumento dei generatori di testo è stata quella di vietarli completamente. Ad esempio, Science, una delle riviste accademiche più influenti al mondo, vieta qualsiasi utilizzo di testo generato dall'intelligenza artificiale.
Vedo due problemi con questo approccio.
Il primo problema è pratico:gli attuali strumenti per rilevare il testo generato dall’intelligenza artificiale sono altamente inaffidabili. Ciò include il rilevatore creato dagli sviluppatori di ChatGPT, che è stato messo offline dopo che si è scoperto che aveva solo un tasso di precisione del 26% (e un tasso di falsi positivi del 9%). Anche gli esseri umani commettono errori quando valutano se qualcosa è stato scritto dall'intelligenza artificiale.
È anche possibile aggirare i rilevatori di testo AI. Le comunità online stanno esplorando attivamente come attivare ChatGPT in modi che consentano all'utente di eludere il rilevamento. Gli utenti umani possono anche riscrivere superficialmente gli output dell'intelligenza artificiale, cancellando di fatto le tracce dell'intelligenza artificiale (come l'uso eccessivo delle parole "lodevole", "meticolosamente" e "complesso").
Il secondo problema è che vietare completamente l’intelligenza artificiale generativa ci impedisce di realizzare i vantaggi di queste tecnologie. Se utilizzata bene, l’intelligenza artificiale generativa può aumentare la produttività accademica semplificando il processo di scrittura. In questo modo, potrebbe aiutare ad approfondire la conoscenza umana. Idealmente, dovremmo cercare di raccogliere questi benefici evitando i problemi.
Il problema più serio con l’intelligenza artificiale è il rischio di introdurre errori inosservati, che portano a studi inadeguati. Invece di vietare l'intelligenza artificiale, dovremmo cercare di garantire che affermazioni errate, non plausibili o distorte non possano essere incluse nel curriculum accademico.
Dopotutto, anche gli esseri umani possono produrre testi commettendo gravi errori e meccanismi come la revisione tra pari spesso non riescono a impedirne la pubblicazione.
Dobbiamo migliorare nel garantire che i documenti accademici siano esenti da errori gravi, indipendentemente dal fatto che questi errori siano causati da un uso imprudente dell’intelligenza artificiale o da studi umani sciatti. Non solo questo è più realizzabile rispetto al controllo sull'uso dell'intelligenza artificiale, ma migliorerà anche gli standard della ricerca accademica nel suo insieme.
Questa sarebbe (come direbbe ChatGPT) una soluzione encomiabile e meticolosamente intricata.
Fornito da The Conversation
Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi l'articolo originale.