• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • L'algoritmo OpenAIs GPT-2 è bravo a creare notizie false

    Credito:CC0 Dominio Pubblico

    Impostore. Pericoloso. Allarmante. Troppo buono. Quando i titoli nuotano con verdetti come quelli che sospetti, correttamente, che sei nella terra dell'intelligenza artificiale, dove qualcuno ha escogitato un altro modello di intelligenza artificiale.

    Così, questo è , GPT-2, un algoritmo e, se fa preoccupare o meravigliare, "Eccelle in un compito noto come modellazione del linguaggio, " disse Il Verge , "che verifica la capacità di un programma di prevedere la parola successiva in una determinata frase".

    A seconda di come lo guardi, puoi dare la colpa, o congratularmi, un team di OpenAI con sede in California che ha creato GPT-2. Il loro programma di modellazione linguistica ha scritto un saggio convincente su un argomento con cui non erano d'accordo.

    Come lo hanno fatto:gli hanno fornito messaggi di testo. Era in grado di completare frasi e paragrafi inventati. Il loro modello è stato addestrato per prevedere la parola successiva nel testo di Internet, ha detto il post sul blog OpenAI.

    David Luan, VP of Engineering presso il laboratorio della California, riferito cosa è successo a Il Verge . Il team ha deciso di chiedergli "per argomentare un punto che pensavano fosse controintuitivo. In questo caso:perché il riciclaggio fa male al mondo". Il risultato:un insegnante gradito, saggio ben motivato, "qualcosa che avresti potuto presentare all'US SAT e ottenere un buon punteggio, " disse Luan.

    Qui sta la ragione per cui alcune persone che si preoccupano per Armageddon con i robot potrebbero non dormire così bene la notte. Dagli un titolo falso, ha detto James Vincent in Il Verge , e andrà a scrivere il resto dell'articolo.

    "Abbiamo iniziato a testarlo, e ho scoperto rapidamente che è possibile generare contenuti dannosi abbastanza facilmente, "ha detto Jack Clark, direttore delle politiche presso OpenAI, in Revisione della tecnologia del MIT . Citazioni false? Nessun problema. Statistiche false? Fatto.

    Vincenzo ha aggiunto, c'era un'altra ragione per cui GPT-2 stava ottenendo i riflettori. È stato anche notato per la sua flessibilità. Scrivere saggi falsi non era l'unica capacità; potrebbe anche svolgere alcuni altri compiti:"tradurre il testo da una lingua all'altra, riassumendo lunghi articoli, e rispondendo a domande banali, " disse Vincenzo.

    Tutto sommato, il blog OpenAI pubblicato giovedì ha riassunto ciò che hanno fatto. Nota le loro ultime parole, senza formazione specifica per compiti:

    "Abbiamo addestrato un modello di linguaggio non supervisionato su larga scala che genera paragrafi di testo coerenti, raggiunge prestazioni all'avanguardia su molti benchmark di modellazione linguistica, ed esegue una rudimentale comprensione della lettura, traduzione automatica, risposta alla domanda, e riassunto, il tutto senza una formazione specifica per l'attività."

    Questo è il settore "zero shot" della ricerca sull'intelligenza artificiale.

    "Il nostro modello non è addestrato su nessuno dei dati specifici per nessuna di queste attività e viene valutato su di essi solo come test finale; questa è nota come impostazione 'zero-shot'. GPT-2 supera i modelli addestrati su specifiche del dominio set di dati (es. Wikipedia, notizia, libri) quando valutati su quegli stessi set di dati." Il programma riconosce i modelli nei dati che viene alimentato; Knight ha scritto che "contrariamente alla maggior parte degli algoritmi linguistici, il programma OpenAI non richiede testo etichettato o curato."

    Il team ha affermato che il loro sistema ha stabilito un record per le prestazioni sui cosiddetti schemi Winograd, un difficile compito di comprensione della lettura; raggiunge prestazioni quasi umane nel test del libro per bambini, un altro controllo della comprensione della lettura; e genera il proprio testo, inclusi articoli di notizie altamente convincenti e recensioni su Amazon, secondo Vox .

    Bloomberg si rivolse a Sam Bowman, un informatico della New York University specializzato nell'elaborazione del linguaggio naturale. Bowman non faceva parte del progetto OpenAI, appena informato su di esso. ""È in grado di fare cose che sono qualitativamente molto più sofisticate di qualsiasi cosa abbiamo visto prima."

    Alla fine, cosa abbiamo qui? Hanno creato una svolta o un mostro?

    Aggiungendo un po' di prospettiva, Will Knight in Revisione della tecnologia del MIT detto che tale tecnologia potrebbe avere usi benefici, come riassumere il testo o migliorare le capacità di conversazione dei chatbot. Anche, un esperto di elaborazione del linguaggio naturale e il capo scienziato di Salesforce hanno riconosciuto questo lavoro OpenAI come un esempio di un sistema di apprendimento delle lingue più generico. Richard Socher, l'esperto, ha commentato il potenziale di inganno e disinformazione. "Non hai bisogno dell'intelligenza artificiale per creare notizie false, " ha detto. "Le persone possono farlo facilmente :)"

    Ciò nonostante, "OpenAI sta procedendo con cautela con la presentazione di GPT-2, " ha scritto Vincent. "A differenza della maggior parte delle pietre miliari della ricerca nell'intelligenza artificiale, il laboratorio non condividerà il set di dati utilizzato per addestrare l'algoritmo o tutto il codice su cui viene eseguito (sebbene abbia concesso l'accesso temporaneo all'algoritmo a una serie di pubblicazioni multimediali, Compreso Il Verge )."

    Il team ha dichiarato nel loro post sul blog. "A causa delle nostre preoccupazioni sulle applicazioni dannose della tecnologia, non stiamo rilasciando il modello addestrato. Come esperimento di divulgazione responsabile, stiamo invece rilasciando un modello molto più piccolo per consentire ai ricercatori di sperimentare, così come un documento tecnico."

    Nello specifico, hanno detto che stavano rilasciando solo una versione molto più piccola di GPT-2 insieme al codice di campionamento. "Non stiamo rilasciando il set di dati, codice di allenamento, o pesi del modello GPT-2."

    OpenAI preferisce parlare dei pericoli prima che arrivino. Jack Clark, il policy director di OpenAI ha parlato di algoritmi di modellazione del linguaggio come GPT-2. "La nostra ipotesi è che potrebbe essere un mondo migliore e più sicuro se parli di [questi pericoli] prima che arrivino, " Egli ha detto.

    GPT-2 è stato addestrato su un set di dati di milioni di pagine web. Dave Lee, Reporter di tecnologia del Nord America, BBC, aggiunto la natura "non supervisionata" di ciò che hanno creato, tale da non dover essere riqualificato per passare a un argomento diverso.

    Lee, pur riconoscendo che il loro lavoro aveva un tono straordinariamente realistico quando funzionava bene, notato anche le carenze.

    "L'intelligenza artificiale genera la storia parola per parola. Il testo risultante è spesso coerente, ma raramente veritiere:tutte le citazioni e le attribuzioni sono inventate. Le sentenze si basano su informazioni già pubblicate online, ma la composizione di tali informazioni è destinata ad essere unica. A volte il sistema sputa passaggi di testo che strutturalmente non hanno molto senso, o contenere imprecisioni risibili."

    Risibile ora, ma l'IA sarà migliorata nel tempo? Secondo Cavaliere, Clark ha detto che potrebbe non volerci molto perché le storie false prodotte dall'IA fossero più convincenti. "È molto chiaro che se questa tecnologia maturasse, e le darei uno o due anni, potrebbe essere utilizzata per la disinformazione o la propaganda, "disse Clark, e "Stiamo cercando di anticipare questo."

    © 2019 Scienza X Rete




    © Scienza https://it.scienceaq.com