• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Modello di notizie false in fase di rilascio ma due ricercatori avviano la replica

    Credito:CC0 Dominio pubblico

    Non è la notizia più confortante nel mondo della tecnologia:il laboratorio di intelligenza artificiale (OpenAI) cofondato da Elon Musk ha affermato che il suo software potrebbe essere adattato troppo facilmente per sfornare notizie false. "Due laureati l'hanno ricreato comunque." Quello era Cablato la copertura del 26 agosto di una storia su due neolaureati in informatica che hanno rilasciato quello che hanno detto essere "una ricreazione del software nascosto di OpenAI" che chiunque può scaricare e utilizzare.

    Trattenuto? Come mai? Era stato trattenuto per le preoccupazioni circa l'impatto sociale.

    A febbraio, OpenAI ha annunciato il suo modello, GPT-2, e ha detto che è stato addestrato a prevedere la parola successiva in 40 GB di testo Internet.

    Hanno spiegato la loro strategia di rilascio:"A causa delle preoccupazioni sui modelli linguistici di grandi dimensioni utilizzati per generare ingannevoli, parziale, o linguaggio offensivo su larga scala, stiamo solo rilasciando una versione molto più piccola di GPT-2 insieme al codice di campionamento. Non stiamo rilasciando il set di dati, codice di allenamento, o pesi del modello GPT-2." A maggio, disse Tecnologia MIT Recensione , "pochi mesi dopo il debutto iniziale di GPT-2, OpenAI ha rivisto la sua posizione sulla sospensione dell'intero codice a quella che definisce una "rilascio graduale".

    Charanjeet Singh in Fossbytes ha affermato che il software ha analizzato i modelli linguistici e potrebbe essere utilizzato per attività come chatbot e fornire risposte senza precedenti, ma "la preoccupazione più allarmante tra gli esperti è stata la creazione di testo sintetico".

    Bene, i due laureati nelle notizie hanno rilasciato una ri-creazione del software OpenAI su Internet ma i due ricercatori, Aaron Gokaslan e Vanya Cohen, non ha mai voluto drenare gli oceani o far cadere il cielo.

    Tom Simonite, che ha scritto il tanto citato articolo in Cablato , hanno detto i due ricercatori, 23 e 24 anni, non volevano causare scompiglio, ma hanno affermato che il loro rilascio aveva lo scopo di dimostrare che non è necessario essere un laboratorio d'élite ricco di dollari e dottorati di ricerca per creare questo tipo di software:hanno usato una cifra stimata di $ 50, 000 di cloud computing gratuito di Google.

    Sissi Cao, Osservatore :Simile al processo di OpenAI, Gokaslan e Cohen hanno addestrato il loro software linguistico utilizzando pagine web di testo "scritto da umani (raccogliendo collegamenti condivisi su Reddit) e cloud computing da Google.

    Inoltre, le azioni dei ricercatori potenzialmente pericolose potrebbero essere discusse.

    Simonite ha chiarito questo punto:"Il software di apprendimento automatico raccoglie i modelli statistici del linguaggio, non una vera comprensione del mondo. Il testo sia del software originale che di quello aspirante spesso fa salti senza senso. Né può essere diretto a includere fatti o punti di vista particolari."

    L'output di esempio è stato fornito da Gokaslan e Cohen in medio e, di sicuro, è un grattacapo quando si cerca di trovare un flusso logico da una frase all'altra.

    Quell'articolo era intitolato "OpenGPT-2:abbiamo replicato GPT-2 perché puoi farlo anche tu". Hanno affermato di ritenere che il rilascio del loro modello fosse un primo passo ragionevole per contrastare il potenziale abuso futuro di questo tipo di modelli. Ha detto che hanno modificato la loro base di codice in modo che corrisponda all'obiettivo di formazione sulla modellazione del linguaggio di GPT-2. "Dal momento che il loro modello è stato addestrato su un corpus altrettanto grande, gran parte del codice e degli iperparametri si è dimostrato prontamente riutilizzabile."

    Dal momento che Open-AI non aveva rilasciato il suo modello più grande in questo momento [la data del suo intervento era il 22 agosto], ha detto che i due ricercatori hanno cercato di replicare il loro modello 1.5B per consentire ad altri di costruire sul loro modello preaddestrato e migliorarlo ulteriormente.

    Avanti veloce fino al 29 agosto. Dove finisce tutto questo il GPT-2 di OpenAI? Karen Hao in Revisione della tecnologia del MIT ha detto che il suo team politico ha pubblicato un documento, presentato il 24 agosto, che ora è su arXiv, e "Accanto ad esso, il laboratorio ha rilasciato una versione del modello, noto come GPT-2, è grande la metà di quello intero, che non è ancora stato rilasciato".

    L'articolo di Hao è stato particolarmente utile per comprendere questo dramma di testo falso poiché ha riferito di come l'approccio di rilascio graduale è stato ricevuto al di fuori di OpenAI.

    Un ingegnere del deep learning di Nvidia ha affermato di non ritenere che un rilascio graduale fosse particolarmente utile in questo caso perché il lavoro era facilmente replicabile, "Ma potrebbe essere utile in quanto costituisce un precedente per progetti futuri. Le persone vedranno il rilascio graduale come un'opzione alternativa".

    Ha anche citato Oren Etzioni, il CEO dell'Allen Institute for Artificial Intelligence. "Apprezzo il loro intento di progettare un pensieroso, processo di rilascio graduale per la tecnologia AI, ma mi chiedo se tutta la fanfara fosse giustificata".

    © 2019 Science X Network




    © Scienza https://it.scienceaq.com