Credito:CC0 Dominio Pubblico
Il generatore di testo di OpenAI, basato sull'apprendimento automatico, così potente da essere ritenuto troppo pericoloso per il rilascio al pubblico, ha, indovina un po, stato rilasciato.
OpenAI ha pubblicato un post sul blog annunciando la sua decisione di rilasciare l'algoritmo per intero in quanto "finora non ha riscontrato prove evidenti di uso improprio".
Bene, quella è stata una svolta.
È stato solo a febbraio quando OpenAI ha parlato di un modello linguistico chiamato GPT-2 che genera paragrafi di testo.
Engadget :"L'IA, GPT-2, è stato originariamente progettato per rispondere a domande, riassumere storie e tradurre testi. Ma i ricercatori hanno iniziato a temere che potesse essere usato per pompare grandi volumi di disinformazione".
Tom McKay in Gizmodo ha notato come il generatore di testo sia stato "addestrato su circa 40 gigabyte di dati prelevati da otto milioni di siti Web" e bravo a generare testo da un determinato prompt.
Il Verge Ne ha parlato anche James Vincent. "Il sistema è stato addestrato su otto milioni di documenti di testo prelevati dal Web e risponde a frammenti di testo forniti dagli utenti. Dagli un titolo falso, Per esempio, e scriverà una notizia; dargli il primo verso di una poesia e fornirà un intero verso."
Allora perché il loro algoritmo è stato rilasciato per intero? Il pubblico non ha abbastanza di cui preoccuparsi per le notizie false, critiche false, propaganda politica?
Oltretutto, il post sul blog di febbraio ha preso quella che sembrava essere una strada maestra così impressionante nel mostrare al mondo che le considerazioni etiche erano al primo posto.
"Il nostro modello, chiamato GPT-2 (un successore di GPT), è stato addestrato semplicemente a prevedere la parola successiva in 40 GB di testo Internet. A causa delle nostre preoccupazioni sulle applicazioni dannose della tecnologia, non stiamo rilasciando il modello addestrato. Come esperimento di divulgazione responsabile, stiamo invece rilasciando un modello molto più piccolo per consentire ai ricercatori di sperimentare, così come un documento tecnico."
Katyanna Quach in Il registro ha fornito una cronologia delle apparizioni della tecnologia OpenAI in più fasi. "Il laboratorio di ricerca con sede a San Francisco ha testato provvisoriamente le acque rilasciando modelli sempre più grandi, a partire da poche centinaia di milioni di parametri.
"La versione più piccola conteneva 117 milioni di parametri, il secondo aveva 345 milioni di parametri, il terzo consisteva di 774 milioni di parametri, e il più grande, uscito martedì, ha tutti i parametri 1,5 miliardi. Più parametri, più potente e capace è il modello, parlando in generale."
Così, cosa li ha convinti a prendere la rampa di uscita dalla strada maestra? Che motivo avevano per pensare che ora fosse un momento più sicuro che mai? Che fine ha fatto la posizione che era troppo pericoloso condividere?
"Finora non abbiamo riscontrato prove evidenti di uso improprio, " hanno affermato nel loro post del 5 novembre. "Anche se abbiamo visto alcune discussioni sul potenziale di GPT-2 di argomentare operazioni ad alto volume/basso rendimento come spam e phishing, non abbiamo visto prove della scrittura di codice, documentazione, o casi di uso improprio".
Nel frattempo, James Vincent in Il Verge si azzardò ad esprimere la possibilità che questa nozione "pericolosa" fosse proprio questo, una nozione che, per quanto riguarda il loro modello di fake news, potrebbe non essere stato richiesto in primo luogo.
Si temeva che un facile accesso a un tale strumento di intelligenza artificiale potesse soddisfare i piani di attori malintenzionati, e il modo responsabile per gestirlo era rilasciare il modello in modo limitato. Un buon approccio? O stava ostacolando ulteriori ricerche? "
Ora puoi provarlo su un sito, che gestisce il modello GPT-2 a grandezza naturale, chiamato 1558M. L'interfaccia web è stata realizzata da Adam King utilizzando la versione completa GPT-2 di OpenAI, disse Il registro .
Questo scrittore ha cercato di esplorare cosa può fare con una frase iniziale "I bambini possono lavare i piatti". Quello che seguì fu un bizzarro miscuglio di logica e salti di argomento. Tuttavia le frasi contenevano una grammatica rispettabile, voce e stile. Alcuni frammenti:
"E così, questa idea che i bambini non siano in grado di usare la lavatrice è ridicola.
"Per quanto riguarda l'idea che tuo figlio sia un rubinetto del lavandino, è un'idea che personalmente non credo di poter sopportare. Sono noto per usare un rubinetto del lavandino quando cucino. Posso lavare i piatti in un lavandino.
"Quando tuo figlio è seduto sulle tue ginocchia e tu tieni in mano l'asciugamano e usi l'acqua per lavare i piatti, probabilmente non stai facendo nulla."
James Vincent ha colto nel segno con una valutazione di tre parole:"scrittura stranamente convincente".
Quach ha anche affermato un punto che vale la pena ripetere. "Occasionalmente, sputa frasi che sono sorprendentemente buone, ma mentre continua a sfornare testo, diventa incoerente".
Quach aveva una ragione interessante per cui OpenAI ha contribuito all'umanità. "Abbiamo un'ultima considerazione su questa affascinante ricerca sull'intelligenza artificiale:è almeno un punto di riferimento per gli scrittori umani. Se vuoi scrivere notizie o articoli di approfondimento, i post del blog, email di marketing, e simili, sappi che ora devi essere migliore dell'output semi-coerente di GPT-2. Altrimenti, le persone potrebbero anche leggere l'output di un bot piuttosto che il tuo."
© 2019 Scienza X Rete