• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • La formazione fisica è il prossimo ostacolo per l'intelligenza artificiale, afferma un ricercatore

    Credito:Pixabay/CC0 di dominio pubblico

    Lascia che un milione di scimmie suonino su un milione di macchine da scrivere per un milione di anni e, si dice, riprodurranno le opere di Shakespeare. Dai alle scimmie infinite un tempo infinito e non apprezzeranno ancora il poetico cambio di frase del bardo, anche se riescono a digitare le parole. Lo stesso vale per l'intelligenza artificiale (AI), secondo Michael Woolridge, professore di informatica all'Università di Oxford. Il problema, ha detto, non è la potenza di elaborazione, ma piuttosto la mancanza di esperienza.

    Il suo punto di vista è stato pubblicato il 25 luglio su Intelligent Computing .

    "Negli ultimi 15 anni, la velocità dei progressi nell'IA in generale, e nell'apprendimento automatico (ML) in particolare, ha ripetutamente colto di sorpresa commentatori esperti di intelligenza artificiale come me:abbiamo dovuto ricalibrare continuamente le nostre aspettative su ciò che accadrà essere possibile e quando", ha detto Wooldridge.

    "Nonostante tutto ciò che i loro risultati devono essere lodati, penso che ci sia un aspetto cruciale in cui la maggior parte dei grandi modelli di ML sono fortemente limitati:il mondo e il fatto che i modelli semplicemente non ne hanno esperienza".

    La maggior parte dei modelli ML sono costruiti in mondi virtuali, come i videogiochi. Possono allenarsi su enormi set di dati, ma per le applicazioni fisiche mancano informazioni vitali. Wooldridge ha indicato come esempio l'IA alla base dei veicoli autonomi.

    "Lasciare le auto senza conducente sulle strade per imparare da sole non è un punto di partenza, quindi per questo e altri motivi, i ricercatori scelgono di costruire i loro modelli in mondi virtuali", ha detto Wooldridge. "E in questo modo, siamo entusiasti di una generazione di sistemi di intelligenza artificiale che semplicemente non hanno la capacità di operare nell'ambiente più importante di tutti:il nostro mondo."

    I modelli di IA linguistica, d'altra parte, sono sviluppati senza la pretesa di un mondo, ma soffrono ancora delle stesse limitazioni. Si sono evoluti, per così dire, da testi predittivi ridicolmente terribili a LaMDA di Google, che ha fatto notizia all'inizio di quest'anno quando un ex ingegnere di Google ha affermato che l'IA era senziente.

    "Qualunque fosse la validità delle conclusioni [dell'ingegnere], era chiaro che era profondamente impressionato dalla capacità di conversare di LaMDA, e con buone ragioni", ha detto Wooldridge, osservando che personalmente non crede che LaMDA sia senziente, né l'IA è vicina a tale una pietra miliare.

    "Questi modelli fondamentali dimostrano capacità senza precedenti nella generazione del linguaggio naturale, producendo estesi brani di testo dal suono naturale. Sembrano anche aver acquisito una certa competenza nel ragionamento di buon senso, uno dei santi graal della ricerca sull'IA negli ultimi 60 anni".

    Tali modelli sono reti neurali, che si nutrono di enormi set di dati e si addestrano per capirli. Ad esempio, GPT-3, un predecessore di LaMDA, si è formato su tutto il testo inglese disponibile su Internet. La quantità di dati di addestramento combinata con una notevole potenza di calcolo rende i modelli simili ai cervelli umani, dove si spostano oltre compiti ristretti per iniziare a riconoscere schemi e creare connessioni apparentemente estranee al compito principale.

    "La scommessa con i modelli di base è che la loro formazione ampia e ampia porta a competenze utili in una vasta gamma di aree, che possono quindi essere specializzate per applicazioni specifiche", ha affermato Wooldridge. "Mentre l'IA simbolica si basava sul presupposto che l'intelligenza è principalmente un problema di conoscenza, i modelli di base si basano sul presupposto che l'intelligenza è principalmente un problema di dati. Per semplificare, ma non di molto, gettare abbastanza dati di addestramento su modelli di grandi dimensioni, e si spera che la competenza nasca."

    Questo approccio "potrebbe essere giusto" ridimensiona i modelli più grandi per produrre un'IA più intelligente, ha affermato Wooldridge, ma questo ignora il know-how fisico necessario per far avanzare davvero l'IA.

    "Per essere onesti, ci sono alcuni segni che questo sta cambiando", ha detto Wooldridge, indicando il sistema Gato. Annunciato a maggio da DeepMind, il modello di base, addestrato su insiemi di linguaggi di grandi dimensioni e su dati robotici, potrebbe funzionare in un ambiente semplice ma fisico.

    "È meraviglioso vedere i primi piccoli passi compiuti nel mondo fisico dai modelli di base. Ma sono solo piccoli passi:le sfide da superare per far funzionare l'IA nel nostro mondo sono almeno altrettanto grandi, e probabilmente più grandi, di quelle affrontate facendo funzionare l'IA in ambienti simulati." + Esplora ulteriormente

    Un ingegnere del software di Google ritiene che un'IA sia diventata senziente. Se ha ragione, come potremmo saperlo?




    © Scienza https://it.scienceaq.com