• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Crescere e sfoltire l'IA imita lo sviluppo del cervello, riduce il consumo di energia

    ricercatori di Princeton, guidato dal professore di ingegneria elettrica Niraj Jha, ha sviluppato una tecnica che produce programmi avanzati di intelligenza artificiale per dispositivi indossabili come un orologio intelligente. Imitando l'arco di sviluppo del cervello, il nuovo approccio porta alla precisione del benchmark utilizzando una frazione dell'energia di altri sistemi. Da sinistra:Prerit Terway, Hongxu Yin, Niraj Jha, Seyed Shayan Hassantabar. Credito:Sameer A. Khan/Fotobuddy

    Potrebbe essere uno shock per i genitori affrontare il caos quotidiano della vita dei bambini piccoli, ma la complessità del cervello raggiunge il picco intorno ai tre anni.

    Il numero di connessioni tra i neuroni esplode virtualmente nei nostri primi anni. Dopodiché il cervello inizia a potare le parti inutilizzate di questa vasta rete elettrica, dimagrire a circa la metà del numero quando raggiungiamo l'età adulta. L'eccessivo approvvigionamento del cervello del bambino ci consente di acquisire il linguaggio e sviluppare capacità motorie fini. Ma quello che non usiamo, noi perdiamo.

    Ora questo flusso e riflusso di complessità biologica ha ispirato un team di ricercatori di Princeton a creare un nuovo modello per l'intelligenza artificiale, la creazione di programmi che soddisfano o superano gli standard del settore per la precisione utilizzando solo una frazione dell'energia. In un paio di articoli pubblicati all'inizio di quest'anno, i ricercatori hanno mostrato come iniziare con un design semplice per una rete di intelligenza artificiale, far crescere la rete aggiungendo neuroni e connessioni artificiali, quindi sfoltire le porzioni inutilizzate lasciando un prodotto finale magro ma molto efficace.

    "Il nostro approccio è quello che chiamiamo un paradigma di crescita e potatura, ", ha affermato il professore di ingegneria elettrica Niraj Jha. "È simile a ciò che fa un cervello da quando siamo bambini a quando siamo bambini." Nel suo terzo anno, il cervello umano inizia a tagliare via le connessioni tra le cellule cerebrali. Questo processo continua fino all'età adulta, in modo che il cervello completamente sviluppato operi a circa metà del suo picco sinaptico.

    "Il cervello adulto è specializzato in qualunque formazione gli abbiamo fornito, "Jha ha detto. "Non è buono per l'apprendimento generico come il cervello di un bambino".

    La crescita e la potatura si traduce in software che richiede una frazione della potenza di calcolo, e quindi consuma molta meno energia, per fare previsioni altrettanto buone sul mondo. Limitare l'uso di energia è fondamentale per ottenere questo tipo di intelligenza artificiale avanzata, chiamata machine learning, su piccoli dispositivi come telefoni e orologi.

    "È molto importante eseguire localmente i modelli di apprendimento automatico perché la trasmissione [al cloud] richiede molta energia, " ha detto Xiaoliang Dai, un ex studente laureato di Princeton e primo autore dei due articoli. Dai è ora un ricercatore presso Facebook.

    Nel primo studio, i ricercatori hanno riesaminato le basi dell'apprendimento automatico, le strutture di codice astratte chiamate reti neurali artificiali. Prendendo ispirazione dallo sviluppo della prima infanzia, il team ha progettato uno strumento di sintesi della rete neurale (NeST) che ha ricreato da zero diverse reti neurali principali, automaticamente, utilizzando sofisticati modelli matematici sviluppati per la prima volta negli anni '80.

    NeST inizia con solo un piccolo numero di neuroni artificiali e connessioni, aumenta la complessità aggiungendo più neuroni e connessioni alla rete, e una volta che soddisfa un dato benchmark prestazionale, inizia a restringersi con il tempo e l'allenamento. I ricercatori precedenti avevano impiegato strategie di potatura simili, ma la combinazione di crescita e potatura - il passaggio dal "cervello del bambino" al "cervello del bambino" e il dimagrimento verso il "cervello dell'adulto" - ha rappresentato un salto dalla vecchia teoria alla nuova dimostrazione.

    La seconda carta, che include collaboratori di Facebook e dell'Università della California-Berkeley, ha introdotto un framework chiamato Chameleon che inizia con i risultati desiderati e lavora a ritroso per trovare lo strumento giusto per il lavoro. Con centinaia di migliaia di varianti disponibili nelle particolari sfaccettature di un design, gli ingegneri affrontano un paradosso di scelta che va ben oltre le capacità umane. Ad esempio:l'architettura per consigliare i film non assomiglia a quella che riconosce i tumori. Il sistema messo a punto per il cancro del polmone ha un aspetto diverso da quello per il cancro del collo dell'utero. Gli assistenti per la demenza potrebbero avere un aspetto diverso per donne e uomini. E così via, verso l'infinito.

    Jha ha descritto Chameleon come ingegneri che guidano verso un sottoinsieme favorevole di progetti. "Mi sta dando un buon vicinato, e posso farlo in minuti di CPU, "Jha ha detto, riferimento a una misura del tempo di processo computazionale. "Così posso ottenere molto rapidamente la migliore architettura". Piuttosto che l'intera metropoli tentacolare, basta cercare in poche strade.

    Chameleon funziona addestrando e campionando un numero relativamente piccolo di architetture che rappresentano un'ampia varietà di opzioni, quindi predice le prestazioni di quei progetti con un determinato insieme di condizioni. Poiché riduce i costi iniziali e funziona all'interno di piattaforme snelle, l'approccio altamente adattivo "potrebbe ampliare l'accesso alle reti neurali per le organizzazioni di ricerca che attualmente non hanno le risorse per sfruttare questa tecnologia, " secondo un post sul blog di Facebook.


    © Scienza https://it.scienceaq.com