Credito:foto Phonlamai/Shutterstock
, Dovremmo avere paura dell'intelligenza artificiale? Per me, questa è una domanda semplice con un ancora più semplice, risposta in due lettere:no. Ma non tutti sono d'accordo:molte persone, compreso il defunto fisico Stephen Hawking, hanno sollevato preoccupazioni sul fatto che l'ascesa di potenti sistemi di intelligenza artificiale potrebbe significare la fine per l'umanità.
Chiaramente, la tua opinione sul fatto che l'IA conquisterà il mondo dipenderà dal fatto che tu pensi che possa sviluppare comportamenti intelligenti superiori a quelli degli umani, qualcosa chiamato "super intelligenza". Quindi diamo un'occhiata a quanto è probabile questo, e perché c'è molta preoccupazione per il futuro dell'IA.
Gli umani tendono ad avere paura di ciò che non capiscono. La paura è spesso accusata di razzismo, omofobia e altre fonti di discriminazione. Quindi non c'è da meravigliarsi che si applichi anche alle nuove tecnologie:spesso sono circondate da un certo mistero. Alcuni risultati tecnologici sembrano quasi irrealistici, chiaramente superando le aspettative e in alcuni casi le prestazioni umane.
Nessun fantasma nella macchina
Ma cerchiamo di demistificare le tecniche di intelligenza artificiale più popolari, noti collettivamente come "apprendimento automatico". Questi consentono a una macchina di apprendere un'attività senza essere programmata con istruzioni esplicite. Questo può sembrare inquietante, ma la verità è che dipende tutto da alcune statistiche piuttosto banali.
La macchina, che è un programma, o meglio un algoritmo, è progettato con la capacità di scoprire le relazioni all'interno dei dati forniti. Ci sono molti metodi diversi che ci permettono di raggiungere questo obiettivo. Per esempio, possiamo presentare alla macchina immagini di lettere scritte a mano (a-z), uno per uno, e chiedigli di dirci quale lettera mostriamo ogni volta in sequenza. Abbiamo già fornito le possibili risposte:può essere solo una tra (a-z). La macchina all'inizio dice una lettera a caso e noi la correggiamo, fornendo la risposta giusta. Abbiamo anche programmato la macchina per riconfigurarsi in modo che la prossima volta, se presentato con la stessa lettera, è più probabile che ci dia la risposta corretta per il prossimo. Come conseguenza, la macchina nel tempo migliora le sue prestazioni e "impara" a riconoscere l'alfabeto.
In sostanza, abbiamo programmato la macchina per sfruttare le relazioni comuni nei dati al fine di raggiungere il compito specifico. Ad esempio, tutte le versioni di "a" sembrano strutturalmente simili, ma diverso da "b", e l'algoritmo può sfruttarlo. interessante, dopo la fase di formazione, la macchina può applicare le conoscenze ottenute su nuovi campioni di lettere, per esempio scritto da una persona la cui grafia la macchina non ha mai visto prima.
umani, però, sono bravi a leggere. Forse un esempio più interessante è il player Go artificiale di Google Deepmind, che ha superato ogni giocatore umano nelle prestazioni del gioco. Impara chiaramente in un modo diverso dagli umani - giocando con se stesso a una serie di giochi che nessun essere umano potrebbe giocare nella sua vita. È stato specificamente incaricato di vincere e gli è stato detto che le azioni che intraprende determinano se vince o meno. È stato anche detto le regole del gioco. Giocando più e più volte può scoprire in ogni situazione qual è l'azione migliore:inventare mosse che nessun essere umano ha mai giocato prima.
Bambini contro robot
Questo rende il giocatore di AI Go più intelligente di un essere umano? Certamente no. L'intelligenza artificiale è molto specializzata in un particolare tipo di attività e non mostra la versatilità degli umani. Gli esseri umani sviluppano nel corso degli anni una comprensione del mondo che nessuna intelligenza artificiale ha raggiunto o sembra probabile che riesca a raggiungere in tempi brevi.
Il fatto che l'intelligenza artificiale sia soprannominata "intelligente" è in definitiva dovuto al fatto che può apprendere. Ma anche quando si tratta di imparare, non può competere con gli umani. Infatti, i più piccoli possono imparare semplicemente guardando qualcuno che risolve un problema una volta. Un'intelligenza artificiale, d'altra parte, ha bisogno di tonnellate di dati e un sacco di tentativi per avere successo. Ma mentre gli umani sviluppano rapidamente un'intelligenza mozzafiato nei primi anni di vita, i concetti chiave alla base dell'apprendimento automatico non sono così diversi da quelli che erano uno o due decenni fa.
Il successo dell'IA moderna non è dovuto tanto all'innovazione di nuove tecniche quanto più alla grande quantità di dati e alla potenza di calcolo disponibili. È importante sottolineare che anche se, anche una quantità infinita di dati non darà all'intelligenza artificiale un'intelligenza simile a quella umana:prima dobbiamo compiere progressi significativi nello sviluppo di tecniche di "intelligenza generale" artificiale. Alcuni approcci per farlo comportano la costruzione di un modello computerizzato del cervello umano, cosa che non siamo nemmeno vicini a raggiungere.
In definitiva, solo perché un'intelligenza artificiale può imparare, in realtà non ne consegue che imparerà improvvisamente tutti gli aspetti dell'intelligenza umana e ci supererà in astuzia. Non esiste una definizione semplice di cosa sia l'intelligenza umana e certamente non abbiamo idea di come sia rappresentata esattamente nel cervello. Ma anche se potessimo risolverlo e poi creare un'intelligenza artificiale che potrebbe imparare a diventare più intelligente, ciò non significa necessariamente che avrebbe più successo.
Personalmente, Sono più preoccupato per il modo in cui gli umani usano l'intelligenza artificiale. Gli algoritmi di apprendimento automatico sono spesso pensati come scatole nere, e viene fatto meno sforzo nell'individuare le specifiche della soluzione che i nostri algoritmi hanno trovato. Questo è un aspetto importante e spesso trascurato poiché spesso siamo ossessionati dalle prestazioni e meno dalla comprensione. Comprendere le soluzioni che questi sistemi hanno scoperto è importante, perché possiamo anche valutare se sono soluzioni corrette o desiderabili.
Se, ad esempio, alleniamo il nostro sistema in modo sbagliato, possiamo anche ritrovarci con una macchina che ha appreso relazioni che in generale non reggono. Diciamo ad esempio che vogliamo progettare una macchina per valutare la capacità di potenziali studenti in ingegneria. Probabilmente una pessima idea, ma seguiamolo fino alla scossa dell'argomento. Tradizionalmente, questa è una disciplina dominata dagli uomini, il che significa che è probabile che i campioni di formazione provengano da precedenti studenti maschi. Se non siamo sicuri, ad esempio, che i dati di allenamento siano bilanciati, la macchina potrebbe finire per concludere che gli studenti di ingegneria sono maschi, e applicarla erroneamente a decisioni future.
L'apprendimento automatico e l'intelligenza artificiale sono strumenti. Possono essere usati nel modo giusto o sbagliato, come tutto il resto. È il modo in cui vengono utilizzati che dovrebbe interessarci, not the methods themselves. Human greed and human unintelligence scare me far more than artificial intelligence.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.