Questa faccia è solo un insieme di frammenti di computer? Credito:Michal Bednarek/Shutterstock.com
Quando i sistemi di intelligenza artificiale iniziano a diventare creativi, possono creare grandi cose – e spaventose. Prendere, ad esempio, un programma di intelligenza artificiale che consente agli utenti del Web di comporre musica insieme a un Johann Sebastian Bach virtuale inserendo le note in un programma che genera armonie simili a Bach per abbinarle.
Gestito da Google, l'app ha ricevuto grandi elogi per essere innovativa e divertente con cui giocare. Ha attirato anche critiche, e ha sollevato preoccupazioni sui pericoli dell'IA.
Il mio studio su come le tecnologie emergenti influenzino la vita delle persone mi ha insegnato che i problemi vanno oltre la grande preoccupazione se gli algoritmi possono davvero creare musica o arte in generale. Alcune lamentele sembravano piccole, ma in realtà non lo erano, come le osservazioni che l'intelligenza artificiale di Google stava infrangendo le regole di base della composizione musicale.
Infatti, gli sforzi per fare in modo che i computer imitino il comportamento di persone reali possono essere fonte di confusione e potenzialmente dannosi.
Tecnologie di rappresentazione
Il programma di Google ha analizzato le note in 306 delle opere musicali di Bach, trovando relazioni tra la melodia e le note che fornivano l'armonia. Poiché Bach seguiva rigide regole di composizione, il programma stava effettivamente imparando quelle regole, quindi potrebbe applicarli quando gli utenti hanno fornito le proprie note.
L'app Bach stessa è nuova, ma la tecnologia sottostante non lo è. Algoritmi addestrati a riconoscere schemi e prendere decisioni probabilistiche esistono da molto tempo. Alcuni di questi algoritmi sono così complessi che le persone non sempre capiscono come prendono decisioni o producono un particolare risultato.
I sistemi di intelligenza artificiale non sono perfetti:molti di essi si basano su dati che non sono rappresentativi dell'intera popolazione, o che sono influenzati da pregiudizi umani. Non è del tutto chiaro chi potrebbe essere legalmente responsabile quando un sistema di intelligenza artificiale commette un errore o causa un problema.
Ora, anche se, le tecnologie di intelligenza artificiale stanno diventando abbastanza avanzate da essere in grado di approssimare lo stile di scrittura o di conversazione degli individui, e persino le espressioni facciali. Questo non è sempre un male:un'intelligenza artificiale abbastanza semplice ha dato a Stephen Hawking la capacità di comunicare in modo più efficiente con gli altri prevedendo le parole che avrebbe usato di più.
Programmi più complessi che imitano le voci umane aiutano le persone con disabilità, ma possono anche essere usati per ingannare gli ascoltatori. Per esempio, i creatori di Lyrebird, un programma di imitazione vocale, hanno pubblicato una conversazione simulata tra Barack Obama, Donald Trump e Hillary Clinton. Può sembrare reale, ma quello scambio non è mai avvenuto.
Dal bene al male
A febbraio 2019, la società senza scopo di lucro OpenAI ha creato un programma che genera testo praticamente indistinguibile dal testo scritto dalle persone. Può "scrivere" un discorso nello stile di John F. Kennedy, J.R.R. Tolkien in "Il Signore degli Anelli" o uno studente che scrive un compito scolastico sulla guerra civile americana.
Il testo generato dal software di OpenAI è così credibile che l'azienda ha scelto di non rilasciare il programma stesso.
Tecnologie simili possono simulare foto e video. All'inizio del 2018, ad esempio, l'attore e regista Jordan Peele ha creato un video che sembrava mostrare l'ex presidente degli Stati Uniti Barack Obama dire cose che Obama non ha mai detto per mettere in guardia il pubblico sui pericoli posti da queste tecnologie.
All'inizio del 2019, una finta foto nuda della repubblica americana Alexandria Ocasio-Cortez è circolata online. video di fabbricato, spesso chiamati "deepfake, " dovrebbero essere sempre più utilizzati nelle campagne elettorali.
I membri del Congresso hanno iniziato a esaminare questo problema prima delle elezioni del 2020. Il Dipartimento della Difesa degli Stati Uniti sta insegnando al pubblico come individuare video e audio falsificati. Organizzazioni giornalistiche come Reuters stanno iniziando a formare i giornalisti per individuare i deepfake.
Ma, secondo me, rimane una preoccupazione ancora più grande:gli utenti potrebbero non essere in grado di apprendere abbastanza velocemente da distinguere i contenuti falsi man mano che la tecnologia AI diventa più sofisticata. Ad esempio, mentre il pubblico inizia a rendersi conto dei deepfake, L'intelligenza artificiale è già utilizzata per inganni ancora più avanzati. Ora ci sono programmi in grado di generare volti falsi e impronte digitali false, creare in modo efficace le informazioni necessarie per fabbricare un'intera persona, almeno nei registri aziendali o governativi.
Le macchine continuano ad imparare
Al momento, ci sono abbastanza potenziali errori in queste tecnologie per dare alle persone la possibilità di rilevare le fabbricazioni digitali. Il compositore Bach di Google ha commesso alcuni errori che un esperto potrebbe rilevare. Per esempio, quando l'ho provato, il programma mi ha permesso di inserire quinte parallele, un intervallo musicale che Bach ha accuratamente evitato. L'app ha anche infranto le regole musicali del contrappunto armonizzando le melodie nella chiave sbagliata. Allo stesso modo, Il programma di generazione di testo di OpenAI occasionalmente scriveva frasi come "incendi che accadono sott'acqua" che non avevano senso nel loro contesto.
Mentre gli sviluppatori lavorano alle loro creazioni, questi errori diventeranno più rari. Effettivamente, Le tecnologie AI si evolveranno e impareranno. Il miglioramento delle prestazioni ha il potenziale per portare molti benefici sociali, tra cui una migliore assistenza sanitaria, poiché i programmi di intelligenza artificiale aiutano a democratizzare la pratica della medicina.
Dare a ricercatori e aziende la libertà di esplorare, al fine di ricercare questi risultati positivi dai sistemi di intelligenza artificiale, significa aprire il rischio di sviluppare modi più avanzati per creare inganni e altri problemi sociali. Limitare severamente la ricerca sull'IA potrebbe frenare questo progresso. Ma dare spazio alle tecnologie vantaggiose per crescere non ha un costo basso - e il potenziale di uso improprio, se fare musica imprecisa "alla Bach" o ingannare milioni di persone, è probabile che cresca in modi che le persone non possono ancora prevedere.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.