L'uso di bot per immischiarsi nelle elezioni politiche. Algoritmi che imparano chi sono le persone e le fanno tornare sulle piattaforme dei social media. L'ascesa di veicoli autonomi e droni che potrebbero sfollare centinaia di migliaia di lavoratori.
L'"apocalisse dei robot" che alcuni immaginavano con l'avvento dell'intelligenza artificiale non è arrivata, ma i sistemi di apprendimento automatico stanno diventando parte della vita quotidiana dei californiani, esperti di tecnologia hanno detto ai legislatori statali a Sacramento all'inizio di questo mese. Man mano che l'uso della tecnologia diventa più diffuso, così saranno le sfide per i legislatori che dovranno affrontare come e quando dovrebbero intervenire per proteggere i dati personali delle persone.
"L'intelligenza artificiale potrebbe essere eccessivamente pubblicizzata, ma è qui per restare, " disse Olaf Groth, un professore di affari internazionali all'Università di Berkeley. "Siamo davvero alla soglia, al momento, tra l'IA come un nuovo sviluppo che promette una crescita significativa dell'economia, e l'intelligenza artificiale causando anche significative interruzioni nella società".
L'udienza dell'Assemblea statale è stata la seconda quest'anno ad affrontare la questione dell'intelligenza artificiale. Il presidente del comitato, Deputato Ed Chau, D-Arcadia, ha detto di sperare che sia uno dei tanti ad aprire un dialogo su una forza che sta già rimodellando la società. Membri della Commissione Little Hoover, un'agenzia di supervisione statale indipendente che esamina le operazioni del governo, ha tenuto una discussione simile il mese scorso.
L'intelligenza artificiale è vagamente definita come la teoria e lo sviluppo di sistemi informatici in grado di svolgere compiti che tradizionalmente richiedono l'intelligenza umana. I tribunali utilizzano l'intelligenza artificiale per determinare se gli imputati sono idonei per il rilascio su cauzione, gli scienziati stanno sviluppando sistemi di intelligenza artificiale per abbinare i pazienti al trattamento e almeno un'azienda sta utilizzando l'intelligenza artificiale per ripensare al modo in cui i negozi locali consegnano la spesa.
I rappresentanti delle aziende tecnologiche Adobe e Postmates hanno sostenuto durante l'udienza di questo mese che i legislatori non dovrebbero muoversi troppo rapidamente nello sviluppo di normative sulla privacy.
"La cosa migliore che possiamo fare per rendere l'intelligenza artificiale imparziale (ed efficiente) è garantire che i legislatori possano essere formati sui più ampi set di dati disponibili, " ha detto Dana Rao, vicepresidente della proprietà intellettuale e del contenzioso con Adobe.
Ma gli esperti di privacy tecnologica hanno risposto, dicendo che gli utenti vogliono un maggiore controllo su come vengono condivise le loro informazioni personali. Pazienti, Per esempio, possono accettare di condividere i propri dati medici con uno sviluppatore di intelligenza artificiale, ma potrebbero non volere che l'azienda rilasci le proprie informazioni ai propri datori di lavoro o alle compagnie di assicurazione sanitaria.
I legislatori statali hanno iniziato ad affrontare alcuni di questi problemi. La legislazione di quest'anno richiederebbe alle società sociali di identificare i bot sulle loro piattaforme. Altri progetti finanzieranno ricerche indipendenti sulle qualità di dipendenza dei social media, richiedere ai produttori di installare nuove funzionalità di sicurezza sui loro dispositivi di connessione a Internet e costringere la polizia a rivelare tutte le loro apparecchiature tecnologiche, come il software di riconoscimento facciale.
Jonathan Feldman dei capi di polizia della California Assn. immaginato uno scenario in cui un giorno la polizia utilizzerà l'intelligenza artificiale per prevedere comportamenti violenti o criminali, permettendo agli ufficiali di prendere decisioni migliori sul lavoro. Ma senza leggi sulla trasparenza migliori, il pubblico avrà poca conoscenza di ciò che questi sistemi automatizzati raccolgono dalla gente comune e se le loro previsioni sono accurate, ha detto Matt Cagle, un avvocato specializzato in tecnologia presso l'ACLU della California settentrionale.
Samantha Corbin, un lobbista della privacy tecnologica che ha recentemente lanciato l'app We Said Enough per segnalare molestie sessuali, ha sostenuto che dovrebbero esserci più tutele statali contro l'uso improprio dei dati in tutti i campi.
"Il livello di informazioni che possono essere aggregate, il grado di conoscenza intima che sarà conosciuto sugli individui - questi dati a vita - è per molti versi non protetto dalle leggi esistenti obsolete in materia di privacy, sicurezza e anche la ricerca umana, " lei disse.
©2018 Los Angeles Times
Distribuito da Tribune Content Agency, LLC.