Credito:CC0 Dominio Pubblico
Se vuoi capire come le persone pensano (e sentono) le nuove tecnologie, è importante capire come i media pensano (e scrivono) sulle nuove tecnologie.
Una recente analisi di come i giornalisti hanno affrontato l'etica dell'intelligenza artificiale (AI) suggerisce che i giornalisti stanno facendo un buon lavoro nell'affrontare una serie complessa di domande, ma c'è spazio per miglioramenti.
Per saperne di più sull'opera, perché l'hanno fatto, e perché è importante, abbiamo parlato con i ricercatori che hanno svolto il lavoro:Veljko Dubljević, autore corrispondente della carta e un assistente professore di filosofia presso NC State; Leila Ouchchy, primo autore del documento e un ex studente universitario presso NC State; e Allen Coin, co-autore del documento e uno studente laureato presso NC State.
La carta, "L'intelligenza artificiale nei titoli:la rappresentazione delle questioni etiche dell'intelligenza artificiale nei media, " è stato pubblicato sulla rivista IA e società il 29 marzo.
L'abstract:Questo articolo si concentra, in parte, su questioni etiche relative alle tecnologie di intelligenza artificiale che le persone utilizzerebbero nella loro vita quotidiana. Potresti farmi uno o due esempi?
Allen Coin:Probabilmente l'applicazione più nota dell'IA con implicazioni etiche molto reali sarebbero le auto a guida autonoma. Se un'auto autonoma si trova in una situazione in cui ha, ad esempio, perso il controllo dei freni e deve sbattere contro un bambino o un adulto, cosa dovrebbe fare? Se stai "guidando" un'auto autonoma e diventi incosciente, e l'auto sbanda fuori controllo e può scegliere tra schiantarsi contro un pedone, salvandoti così la vita, o guidando giù da una scogliera, sacrificando così la tua vita, cosa dovrebbe fare? Cosa vorresti che facesse la tua auto in quella situazione?
Questi sono "problemi di carrello" del mondo reale su cui persino gli esseri umani farebbero fatica a prendere decisioni morali ed etiche nella foga del momento.
Un altro esempio leggermente più insidioso potrebbe essere il modo in cui i pregiudizi e i pregiudizi umani sembrano avere la tendenza a emergere nelle applicazioni di intelligenza artificiale sviluppate dagli esseri umani. Algoritmi di apprendimento automatico, ad esempio, toccano sempre più ambiti della vita umana. Ma questi algoritmi devono essere "addestrati" su set di dati del mondo reale. Se i set di dati rappresentano un comportamento umano prevenuto, anche se non è immediatamente evidente o si tenta di escluderlo, ciò potrebbe significare che il software risultante non è in grado di agire in modo obiettivo.
Un esempio potrebbe essere il software HR per le grandi aziende che seleziona i candidati di lavoro in base a tratti simili ai candidati precedentemente selezionati, il che significa che se c'era un pregiudizio di genere o razza quando gli umani prendevano le decisioni di assunzione, il "robot" potrebbe continuare a comportarsi con quei pregiudizi quando selezionava i candidati.
TA:Per questa ricerca, hai esaminato in particolare come i mezzi di informazione hanno trattato queste considerazioni etiche. Come mai?
Leila Ouchchy:Abbiamo esaminato specificamente i media per l'effetto che le notizie possono avere sull'opinione pubblica riguardo alle nuove tecnologie. La copertura mediatica dell'etica dell'IA ha il potenziale per influenzare il modo in cui l'IA viene implementata nella nostra società, dai tipi di IA prodotti dalle aziende al modo in cui l'IA è regolamentata dal governo.
TA:Perché non guardare anche ai modi in cui l'etica dell'IA viene trattata nella cultura popolare, come la TV o il cinema? Non informano e riflettono anche le preoccupazioni del pubblico?
Veljko Dubljević:La rappresentazione pubblica delle questioni etiche nell'intelligenza artificiale nella narrativa ha già ricevuto maggiore attenzione nella comunità accademica, e questo è sia un bene che un male.
Il bello è che abbiamo alcune analisi là fuori, che può essere utile.
Il lato cattivo, però, è che questo non è saldamente radicato nei fatti scientifici e nelle tecnologie già disponibili, il che lo rende più incline a esagerazioni utopiche e distopiche.
TA:Che cosa ha trovato la tua analisi delle testate giornalistiche? E cosa significa?
Ouchchy:C'è stato un forte aumento del numero di articoli pubblicati negli ultimi anni, che mostra che la quantità di contenuti mediatici pubblicati sull'etica dell'IA è in continuo aumento, e probabilmente continuerà ad aumentare man mano che questo diventa un problema più diffuso. Inoltre, c'è stata poca discussione sui quadri etici e sui principi basati su di essi, il che suggerisce una mancanza di partecipazione o influenza da parte di esperti di etica nella discussione sui media. Finalmente, abbiamo scoperto che gli articoli avevano toni per lo più neutri, e focalizzato su questioni pratiche e pertinenti, anche se le loro raccomandazioni non erano molto specifiche. Ciò dimostra che la discussione mediatica sull'etica dell'IA è relativamente sofisticata, ma ancora agli inizi.
TA:Cosa potrebbero o dovrebbero fare diversamente i giornalisti nella loro copertura dell'etica e delle tecnologie di intelligenza artificiale?
Dubljević:I giornalisti possono trarre vantaggio dal contattare esperti di tecnologia dell'intelligenza artificiale ed esperti di etica per chiarire i fatti e i valori pertinenti. La discussione può essere relativamente sofisticata, ma ci sono sicuramente margini di miglioramento.
Moneta:Per aggiungere a questo punto, una cosa che mi ha colpito dei risultati di questa ricerca è che uno dei "quadri etici" più comunemente citati negli articoli sull'etica dell'IA è "Tre leggi della robotica" di Isaac Asimov. Ora, Sono certamente un fan della fantascienza di Asimov, ma le sue "Tre Leggi" non sono un quadro etico formale. Inoltre, non è molto utile nel contesto delle discussioni del mondo reale su come l'IA può e dovrebbe comportarsi eticamente.
L'utilitarismo è stato anche comunemente discusso in articoli di notizie sull'etica dell'IA, quindi penso che ci sia un'opportunità per modernizzare il modo in cui parliamo di etica dell'IA. Nello specifico, potremmo, o dovremmo, utilizzare strutture etiche più moderne in grado di affrontare le complessità e le complessità delle applicazioni del mondo reale di agenti morali artificiali. Sono anche d'accordo con Veljko sul fatto che i giornalisti dovrebbero contattare più spesso i ricercatori e gli esperti di etica dell'intelligenza artificiale:penso che ci siano molti esperti che farebbero volentieri le orecchie a qualsiasi giornalista che desideri ottenere una prospettiva etica dettagliata su qualsiasi notizia relativa all'intelligenza artificiale .