• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Come l'intelligenza artificiale basata sui valori può rimodellare il modo in cui comunichiamo

    Credito:Yale University Press

    Mike Ananny ha portato a spasso il cane questa mattina. Lo ha fatto senza alcuna aspettativa di privacy.

    "So di essere stato soggetto a un'ampia varietà di telecamere, che si trattasse di campanelli Ring, auto che guidavano o persino telecamere del traffico cittadino", ha detto. "Non ho scelto di partecipare a tutta questa varietà di sistemi di videosorveglianza. Ho solo portato il mio cane a fare una passeggiata."

    Ananny sa che, ovunque vada, i dati su di lui vengono raccolti, analizzati e monetizzati dall'intelligenza artificiale (AI).

    Kate Crawford ha guidato un furgone nelle profondità dell'arido paesaggio del Nevada per dare un'occhiata agli stagni di salamoia in evaporazione della miniera di litio Silver Peak.

    Quelle desolate strisce di liquido non sono solo la più grande fonte di litio negli Stati Uniti, il metallo essenziale per le batterie che alimentano qualsiasi cosa, dai laptop ai dispositivi mobili alle auto elettriche, ma sono anche un vivido promemoria dell'impatto che l'IA ha sul mondo materiale .

    "Le metafore che le persone usano per parlare di intelligenza artificiale come 'il cloud' implicano qualcosa di fluttuante e astratto", ha detto Crawford. "Ma il calcolo su larga scala ha un'enorme impronta di carbonio e un impatto ambientale".

    Crawford sa che i sistemi mondiali di energia, estrazione mineraria, lavoro e potere politico vengono riscritti dalle esigenze dell'IA.

    Quando è iniziata la pandemia di COVID-19, Ashley Alvarado sapeva che gli ascoltatori della sua stazione erano spaventati e confusi.

    A KPCC-FM e LAist, Alvarado ha utilizzato una varietà di strumenti di comunicazione per connettersi con il pubblico, ma la portata dei commenti, delle domande e dei suggerimenti che la stazione riceveva richiedeva una soluzione in grado di elaborare grandi quantità di dati, velocemente.

    "Con COVID c'era così tanto bisogno di informazioni all'inizio della pandemia che il modo in cui potevamo essere più umani per Angelenos era sfruttare l'IA", ha affermato Alvarado.

    Conosciute con molti nomi - algoritmi, bot, big data, elaborazione del linguaggio naturale, apprendimento automatico, agenti intelligenti - le tecnologie che rientrano nell'ampia definizione di IA stanno rimodellando non solo il mondo della comunicazione, ma il mondo nel suo insieme. In tutta la USC Annenberg, docenti, studenti ed ex alunni stanno esplorando sia l'immenso potenziale che le insidie ​​spesso meno ovvie presentate da queste tecnologie.

    "Annenberg è in una posizione unica per condurre questa conversazione, perché si tratta di problemi socio-tecnici e di comunicazione", ha detto Ananny. "Non voglio che le nostre risposte a queste domande siano solo tecniche. Voglio una risposta che sia profondamente storica e radicata nella comprensione culturale."

    Termini di ricerca

    Nell'immaginazione popolare, l'intelligenza artificiale può significare qualsiasi cosa, dalla comodità quotidiana del tuo telefono a scegliere le canzoni che sa che potrebbero piacerti o a indicarti la strada migliore per raggiungere la casa del tuo amico, o la promessa di panacee dei big data per questioni come il cambiamento climatico o il Pandemia di covid19. È anche quasi impossibile discutere dell'IA senza fare riferimento alla frequenza con cui l'IA viene scelta come la cattiva della fantascienza:il divieto di "macchine pensanti" in Dune di Frank Herbert, HAL 9000 in 2001:Odissea nello spazio di Arthur C. Clarke, i Borg in Star Trek, l'agente Smith in Matrix.

    "Penso che la maggior parte delle persone tenda a considerarla come una sorta di tecnologia fantascientifica di Terminator o Ready Player One", ha affermato Fred Cook, direttore del Center for Public Relations. "In realtà, è il motore dietro molte delle cose che le persone, specialmente nel settore delle PR, usano già nel loro lavoro quotidiano."

    Per semplificare eccessivamente, la maggior parte di ciò che viene comunemente considerata IA si riduce all'interazione di algoritmi, funzioni matematiche, che eseguono calcoli basati su enormi quantità di dati.

    "Gli algoritmi sono le istruzioni e le regole che governano l'informatica", ha affermato Marlon Twyman II, che studia come la tecnologia modella le interazioni degli individui e dei team sul posto di lavoro. "L'intelligenza artificiale deve disporre di algoritmi alla base delle decisioni e degli impegni che prende."

    Twyman cita l'esempio del riconoscimento delle immagini:l'IA che cerca di rilevare se l'immagine di un gatto è un gatto o un cane. Più esempi sono esposti agli algoritmi, più dati, meglio sono in grado di effettuare queste determinazioni.

    "L'intelligenza artificiale è quando i computer iniziano a essere in grado di rispondere a input su cui non sono stati necessariamente addestrati, o a cui non sono stati esposti, quando sono stati programmati", ha affermato Twyman, assistente professore di comunicazione.

    "Quello con cui interagiamo è solo matematica", ha detto Ignacio Cruz, che ha conseguito il dottorato di ricerca. in comunicazione nel 2021 e ora insegna alla Northwestern University. Sottolinea che, nonostante le capacità dell'IA di riconoscere tendenze e modelli, non è poi così misterioso. La tecnologia che ha, se non senzienza, almeno qualche agenzia indipendente - o ciò che Cruz chiama "qualità agentitiche" - è, per ora, in gran parte roba di fantascienza.

    "Gli algoritmi non funzionano come funziona il cervello umano", ha osservato Lynn Miller, professore di comunicazione. "L'IA è davvero solo una macchina di previsione."

    Tali macchine consentono notevoli risultati tecnologici in sanità, logistica, giochi, intrattenimento, giustizia penale, assunzioni e molti altri campi, incluso il giornalismo locale, in modi inaspettati.

    IA e community

    KPCC-FM non si aspettava di utilizzare l'IA per aumentare il coinvolgimento della comunità, ma quando la pandemia ha colpito nel 2020 e hanno iniziato a essere inondati di messaggi in preda al panico sul blocco, la leadership della stazione radiofonica pubblica con sede a Pasadena sapeva di dover fare qualcosa per aiuta i loro ascoltatori.

    "È iniziato con la giusta preoccupazione", ha detto Alvarado. "E poi è andato in panico a tutti gli effetti:domande sulla carenza di Target, se annullare un matrimonio, se fosse illegale riunirsi con i propri cari per piangere qualcuno".

    La maggior parte di queste domande arrivava attraverso uno strumento che la stazione radio aveva incorporato nella sua homepage che utilizza Hearken, una piattaforma di coinvolgimento e supporto organizzativo. "A volte ricevevamo 10 messaggi al minuto attraverso questo strumento", ha affermato Alvarado, vicepresidente del coinvolgimento della comunità e delle iniziative strategiche per KPCC-FM e LAist. "Dovevamo pensare in modo creativo a come soddisfare le esigenze informative di migliaia e migliaia di persone."

    Ha parlato con Paul Cheung, allora direttore del giornalismo e dell'innovazione tecnologica presso la John S. and James L. Knight Foundation, che le ha chiesto se avesse pensato all'apprendimento automatico. "E non l'ho fatto," disse con una risatina. Cheung li ha messi in contatto con alcuni giornalisti che stavano lavorando con l'IA alla pubblicazione online Quartz e hanno aiutato Alvarado e il suo team a sviluppare uno strumento di elaborazione del linguaggio naturale in grado di analizzare le richieste che stavano ricevendo dagli ascoltatori.

    "Con lo strumento, abbiamo potuto identificare i temi su cui dovevamo concentrarci, non solo per rispondere alle domande, ma per quali storie dovremmo trattare e dove", ha affermato Alvarado, che si è laureata nel 2005 con una doppia specializzazione in giornalismo cartaceo e spagnolo .

    Alvarado vede un grande potenziale in questa tecnologia per consentire all'input del pubblico di far emergere modelli da altri eventi di notizie in rapido movimento, dagli incendi ai dibattiti politici. "Normalmente, dovresti leggere tutte le domande man mano che sono arrivate e sperare di aver osservato una tendenza, invece di avere l'IA in atto per dire:"Ecco qualcosa che sta saltando fuori ancora e ancora.'"

    Alcune pubblicazioni utilizzano già direttamente l'intelligenza artificiale per scrivere storie, di solito pezzi di base e facilmente formattati come resoconti azionari, bollettini meteorologici e storie sportive. Sebbene questi pezzi finiscano per salvare un giornalista di livello base da un lavoro noioso, Twyman vede un potenziale aspetto negativo.

    "Il problema è che questo elimina la possibilità di innovare, anche in questi semplici compiti", ha affermato. "Se continuiamo a rimuovere gli esseri umani da compiti di scrittura sempre più complessi, potremmo finire in un mondo che sembra molto diverso."

    Agenti con agenzia

    A volte, rimuovere gli esseri umani dall'equazione è necessario per la loro sicurezza. Nella sua ricerca sull'attività sessuale rischiosa più di 25 anni fa, Miller si è imbattuto in un problema molto fondamentale e molto umano. "Ero interessata al comportamento sessuale tra i giovani che fanno sesso con uomini", ha detto. "Ho svolto molto lavoro qualitativo su ciò che ha portato a questi momenti di rischio, ma ovviamente non potevo nascondermi sotto i letti per capire cosa stesse succedendo. È stato allora che ho iniziato a interessarmi alla creazione di ambienti virtuali."

    Miller voleva creare un gioco interattivo in cui i soggetti umani potessero decidere se intraprendere o meno comportamenti sessuali rischiosi, ma era limitata dalla tecnologia che aveva a disposizione per creare situazioni programmate.

    La risposta era un ambiente virtuale popolato da "agenti intelligenti", personaggi il cui comportamento era governato da algoritmi che stabilivano le loro preferenze e obiettivi, in altre parole, l'IA, piuttosto che da script fissi. Lavorando con un team di informatici e psicologi della USC, Miller ha sviluppato personaggi il cui comportamento era rappresentativo delle persone nella vita reale. Questi personaggi popolavano un mondo virtuale e potevano interagire con soggetti di ricerca umani in modi più naturali che darebbero effettivamente dati di ricerca utilizzabili su comportamenti sessuali rischiosi senza il rischio.

    "Puoi avere un essere umano nel circuito che risponde a ciò che sta facendo l'agente intelligente, che poi modella il suo comportamento, oppure puoi avere tutti gli agenti che interagiscono ed eseguono simulazioni", ha detto Miller. Il suo lavoro ha aiutato a identificare non solo i modelli di comportamento rischioso, ma anche i modi per intervenire efficacemente e mitigare tale rischio.

    Nella sua pluripremiata ricerca negli ultimi dieci anni e mezzo che si è basata su quegli ambienti virtuali originali, Miller e il suo team hanno anche appreso quali tipi di interventi funzionano meglio per limitare i rischi nelle situazioni sessuali, nessuno dei quali sarebbe stato possibile senza AI.

    Il suo lavoro più recente si è spostato nel regno delle neuroscienze, utilizzando quegli agenti intelligenti per modellare processi umani più complessi, come la competenza comunicativa e il modo in cui gli esseri umani danno significato attraverso l'interazione sociale.

    "Uno dei problemi con l'attuale IA in generale è che può arrivare solo fino a un certo punto per essere in grado di dedurre le emozioni", ha detto Miller. "Detto questo, ci sono alcune probabilità e parametri che possiamo programmare nei nostri agenti intelligenti quando si tratta di interazione sociale che in realtà fanno un ottimo lavoro nel modellare come gli esseri umani reali, in un ambiente altamente interattivo e flessibile, prenderanno decisioni".

    Sebbene il futuro dell'IA sia difficile da prevedere, Miller ha affermato che i ricercatori di intelligenza artificiale all'avanguardia stanno già cercando di sfruttare il modo in cui i cervelli umani comprendono il mondo. "Come per qualsiasi innovazione, ci sono rischi da mitigare", ha osservato Miller. "Ma ci sono anche enormi opportunità per migliorare gli interventi e le terapie per migliorare notevolmente la comunicazione e il benessere individuale e sociale."

    Analisi della polarizzazione

    Come sottolinea Miller, uno dei punti di forza dell'IA è trovare schemi tra enormi set di dati. Fred Cook voleva prendere un set di dati particolarmente controverso - post sui social media su questioni politiche controverse - e scoprire se l'IA potesse aiutare a misurare il grado di polarizzazione nel dibattito su tali questioni.

    Il processo è iniziato con un'indagine condotta dal Center for Public Relations per il suo Global Communication Report 2021, che ha identificato diverse questioni importanti che i professionisti delle PR pensavano di dover affrontare nel prossimo anno. Cook ha condiviso questi problemi con i dirigenti dell'azienda di pubbliche relazioni Golin, dove era stato CEO (e ha ancora un interesse finanziario), e poi li ha condivisi con l'azienda di software Zignal Labs.

    "Dato l'enorme problema che l'attuale livello di polarizzazione causa alle persone, al governo e alle imprese, abbiamo deciso di sviluppare un nuovo strumento che lo misuri e, si spera, aiuti a ridurlo", ha affermato Cook.

    Il loro approccio si basa sul grafico Ad Fontes del pregiudizio dei media, che classifica i media in base a uno spettro politico sinistra-destra su un asse e l'affidabilità sull'altro asse. Lo strumento Zignal AI inserisce i 10 temi politici più importanti e li confronta con i post sui social che includono collegamenti ad articoli di pubblicazioni che si trovano nel grafico Ad Fontes. In base alla posizione della pubblicazione nel grafico, lo strumento assegna un punteggio che determina quanto a sinistra oa destra la maggior parte delle condivisioni sui social media su un particolare argomento. Il divario tra quanti articoli di destra/conservatori sono condivisi su un problema e quante pubblicazioni di sinistra/liberali sono condivise fornisce un punteggio dell'indice di polarizzazione.

    L'enorme numero di post coinvolti nella creazione di questo punteggio, più di 60 milioni, richiede che l'IA esegua il lavoro rapidamente.

    "L'indice di polarizzazione fornisce una mappa termica di quali sono le questioni più controverse e i fattori che stanno contribuendo alla loro divisione", ha affermato Cook. "Possiamo trarre implicazioni per persone, aziende e comunicatori che potrebbero voler impegnarsi su questi argomenti."

    Cook afferma inoltre che i professionisti delle pubbliche relazioni dovranno continuare ad affrontare le critiche all'IA sulla base di problemi di privacy, lavoro, pregiudizi e giustizia sociale, ma aggiunge che la sua stessa esperienza ha dimostrato che l'IA può avere un impatto positivo anche in queste aree.

    Detto questo, Cook ha aggiunto:"Ogni nuova tecnologia ha aspetti spaventosi e l'IA non è diversa da qualsiasi altra cosa. Mentre abbiamo usato l'IA per fare un lavoro davvero importante sul nostro indice di polarizzazione, l'IA può ed è stata usata per diffondere disinformazione e influenzare le campagne politiche attraverso i bot. Ogni volta che c'è una nuova tecnologia, qualcuno la utilizzerà in modo dannoso."

    Caccia all'IA con l'IA

    Quando si tratta di interrogare gli aspetti positivi e negativi dell'IA, gli studenti di dottorato in comunicazione dell'USC Annenberg sono in prima linea in tale ricerca, collegando informatica e scienze sociali per approfondire le implicazioni sia tecniche che culturali dell'IA.

    Lo studente di dottorato Ho-Chun Herbert Chang afferma che i suoi anni di laurea al Dartmouth College sono stati formativi. "Dartmouth è stato il luogo in cui il termine AI è stato coniato nel 1952", ha osservato. "Ho studiato matematica e scienze sociali quantitative e, per il mio programma di borsa di studio senior, ho realizzato un progetto di finzione sull'intelligenza artificiale. Questo è stato l'inizio per cui ho guardato all'IA sia da un punto di vista tecnico che umanistico."

    Con il progredire della sua carriera accademica, Chang ha visto un "abisso" tra il modo in cui i professionisti e il pubblico vedono l'intelligenza artificiale. "Dal lato dell'informatica, c'è più di un'enfasi sugli aspetti tecnici della progettazione di algoritmi", ha affermato. "Dal lato umanistico, c'è un focus sui valori sociali come principio primario in termini di organizzazione della ricerca."

    Uno dei progetti su cui Chang ha lavorato lo scorso anno ha mostrato il potenziale dell'IA per indagare sul comportamento umano e sul comportamento di altri sistemi di intelligenza artificiale. Lavorando con Emilio Ferrara, professore associato di comunicazione e informatica la cui ricerca rivoluzionaria ha identificato come i bot di Twitter hanno influenzato la campagna presidenziale degli Stati Uniti del 2016, Chang ha contribuito a costruire su quel lavoro in vista delle elezioni del 2020. Utilizzando uno strumento di intelligenza artificiale chiamato Botometer, il team è stato in grado di quantificare la quantità di traffico di Twitter sulle teorie del complotto generato e amplificato dai bot. "Il Botometer esamina i dati e i metadati della sequenza temporale di ciascun account Twitter, utilizzando l'apprendimento automatico per capire se un account è un essere umano o un bot", ha affermato Chang.

    Chang ha anche lavorato con Allissa Richardson, assistente professore di giornalismo, per analizzare il movimento per la giustizia razziale che seguì l'omicidio di George Floyd da parte della polizia di Minneapolis. "Gran parte della ricerca sulla comunicazione riguarda il modo in cui gli utenti partecipano alle piattaforme social, mediate da algoritmi, e come usano queste piattaforme per auto-organizzarsi per i movimenti democratici", ha affermato. "Questo è il tipo di lavoro che voglio fare. Mi sto impegnando in modo olistico con l'IA e Annenberg è il luogo perfetto per quella ricerca."

    Ignacio Cruz ha concentrato la sua tesi sull'uso degli strumenti di intelligenza artificiale nel reclutamento sul posto di lavoro. Forse non sorprende che abbia scoperto che i reclutatori umani che hanno utilizzato l'IA per selezionare e raccomandare i candidati alle posizioni avevano opinioni molto polarizzate sull'efficacia dell'IA. "Spesso vedevano l'IA come un avversario o un alleato", ha detto Cruz, ora un borsista post-dottorato alla Northwestern University. "A volte i reclutatori vedono questi sistemi come un risparmio di tempo, come un alleato. Ma i candidati al lavoro che questi sistemi emergono spesso non prendono in giro l'esperienza dei reclutatori."

    Pur riconoscendo il potere dell'IA di aiutare le persone a dare un significato a enormi set di dati, Cruz mette in guardia anche su molti problemi che possono sorgere dall'accettazione acritica dei risultati di tali sistemi. L'uso dell'IA come intermediario per la comunicazione è un fenomeno così nuovo:"Abbiamo solo bisogno di molta più istruzione e indagine critica su come vengono sviluppate queste tecnologie prima che vengano distribuite alle masse", ha affermato.

    La ricerca di Cruz ha dimostrato che i sistemi di intelligenza artificiale spesso riflettono i pregiudizi di coloro che li sviluppano, poiché fanno affidamento sull'intervento umano durante la loro creazione e implementazione. "L'intelligenza artificiale mentre viene sviluppata è dispersa e in gran parte non regolamentata", ha detto. "Se queste tecnologie ci aiuteranno davvero a creare un domani migliore, allora devono essere progettate con uno scopo e devono essere continuamente verificate, non solo per l'efficienza, ma anche per la sostenibilità e l'etica."

    Il deserto dell'IA

    Per Kate Crawford, il problema di gran parte della conversazione pubblica sul potenziale dell'IA è la mancanza di qualsiasi obiettivo critico con cui monitorarlo nei modi significativi suggeriti da Cruz.

    "Siamo soggetti a enormi quantità di clamore di marketing, pubblicità e boosterismo sull'intelligenza artificiale", ha affermato Crawford, professore di ricerca sulla comunicazione. "Parte di quello che faccio è guardare al modo in cui l'intelligenza artificiale non è solo una serie di algoritmi o codice... ma guardare davvero a questa serie molto più ampia di domande su cosa succede quando creiamo queste reti computazionali su scala planetaria? Chi guadagna, ma anche chi perde?"

    Nel primo capitolo del suo nuovo libro "Atlas of AI:Power, Politics and the Planetary Costs of Artificial Intelligence" (Yale University Press, 2021), Crawford inizia il suo viaggio verso quella miniera di litio, dando il via a un'esplorazione del costi planetari dell'IA. La sua critica devastante inquadra l'IA come un'industria estrattiva, sia letteralmente, nella sua dipendenza da risorse e manodopera limitate per i suoi componenti e la sua potenza, sia in senso figurato, per la quantità di dati che consuma, categorizza e monetizza.

    "Nel corso della ricerca su questo libro, ho imparato molto di più sui danni ambientali dei sistemi di intelligenza artificiale", ha detto Crawford. "I server sono nascosti in data center anonimi e le loro qualità inquinanti sono molto meno visibili delle alte ciminiere delle centrali elettriche a carbone."

    Descrivendo la quantità di energia necessaria per alimentare qualcosa come Amazon Web Services come "enorme", Crawford ha notato che l'impatto ambientale dei sistemi di intelligenza artificiale che funzionano su quelle piattaforme è in continua crescita. "Certamente, l'industria ha compiuto sforzi significativi per rendere i data center più efficienti dal punto di vista energetico e per aumentare il loro uso di energia rinnovabile", ha affermato Crawford. "Ma già, l'impronta di carbonio dell'IA ha eguagliato quella dell'industria aeronautica al suo apice."

    Crawford ha affermato che l'intero modello di intelligenza artificiale è estrattivo e sfruttatore e dovrebbe essere "ri-architettato" per funzionare in modo diverso. "Abbiamo anche bisogno di un controllo normativo e democratico", ha aggiunto. "Le proposte di regolamento sull'intelligenza artificiale dell'Unione europea offrono un buon punto di partenza, ma questo è solo uno sforzo e dobbiamo ancora vedere qualcosa di simile negli Stati Uniti o in Cina, i due maggiori produttori di tecnologie di intelligenza artificiale".

    Lavorando con i suoi colleghi della USC Annenberg, Crawford spera di contribuire a come sarebbe un'IA reinventata. Crawford ha collaborato con Mike Ananny e un team di dottorandi e professionisti in un nuovo progetto di ricerca che analizzerà i problemi all'interno dei set di dati utilizzati per addestrare i sistemi di intelligenza artificiale.

    "L'intelligenza artificiale potrebbe aiutare a progettare un sistema di spedizione che riduca al minimo l'impronta di carbonio, piuttosto che massimizzare il margine di profitto", ha affermato Ananny, professore associato di comunicazione. "Si tratta di cosa vogliamo massimizzare nei nostri sistemi di intelligenza artificiale? Riporta il problema alle persone con potere e dice che non è un problema di dati. È un problema di valori."

    Crawford ha affermato che la combinazione dell'esperienza tecnica dell'USC Annenberg con una profonda comprensione della comunicazione umana lo rende il luogo ideale per quel tipo di rivisitazione di un'IA meno dannosa.

    "La nostra speranza è che la ricerca contribuisca al modo in cui l'USC e la più ampia comunità accademica pensano al futuro dell'IA, in termini di come la costruiamo, la usiamo e la regoliamo", ha affermato.

    Verso un'IA etica

    Nell'ambito dei suoi studi sui media e la tecnologia, Ananny è uno studioso e un contributore alle grandi conversazioni su come la società può sfruttare i vantaggi dei sistemi di intelligenza artificiale dei big data pur conservando (o meglio, ristabilire) qualcosa che potrebbe essere riconosciuto come etica e privacy.

    Mentre molti critici e responsabili politici hanno proposto normative più severe per le società tecnologiche che le costringerebbero a comportarsi più come servizi pubblici, con maggiore trasparenza, Ananny è tra coloro che sostengono che le riforme normative non vanno abbastanza lontano.

    "Abbiamo consentito alle istituzioni capitaliste di avere enormi quantità di potere per mercificare le persone, per consentire le disuguaglianze di ricchezza e le concentrazioni di ricchezza, e i dati sono solo una parte di questo, e parte del perpetuarlo", ha affermato Ananny. "Onestamente, finché non risolverai questo problema del tardo capitalismo in cui gli individui non hanno potere e le aziende hanno tutto il potere, puoi sgranocchiare i limiti con le normative, ma ciò non avrà alcun effetto reale sul problema".

    Ananny fa eco al lavoro di Crawford, affermando che la crisi climatica sta portando crescente urgenza al problema dell'IA come industria estrattiva.

    "Non possiamo permettere al pianeta di bruciare a causa del fabbisogno energetico delle server farm di Bitcoin", ha affermato. "Questi sistemi di intelligenza artificiale stanno ottimizzando la capacità di Amazon di trasportare prodotti in tutto il mondo, con un'enorme impronta di carbonio, in modo che le persone possano ricevere una spatola nella loro scatola Amazon."

    Ananny fa notare che alcuni studiosi, scienziati, attivisti e politici stanno cercando opportunità per sfruttare gli impatti positivi della potenza di calcolo dell'IA in modo da non esacerbare l'emergenza climatica.

    "Questo è il linguaggio che stiamo usando per creare un nuovo tipo di realtà", ha detto Ananny. "Set di dati, certezza statistica, ottimizzazione, creazione di modelli, rilevamento degli errori:tutti quei tipi di termini apparentemente tecnici. Ma dobbiamo anche occuparci di questioni di valori. Vale la pena che tutte queste cose accadano a un livello così grande scala? A che punto, in termini di costi umani e materiali, ti ribalti troppo? Dovremo essere in grado di esprimere questo tipo di giudizi su particolari strumenti di intelligenza artificiale, tra cui:"Non costruirlo .'"

    © Scienza https://it.scienceaq.com