Le società di social media hanno adottato strumenti di intelligenza artificiale per cancellare le loro piattaforme di incitamento all'odio, propaganda terroristica e altri contenuti ritenuti nocivi. Ma questi strumenti censureranno altri contenuti? Può un programma giudicare il valore della parola?
Il fondatore di Facebook Mark Zuckerberg ha dichiarato al Congresso la scorsa settimana che la sua azienda sta sviluppando rapidamente strumenti di intelligenza artificiale per "identificare alcune classi di cattive attività in modo proattivo e segnalarle per il nostro team".
È una delle tante mosse di Facebook mentre lotta con un'erosione della fiducia dei consumatori sulla raccolta dei dati degli utenti, la sua passata vulnerabilità alla disinformazione politica mirata e l'opacità delle formule su cui sono costruiti i suoi feed di notizie.
Alcuni tecnologi ritengono che gli strumenti di intelligenza artificiale non risolveranno questi problemi che Facebook e altre società di social media devono affrontare.
"Il problema è che la sorveglianza è il modello di business di Facebook:sorveglianza per facilitare la manipolazione psicologica, " ha detto Bruce Schneier, un noto esperto di sicurezza e specialista della privacy. "Se è fatto da persone o (intelligenza artificiale) è nel rumore."
Zuckerberg ha detto che il suo Menlo Park, California, l'azienda si affida sia a strumenti di intelligenza artificiale che a migliaia di dipendenti per rivedere i contenuti. Entro la fine dell'anno, Egli ha detto, circa 20, 000 dipendenti di Facebook lavoreranno "alla sicurezza e alla revisione dei contenuti".
La società sta sviluppando i suoi strumenti di intelligenza artificiale per rintracciare l'incitamento all'odio e le notizie false sulla sua piattaforma e considera gli strumenti come un "modo scalabile per identificare ed eliminare la maggior parte di questi contenuti dannosi, " Egli ha detto, indicando più volte in 10 ore di testimonianza in due giorni che gli algoritmi di Facebook possono trovare contenuti discutibili più velocemente degli umani.
"Oggi, mentre siamo seduti qui, Il 99 percento dei contenuti dell'ISIS e di al-Qaeda che rimuoviamo su Facebook, i nostri sistemi di intelligenza artificiale segnalano prima che qualsiasi essere umano lo veda, " Zuckerberg ha detto in un'audizione al Senato, riferimento a gruppi islamici estremisti.
I sistemi di intelligenza artificiale lavorano in collaborazione con un team antiterrorismo di umani che secondo Zuckerberg conta 200 dipendenti. "Penso che abbiamo capacità in 30 lingue su cui stiamo lavorando, " Egli ha detto.
Altri strumenti di intelligenza artificiale esistenti "fanno un lavoro migliore nell'identificare account falsi che potrebbero tentare di interferire nelle elezioni o diffondere disinformazione, " ha detto. Dopo che account falsi hanno inserito informazioni politiche su Facebook che hanno interrotto le elezioni del 2016, Facebook ha rimosso in modo proattivo "decine di migliaia di account falsi" prima delle elezioni francesi e tedesche nel 2017 e l'elezione speciale dell'Alabama per un seggio vacante al Senato lo scorso dicembre, Ha aggiunto.
Facebook è tutt'altro che l'unico tra le società di social media che sfruttano l'intelligenza artificiale per aiutare gli umani a monitorare i contenuti.
"Gli strumenti di intelligenza artificiale di concerto con gli umani possono fare meglio di quanto entrambi possano fare da soli, " disse Wendell Wallach, un investigatore all'Hastings Center, un istituto di ricerca bioetica a Garrison, New York.
Ma Wallach ha notato che molti utenti non capiscono l'intelligenza artificiale, e Big Tech potrebbe subire un contraccolpo come le preoccupazioni alimentari affrontano gli ingredienti geneticamente modificati (OGM).
"Le principali aziende di IA, che al momento sono le stesse delle principali aziende digitali, capire che c'è un elefante simile agli OGM che potrebbe saltare fuori dall'armadio dell'IA, " ha detto Wallach.
Già, tra i conservatori di Capitol Hill sta crescendo la preoccupazione che piattaforme come Facebook si inclinino a sinistra politica, se gli strumenti di intelligenza artificiale o gli esseri umani sono coinvolti nel prendere decisioni sui contenuti.
"Riconosci queste persone?" Sostituto Billy Long, R-Mo., ha chiesto Zuckerberg mentre mostrava una foto di due sorelle.
"Quello è Diamante e Seta?" Zuckerberg ha chiesto, riferendosi a due personalità nere dei social media che sono ferventi sostenitori del presidente Donald Trump.
Infatti, era, lungo detto, e Facebook li aveva ritenuti "non sicuri".
"Cosa c'è di pericoloso in due donne nere che sostengono il presidente Donald J. Trump?"
Zuckerberg in seguito ha notato che il suo team di Facebook "ha commesso un errore di applicazione, e ci siamo già messi in contatto con loro per invertire la tendenza".
Gli strumenti di intelligenza artificiale eccellono nell'identificare le informazioni salienti da masse di dati, ma faticano a comprendere il contesto, soprattutto nella lingua parlata, hanno detto gli esperti.
"La stessa identica frase, a seconda del rapporto tra due individui, potrebbe essere un'espressione di odio o un'espressione di tenerezza, "ha detto David Danks, un esperto di etica sui sistemi autonomi presso la Carnegie Mellon University. Ha citato l'uso della "N-parola, " che tra alcune persone può essere un termine amichevole, ma è anche ampiamente considerato incitamento all'odio in altri contesti.
Qualsiasi errore commesso dagli strumenti di intelligenza artificiale in tali campi minati linguistici potrebbe essere interpretato come censura o pregiudizio politico che potrebbe ulteriormente diminuire la fiducia nelle società di social media.
"Il pubblico generale, Penso, si fida molto meno di queste aziende, "Danchi ha detto.
Infine, Egli ha detto, gli algoritmi e gli strumenti di intelligenza artificiale di una manciata di aziende guadagneranno una maggiore fiducia da parte del pubblico, anche se i consumatori non capiscono come operano.
"Non capisco in molti modi come funziona la mia macchina, ma ho ancora fiducia che funzioni in tutti i modi in cui ne ho bisogno, "Danchi ha detto.
Proprio come una volta i bibliotecari usavano il giudizio soggettivo nel togliere i libri dagli scaffali, le società di social media possono anche affrontare critiche che gli strumenti di intelligenza artificiale possono superare.
"Twitter affronta questo, " ha detto James J. Hughes, direttore esecutivo dell'Istituto per l'etica e le tecnologie emergenti, a Boston. "Pinterest e Instagram smantellano sempre i siti web di artisti che hanno corpi nudi quando pensano di essere porno, quando non lo sono.
"E lo stanno facendo sulla base di algoritmi di intelligenza artificiale che segnalano quanta carne nuda c'è nella foto".
Nella sua testimonianza, Zuckerberg ha affermato che gli strumenti di intelligenza artificiale sono sempre più abili nell'"identificare account falsi che potrebbero tentare di interferire nelle elezioni o diffondere disinformazione".
Facebook ha ammesso che un'agenzia russa ha utilizzato Facebook per diffondere disinformazione che ha raggiunto fino a 126 milioni di persone nel periodo del voto presidenziale del 2016, e che i dati personali di 87 milioni di persone potrebbero essere stati utilizzati in modo improprio dalla società Cambridge Analytica per prendere di mira gli elettori a favore di Trump.
Zuckerberg ha detto ai senatori che il ritardo di Facebook nell'identificare gli sforzi russi per interferire nelle elezioni è "uno dei miei più grandi rimpianti nella gestione dell'azienda" e si è impegnato a fare meglio per combattere la manipolazione per le elezioni di quest'anno.
Mentre i legislatori lottavano per stabilire se Facebook e altre società di social media avessero bisogno di una regolamentazione, Zuckerberg ha ripetutamente affrontato domande sulla natura della sua azienda. È anche una media company perché produce contenuti? Una società di software? Una società di servizi finanziari che supporta i trasferimenti di denaro?
"Ci considero un'azienda tecnologica, perché la cosa principale che facciamo è avere ingegneri che scrivono codice e creano prodotti e servizi per altre persone, " Zuckerberg ha detto a un'udienza alla Camera.
Gli esperti affermano che la risposta non affronta problemi complessi relativi a piattaforme che sono sempre più simili ai servizi pubblici.
"La compagnia elettrica non è autorizzata a dire, non ci piacciono le tue opinioni politiche quindi non ti daremo elettricità, '", ha detto Danks. "Se qualcuno viene eliminato da Facebook, è equivalente alla compagnia elettrica che taglia la loro elettricità? O è più come la persona che è davvero rumorosa e odiosa in un bar, e il proprietario dice "Devi andartene adesso"?"
©2018 McClatchy Washington Bureau
Distribuito da Tribune Content Agency, LLC.