Credito:Matthew Modoono/Northeastern University
Da quando Frances Haugen, un'ex dipendente di Facebook, si è fatta avanti con informazioni preoccupanti sui danni di vasta portata causati dagli algoritmi dell'azienda, i discorsi su potenziali riforme normative si sono solo intensificati.
Ora c'è un ampio accordo tra esperti e politici sul fatto che sono necessari cambiamenti normativi per proteggere gli utenti, in particolare i bambini e le ragazze, che sono vulnerabili a problemi di salute mentale e problemi di immagine corporea legati agli algoritmi della piattaforma dei social media. Sono state apportate diverse modifiche, dagli emendamenti alla Sezione 230 del Federal Communications Decency Act, la legge che regola la responsabilità tra i fornitori di servizi, compreso Internet, ai mandati di trasparenza che darebbero agli esperti esterni l'accesso al funzionamento interno di società tecnologiche come Facebook .
Ma, data l'aspettativa della libertà di parola online, i legislatori dovranno essere creativi. Una possibile soluzione è creare una nuova agenzia federale incaricata di regolamentare le società di social media, come è stato fatto con il Consumer Financial Protection Bureau sulla scia della crisi finanziaria del 2008, ma solleva interrogativi su come il processo politico e i partiti idee diverse sulla privacy e sulla libertà di parola avrebbero effetto su un tale sforzo, affermano diversi esperti del nord-est.
"Mi chiedo se le parti accetterebbero mai di creare un'agenzia speciale, o di aumentare la [Federal Communications Commission] in modi che forniscano più potere normativo al governo federale", afferma David Lazer, illustre professore universitario di scienze politiche e informatica a nord-est.
Una nuova agenzia potrebbe aiutare a scaricare alcuni degli oneri normativi che devono affrontare la Federal Trade Commission, ma potrebbe anche rivelarsi un'arma politica pericolosa che nessuna delle parti vorrebbe che l'altra avesse, dice Lazer.
In ogni caso, devono esserci "più meccanismi per rendere Facebook più trasparente", afferma.
"Il problema è che, una volta ottenuta la trasparenza, tutti vedono qualcosa di diverso", afferma Lazer.
Testimoniando davanti al Congresso la scorsa settimana, Haugen ha contribuito a far luce su come Facebook, che possiede anche Instagram e WhatsApp, ha ideato algoritmi che promuovevano contenuti odiosi, dannosi e problematici a spese dei suoi utenti. I documenti condivisi da Haugen con il Wall Street Journal il mese scorso hanno mostrato che il gigante della tecnologia sapeva che i suoi algoritmi erano dannosi per la ricerca interna, ma ha scelto di mantenere segrete le informazioni.
Durante il fine settimana, un alto dirigente di Facebook ha affermato che la società supporta l'accesso delle autorità di regolamentazione ai suoi algoritmi e una maggiore trasparenza in generale.
È importante "demistificare" il modo in cui queste tecnologie, che sono state nascoste per anni dietro un velo di segretezza, funzionano effettivamente, afferma Woodrow Hartzog, professore di giurisprudenza e informatica specializzato in protezione dei dati e privacy.
È noto da anni, ad esempio, che gli algoritmi di Facebook amplificano o ottimizzano i contenuti che generano indignazione. Le rivelazioni del Wall Street Journal hanno mostrato che la stessa ricerca di Facebook ha dimostrato che i suoi algoritmi di Instagram alimentano l'insicurezza e contribuiscono a problemi di salute mentale, promuovendo contenuti che glorificano i disturbi alimentari, ad esempio, tra le giovani donne.
Piuttosto che vietare l'amplificazione algoritmica, Hartzog afferma che dovrebbero esserci misure di sicurezza obbligatorie che monitorino gli effetti deleteri degli algoritmi juiced, aggiungendo "ci sono cose come algoritmi sicuri". La vera domanda, dice, è possiamo avere un'amplificazione algoritmica sicura?
"Dovrebbero essere obbligati ad agire in modi che non siano in conflitto con la nostra sicurezza e benessere", afferma Hartzog. "Questo è un modo in cui potremmo affrontare questo problema che non vieterà completamente l'amplificazione algoritmica."
Hartzog ha anche suggerito che le autorità di regolamentazione potrebbero attingere al concetto di responsabilità fiduciaria e imporre "doveri di cura, riservatezza e lealtà" alle società tecnologiche, simili ai doveri a cui medici, avvocati e contabili sono vincolati nei confronti dei loro clienti e pazienti:solo qui sarebbe in relazione agli utenti finali.
Il problema risiede negli incentivi finanziari, sostiene Hartzog, motivo per cui l'idea di trasformare le società tecnologiche in "fiduciari dell'informazione" ha preso piede. I legislatori statali e federali stanno esaminando il modello fiduciario delle informazioni nella legislazione in esame.
"Quello che vorrei vedere emergere da questo... è una conversazione più profonda e più ampia su come cambiare radicalmente gli incentivi che stanno guidando tutti i tipi di comportamenti dannosi legati alla raccolta e all'uso di informazioni private", afferma Hartzog.