• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Il sistema di pubblicazione degli annunci di Facebook discrimina ancora in base alla razza, Genere, età

    Credito:Hannah Moore/Northeastern University

    Nel risolvere cinque diverse cause contemporaneamente, Facebook all'inizio di quest'anno ha promesso di cambiare il modo in cui gestisce gli annunci per gli alloggi, occupazione, e credito che girano sulla sua piattaforma. Gli inserzionisti non sarebbero più in grado di scegliere come target un pubblico in base al sesso, corsa, o età, al fine di prevenire la discriminazione dei gruppi legalmente protetti.

    Ma, nuova ricerca da parte di un team di scienziati informatici, tra cui il professore del nordest Alan Mislove, mostra che l'algoritmo utilizzato da Facebook per fornire annunci pubblicitari può ancora deviare verso specifici gruppi demografici, nonostante le modifiche apportate dall'azienda.

    "Per essere chiari, non stiamo accusando Facebook di aver violato l'accordo, "dice Mislove, che è un professore di informatica alla Northeastern. "Piuttosto, ciò che la nostra ricerca mostra è un algoritmo complesso al lavoro".

    Questo perché gli algoritmi, Mislove dice, agiscono in modo molto diverso in pratica rispetto a quanto fanno in teoria.

    In teoria, rimuovere la capacità degli inserzionisti di indirizzare specificamente le persone in base alla razza, Genere, e l'età dovrebbe tradursi in un pubblico pubblicitario che includa un mix diversificato di persone. In pratica, L'algoritmo di Facebook si basa su una miriade di altre caratteristiche dei suoi utenti che alla fine fungono da proxy per la razza, Genere, ed età, Mislove dice.

    Quest'estate, Facebook ha introdotto la sua funzione Special Ad Audience, uno strumento di marketing per le persone che promuovono annunci che offrono credito, occupazione, o opportunità abitative. Considerando che un'azienda di abbigliamento potrebbe voler fare pubblicità direttamente a uomini o donne, i domini del credito, occupazione, e l'alloggio hanno una protezione legale speciale negli Stati Uniti per prevenire la discriminazione.

    Mislove ha lavorato con un team di ricercatori che includeva anche i dottorandi del nordest Piotr Sapiezynski e Avijit Ghosh, studente universitario Levi Kaplan, e un ricercatore dell'organizzazione tecnologica non profit Upturn per testare la nuova funzionalità rispetto al suo predecessore, chiamato un pubblico simile> .

    I ricercatori hanno utilizzato i dati degli elettori disponibili pubblicamente per creare un pubblico intenzionalmente distorto dalla razza, Genere, età, e opinioni politiche, e li ha alimentati sia agli strumenti pubblicitari nuovi che a quelli esistenti per verificare se l'algoritmo corrispondente avrebbe riprodotto ciascun pregiudizio.

    I risultati sono stati sorprendenti:sia il pubblico Lookalike che Special Ad hanno replicato le asimmetrie demografiche.

    In una dichiarazione a ProPublica, Il portavoce di Facebook Joe Osborne ha dichiarato:"Siamo andati ben oltre gli altri per aiutare a prevenire la discriminazione negli annunci limitando il targeting e aggiungendo trasparenza. Un inserzionista determinato a discriminare le persone può farlo oggi su qualsiasi mezzo online o offline, ecco perché esistono le leggi... Siamo l'unica piattaforma di media digitali ad apportare cambiamenti così significativi negli annunci e siamo orgogliosi dei nostri progressi."

    Mislove afferma che i risultati illustrano il difficile compito di garantire l'equità negli algoritmi.

    "In pratica, un algoritmo riceve milioni di input, ognuna delle quali è correlata in altro modo a queste caratteristiche protette, "Mislove dice.

    Informazioni come dove sei andato al college, dove vivi, quali pagine ti sono piaciute su Facebook, e altri possono inavvertitamente fungere da indicatori sulla tua razza, Genere, e l'età e gli algoritmi creati per ottimizzare i risultati possono fare affidamento su tali informazioni per determinare chi ha maggiori probabilità di fare clic su un annuncio pubblicitario.

    "Agli algoritmi non importa, " Dice Mislove. "Hanno un obiettivo specifico, e useranno la combinazione di funzionalità che porterà a completare quell'obiettivo; a loro non importa se ciò significa che pubblicano annunci per lavori tecnologici solo a uomini bianchi di età compresa tra 18 e 24 anni".

    Questo è un complesso, ma problema urgente, Mislove dice, poiché gli algoritmi sono alla base di un numero sempre maggiore delle nostre attività quotidiane. Gli algoritmi sono utilizzati per aiutare a prendere decisioni in materia di assistenza sanitaria, merito di credito, occupazione, condanna penale, indicazioni di viaggio, quale musica ascolti, e una vertiginosa serie di altre interazioni quotidiane.

    Tutti gli attori di questi domini "vogliono l'efficienza degli algoritmi, ma non tutti stanno considerando i modi in cui potrebbero sbagliare, "Mislove dice.

    Quando le cose vanno male, la soluzione è spesso molto complessa.

    "È molto difficile in questo momento, nel senso che le identità protette [contro le quali può verificarsi discriminazione] permeano davvero la nostra società, " Dice Mislove. "Sarà molto più difficile e molto più sottile della semplice rimozione di determinate funzionalità all'inizio".


    © Scienza https://it.scienceaq.com