• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Il rapporto dei cani da guardia dell'intelligenza artificiale strappa la tecnologia delle emozioni

    Credito:CC0 Dominio Pubblico

    L'opinione che influisca sul riconoscimento dovrebbe essere bandita dalle decisioni importanti suona come un grido di rabbia... ma cosa significa tutto questo? Il discorso si sta scaldando, in realtà, sull'impatto dell'intelligenza artificiale sulla nostra vita quotidiana in modi che causano tante preoccupazioni quanto stupore.

    "Riconoscimento affettivo". In gergo tecnologico rappresenta un sottoinsieme del riconoscimento facciale. Il riconoscimento degli affetti riguarda l'intelligenza artificiale emotiva, e si tratta di intelligenza artificiale utilizzata per analizzare le espressioni con l'obiettivo di identificare le emozioni umane.

    Interpretare le espressioni sul tuo viso? Quanto sono valide queste interpretazioni?

    In un centro di ricerca della New York University, un rapporto ricorda ai suoi lettori che questo non è il modo migliore per capire come si sentono le persone. L'opinione del rapporto è che, chiaro e semplice, Non si dovrebbe facilmente presumere che l'intelligenza artificiale che rileva le emozioni sia in grado di effettuare chiamate importanti su situazioni che possono avere un grave impatto sulle persone:nel reclutamento, nel monitoraggio degli studenti in classe, nei servizi al cliente e infine, ma non meno importante, nella giustizia penale.

    Era necessario esaminare il motivo per cui le entità utilizzano una tecnologia difettosa per fare valutazioni sul carattere sulla base dell'aspetto fisico in primo luogo. Ciò è particolarmente preoccupante in contesti come l'occupazione, formazione scolastica, e giustizia penale.

    L'AI Now Institute della New York University ha emesso il Rapporto AI Now 2019 . L'attenzione dell'istituto è sulle implicazioni sociali dell'intelligenza artificiale. L'istituto rileva che i sistemi di IA dovrebbero disporre di adeguate garanzie o strutture di responsabilità in atto, e l'istituto si preoccupa quando questo potrebbe non essere il caso.

    Il loro rapporto del 2019 esamina l'uso aziendale dell'analisi delle espressioni così com'è attualmente nel prendere decisioni.

    Reuters ha sottolineato che questo era il quarto rapporto annuale di AI Now sugli strumenti di intelligenza artificiale. La valutazione esamina i rischi della tecnologia dell'IA potenzialmente dannosa e il suo impatto sull'uomo.

    Passando al rapporto dell'Istituto, il riconoscimento degli affetti è stato "un focus particolare di crescente preoccupazione nel 2019, non solo perché può codificare pregiudizi, ma perché manca di solide basi scientifiche per garantire risultati accurati o addirittura validi."

    Il rapporto aveva una formulazione forte:"I regolatori dovrebbero vietare l'uso del riconoscimento degli affetti nelle decisioni importanti che hanno un impatto sulla vita delle persone e sull'accesso alle opportunità. Fino ad allora, Le aziende di intelligenza artificiale dovrebbero smettere di implementarlo."

    Gli autori non stanno solo indulgendo nel personale; opinione; hanno esaminato la ricerca.

    "Dati i fondamenti scientifici contestati della tecnologia di riconoscimento affettivo, una sottoclasse di riconoscimento facciale che pretende di rilevare cose come la personalità, emozioni, salute mentale, e altri stati interiori - non dovrebbe essere consentito di svolgere un ruolo in importanti decisioni sulla vita umana, come chi viene intervistato o assunto per un lavoro, il prezzo dell'assicurazione, valutazioni del dolore del paziente, o le prestazioni degli studenti a scuola."

    Il rapporto è andato anche oltre e ha affermato che i governi dovrebbero "proibire specificamente l'uso del riconoscimento degli affetti nei processi decisionali ad alto rischio".

    Il Verge James Vincent non si stupirebbe di questa scoperta. Tornato a luglio, ha riferito di ricerche che hanno esaminato i fallimenti della tecnologia per leggere accuratamente le emozioni attraverso le espressioni facciali; in poche parole, non puoi fidarti dell'intelligenza artificiale per farlo. Ha citato un professore di psicologia alla Northeastern University. "Le aziende possono dire quello che vogliono, ma i dati parlano chiaro".

    Vincent riferì allora su una revisione della letteratura commissionata dall'Association for Psychological Science, e cinque scienziati hanno esaminato le prove:"Espressioni emotive riconsiderate:sfide nell'inferire emozioni dai movimenti facciali umani". Vincent ha detto:"Ci sono voluti due anni per esaminare i dati, con la recensione guardando più di 1, 000 diversi studi."

    Poiché le emozioni sono espresse in un'enorme varietà di modi, è difficile dedurre in modo affidabile come si sente qualcuno da un semplice insieme di movimenti facciali. Gli autori hanno affermato che le aziende tecnologiche potrebbero porre una domanda fondamentalmente sbagliata. Gli sforzi per leggere gli stati interni delle persone dai movimenti facciali senza considerare i vari aspetti del contesto erano nel migliore dei casi incompleti e nel peggiore dei casi privi di validità.

    Mentre il rapporto chiedeva un divieto, potrebbe essere giusto considerare che la preoccupazione è contro il livello ingenuo di fiducia in una tecnologia che ha ancora bisogno di miglioramenti. Il campo dell'analisi emotiva deve fare di meglio.

    Secondo Il Verge articolo, un professore di psicologia alla Northeastern University credeva che forse la conclusione più importante della revisione fosse che "dobbiamo pensare alle emozioni in un modo più complesso".

    Leo Kelton, Notizie della BBC, nel frattempo, ha trasmesso il punto di vista della prof.ssa Kate Crawford, co-fondatrice di AI Now, che ha detto che gli studi avevano dimostrato una notevole variabilità in termini di numero di stati emotivi e il modo in cui le persone li esprimevano.

    Reuters ha riferito sulla sua teleconferenza prima della pubblicazione del rapporto:"I fondatori di AI Now Kate Crawford e Meredith Whittaker hanno affermato che gli usi dannosi dell'IA si stanno moltiplicando nonostante l'ampio consenso sui principi etici perché non ci sono conseguenze per la loro violazione". L'attuale rapporto afferma che il riconoscimento degli affetti abilitato dall'intelligenza artificiale ha continuato a essere distribuito su larga scala in tutti gli ambienti, dalle aule ai colloqui di lavoro. Stava informando le determinazioni su chi è produttivo ma spesso all'insaputa delle persone.

    Il rapporto AI Now ha fornito esempi specifici di aziende che fanno affari con prodotti di rilevamento delle emozioni. Una di queste aziende vende videocamere di analisi video che classificano i volti come sentimenti di rabbia, paura, e tristezza, venduto ai casinò, ristoranti, commercianti al dettaglio, agenti immobiliari, e il settore dell'ospitalità, .

    Un altro esempio è stata un'azienda con strumenti basati su video basati sull'intelligenza artificiale per consigliare quali candidati un'azienda dovrebbe intervistare. Gli algoritmi sono stati progettati per rilevare il coinvolgimento emotivo nelle microespressioni dei candidati.

    Il rapporto includeva un'azienda che crea fasce che pretendono di rilevare e quantificare i livelli di attenzione degli studenti attraverso il rilevamento dell'attività cerebrale. (Il rapporto sull'intelligenza artificiale non ha ignorato di aggiungere che gli studi "delineano i rischi significativi associati all'utilizzo dell'intelligenza artificiale emotiva in classe".)

    © 2019 Scienza X Rete




    © Scienza https://it.scienceaq.com