• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • I ricercatori chiedono di sfruttare, regolazione dell'AI

    Credito:CC0 Dominio Pubblico

    L'intelligenza artificiale sembra "ampliare la disuguaglianza, " e il suo dispiegamento dovrebbe essere soggetto a regole e limiti severi, soprattutto per le tecnologie sensibili come il riconoscimento facciale, un rapporto di ricerca ha detto giovedì.

    L'Istituto AI Now, un centro della New York University che studia le implicazioni sociali dell'intelligenza artificiale, ha affermato che man mano che queste tecnologie vengono ampiamente diffuse, gli effetti negativi stanno cominciando ad emergere.

    Il rapporto di 93 pagine ha esaminato le preoccupazioni sollevate "dalla gestione dei lavoratori abilitata dall'intelligenza artificiale, alle determinazioni algoritmiche di benefici e servizi sociali, alla sorveglianza e al monitoraggio degli immigrati e delle comunità sottorappresentate, " hanno scritto i ricercatori.

    "Ciò che diventa chiaro è che in diversi domini e contesti, L'intelligenza artificiale sta ampliando la disuguaglianza, mettendo le informazioni e il controllo nelle mani di coloro che hanno già il potere e depotenziando ulteriormente coloro che non lo hanno".

    I ricercatori hanno affermato che i sistemi di intelligenza artificiale vengono implementati in aree come l'assistenza sanitaria, formazione scolastica, occupazione, giustizia penale "senza adeguate garanzie o strutture di responsabilità in atto".

    Il rapporto afferma che i governi e le imprese dovrebbero interrompere l'uso del riconoscimento facciale "in contesti sociali e politici sensibili" fino a quando i rischi non saranno meglio compresi, e quel sottoinsieme - "riconoscimento affettivo" o lettura delle emozioni da parte della tecnologia informatica - dovrebbe essere vietato alla luce dei dubbi sul fatto che funzioni.

    Il riconoscimento delle emozioni "non dovrebbe essere autorizzato a svolgere un ruolo in importanti decisioni sulla vita umana, come chi viene intervistato o assunto per un lavoro, il prezzo dell'assicurazione, valutazioni del dolore del paziente, o rendimento degli studenti a scuola, "diceva il rapporto.

    Ha anche chiesto ai lavoratori della tecnologia "di avere il diritto di sapere cosa stanno costruendo e di contestare usi non etici o dannosi del loro lavoro".

    Il rapporto AI Now afferma che le organizzazioni mediche che utilizzano tecnologie avanzate devono implementare politiche di protezione dei dati e consentire alle persone di "approvazione affermativa" opportunità di ritirarsi dallo studio o dal trattamento, e dalla ricerca utilizzando le loro informazioni mediche.

    Più in generale, i ricercatori hanno affermato che l'industria dell'intelligenza artificiale deve apportare "cambiamenti strutturali" per garantire che gli algoritmi non rafforzino il razzismo, pregiudizio o mancanza di diversità.

    "L'industria dell'IA è sorprendentemente omogenea, dovuto in gran parte al trattamento riservato alle donne, persone di colore, minoranze di genere, e altri gruppi sottorappresentati, "diceva il rapporto.

    Sono in corso sforzi per regolamentare i sistemi di IA, ma "sono stati superati dall'adozione da parte del governo di sistemi di intelligenza artificiale per la sorveglianza e il controllo, "Secondo il rapporto.

    "Nonostante la crescente preoccupazione pubblica e l'azione normativa, il lancio del riconoscimento facciale e di altre tecnologie AI rischiose è appena rallentato, " hanno scritto i ricercatori.

    "I cosiddetti progetti di "città intelligenti" in tutto il mondo stanno consolidando il potere sulla vita civica nelle mani di aziende tecnologiche a scopo di lucro, affidando loro la responsabilità della gestione delle risorse e delle informazioni critiche".

    © 2019 AFP




    © Scienza https://it.scienceaq.com