• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Sbagliare l'etica dell'IA potrebbe annientare il progresso tecnico

    L'intelligenza artificiale può essere utilizzata per identificare potenziali autori di crimini violenti e valutare il rischio di recidiva. Credito:Pixel massimo, con licenza CC0

    Una pistola ad acqua intelligente che utilizza il riconoscimento facciale per identificare i suoi obiettivi sta aiutando a evidenziare alcune delle questioni emergenti sui diritti umani che circondano l'intelligenza artificiale (AI), un'area di ricerca che è in aumento man mano che le nuove tecnologie diventano sempre più prevalenti nella nostra quotidianità vive.

    "È molto difficile essere un ricercatore di intelligenza artificiale ora e non essere consapevoli delle implicazioni etiche che hanno questi algoritmi, " ha detto il professor Bernd Stahl, direttore del Centro per l'informatica e la responsabilità sociale della De Montfort University di Leicester, UK.

    "Dobbiamo capire meglio non solo cosa possono fare queste tecnologie, ma come si svilupperanno nella società e nel mondo in generale."

    Dirige un progetto chiamato SHERPA, che sta tentando di affrontare alcune delle questioni etiche che circondano i sistemi informativi intelligenti che utilizzano l'apprendimento automatico, una forma di intelligenza artificiale, e altri algoritmi per analizzare grandi set di dati.

    La pistola ad acqua intelligente è stata creata con l'obiettivo di evidenziare come i pregiudizi negli algoritmi possono portare a discriminazioni e trattamenti ingiusti. Costruito da un artista per SHERPA, la pistola ad acqua può essere programmata per selezionare i suoi bersagli.

    "Il nostro artista ha costruito una pistola ad acqua con un riconoscimento facciale in modo che possa spruzzare acqua solo sulle donne o può essere cambiata per riconoscere un singolo individuo o persone di una certa età, " ha detto il Prof. Stahl. "L'idea è di far riflettere la gente su cosa può fare questo tipo di tecnologia".

    Mentre spruzzare acqua sulle persone potrebbe sembrare un divertimento innocuo, i problemi sono tutt'altro. L'intelligenza artificiale è già utilizzata per identificare i volti sui social media, rispondere alle domande sugli assistenti domestici digitali come Alexa e Siri, e suggerire prodotti per i consumatori quando fanno acquisti online.

    Viene anche usato per aiutare a rendere giudizi sul rischio di recidiva dei criminali o anche a identificare coloro che potrebbero commettere crimini violenti . Assicuratori e le autorità fiscali lo stanno impiegando per aiutare a rilevare le frodi, le banche si sono rivolte all'intelligenza artificiale per aiutare a elaborare le domande di prestito ed è persino in corso sperimentato ai valichi di frontiera .

    Impatti

    Durante l'ultimo anno, Il prof. Stahl ei suoi colleghi hanno compilato 10 casi di studio in cui hanno analizzato empiricamente gli impatti di queste tecnologie in una serie di settori. Questi includono l'uso dell'IA nelle città intelligenti, il suo utilizzo da parte del settore assicurativo, nell'istruzione, assistenza sanitaria, agricoltura e dai governi.

    "Ci sono alcune cose di alto profilo che attraversano i settori, come la privacy, protezione dei dati e sicurezza informatica, " ha affermato il Prof. Stahl. "L'intelligenza artificiale sta anche creando nuove sfide per il diritto al lavoro se gli algoritmi possono prendere il lavoro delle persone, o il diritto a libere elezioni se può essere usato per intromettersi nel processo democratico, come abbiamo visto con Cambridge Analytica".

    Forse uno degli usi emergenti più controversi dell'IA è nella polizia predittiva, dove gli algoritmi vengono addestrati su insiemi storici di dati per individuare modelli nel comportamento e nelle caratteristiche dei trasgressori. Questo può quindi essere utilizzato per prevedere aree, gruppi o anche individui che potrebbero essere coinvolti in crimini in futuro. Una tecnologia simile è già in fase di sperimentazione in alcune parti degli Stati Uniti e del Regno Unito.

    pregiudizi

    Ma questi algoritmi possono anche apprendere i pregiudizi che già esistono nei set di dati. Se un database della polizia mostra che principalmente giovani, i neri vengono arrestati per un certo crimine, potrebbe non essere un riflesso corretto del profilo effettivo dell'autore del reato e riflettere invece il razzismo storico all'interno di una forza. L'uso dell'intelligenza artificiale insegnata su questo tipo di dati potrebbe esacerbare problemi come il razzismo e altre forme di discriminazione.

    "Anche la trasparenza di questi algoritmi è un problema, ", ha affermato il Prof. Stahl. "Questi algoritmi effettuano la classificazione statistica dei dati in un modo che rende quasi impossibile vedere come esattamente ciò sia accaduto." Ciò solleva importanti questioni su come i sistemi legali, Per esempio, possono rimanere equi e giusti se iniziano a fare affidamento su algoritmi di intelligenza artificiale a "scatola nera" per informare le decisioni di condanna o i giudizi sulla colpevolezza di una persona.

    Il prossimo passo per il progetto sarà quello di esaminare i potenziali interventi che possono essere utilizzati per affrontare alcuni di questi problemi. Esaminerà dove le linee guida possono aiutare a garantire che i ricercatori di intelligenza artificiale creino equità nei loro algoritmi, dove nuove leggi possono regolarne l'uso e se un regolatore può tenere sotto controllo gli aspetti negativi della tecnologia.

    Ma uno dei problemi che molti governi e autorità di regolamentazione devono affrontare è tenere il passo con il rapido ritmo del cambiamento nelle nuove tecnologie come l'intelligenza artificiale, secondo il professor Philip Brey, che studia filosofia della tecnologia all'Università di Twente, In Olanda.

    "La maggior parte delle persone oggi non comprende la tecnologia perché è molto complessa, opaco e veloce, " ha detto. "Per questo motivo è difficile prevedere e valutare gli impatti sulla società, e di avere risposte regolamentari e legislative adeguate a ciò. La politica di solito è molto indietro".

    Il Prof. Brey è coordinatore del progetto SIENNA, che sta sviluppando raccomandazioni e codici di condotta per una serie di tecnologie emergenti, compresa la genomica umana, valorizzazione umana, IA e robotica.

    Estrazione

    "La tecnologia dell'informazione ha Certo, ha già avuto un forte impatto sulla privacy attraverso Internet e i dispositivi mobili che utilizziamo, ma l'intelligenza artificiale è in grado di combinare diversi tipi di informazioni e di estrarle in un modo che rivela informazioni e intuizioni fondamentalmente nuove sulle persone, " ha detto il Prof. Brey. "Può farlo in un modo molto veloce ed efficiente."

    La tecnologia AI sta aprendo le porte all'analisi in tempo reale del comportamento delle persone, emozioni insieme alla capacità di dedurre dettagli sul loro stato mentale o sulle loro intenzioni.

    "Questo è qualcosa che prima non era possibile, " ha detto il prof. Brey. "Allora quello che fai con queste informazioni solleva nuovi tipi di preoccupazioni sulla privacy".

    Il team SIENNA sta conducendo workshop, consultazioni con esperti e sondaggi di opinione pubblica che mirano a identificare le preoccupazioni dei cittadini in 11 paesi. Si stanno ora preparando a elaborare una serie di raccomandazioni che coloro che lavorano con l'intelligenza artificiale e altre tecnologie possono trasformare in standard che assicureranno che le considerazioni etiche e sui diritti umani siano cablate in fase di progettazione.

    Questa più ampia comprensione pubblica di come la tecnologia potrebbe avere un impatto su di loro potrebbe essere cruciale per la sopravvivenza dell'IA a lungo termine, secondo il prof. Stahl.

    "Se non otteniamo l'etica giusta, allora le persone si rifiuteranno di usarlo e questo annullerà qualsiasi progresso tecnico, " Egli ha detto.


    © Scienza https://it.scienceaq.com