• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Intelligenza artificiale:tra scientifica, questioni etiche e commerciali

    Il 18 marzo a Tempe, Arizona, un'auto a guida autonoma di Uber ha investito e ucciso Elaine Herzberg, che stava attraversando la strada con la sua bicicletta. Il conducente umano avrebbe dovuto monitorare il comportamento dell'auto, ma non lo fece. I suoi sistemi apparentemente non hanno rilevato la vittima, in quanto non rallentava né cercava di evitare di colpire. Credito:Herzberg Wikimedia

    L'incidente mortale che ha coinvolto un'auto autonoma gestita da Uber negli Stati Uniti è stato un tragico ma tempestivo promemoria dei pericoli delle aziende che si affrettano a implementare l'intelligenza artificiale per essere le prime sul mercato.

    Al momento dello schianto, il pilota che avrebbe dovuto essere pronto a reagire proprio in un evento del genere guardava in basso. Apparentemente l'auto stessa non era riuscita completamente a vedere il pedone e non ha rallentato o cercato di evitare di colpirla.

    Test nel mondo reale, e rischi

    Ancora, stiamo assistendo a una tecnologia testata principalmente per funzionare in condizioni normali in modo che possa essere lanciata sul mercato e non necessariamente costruita con la sicurezza come obiettivo primario. Come ha affermato l'ex sviluppatore della piattaforma di apprendimento automatico e intelligenza artificiale di Uber, le case automobilistiche dovrebbero addestrare le loro auto in ambienti simulati che possono essere programmati per addestrarli a rilevare ed evitare qualsiasi numero di possibilità di eventi casuali che l'auto potrebbe incontrare sulla strada.

    L'apprendimento automatico soffre di un problema fondamentale in quanto la sua capacità di svolgere un compito dipende dai dati utilizzati per addestrarlo. Quale algoritmo esatto finisca per utilizzare per soddisfare il suo scopo finale e quali caratteristiche siano le più importanti è in gran parte sconosciuto. Con l'apprendimento profondo, i molteplici strati che compongono la rete neurale complessiva del software di machine learning rendono questo processo ancora più misterioso e sconosciuto.

    Sappiamo che il software di apprendimento automatico rileva errori nei dati utilizzati per testarlo. È stato dimostrato che il software utilizzato per calcolare il rischio che un delinquente commetta un crimine futuro e utilizzato frequentemente dai tribunali negli Stati Uniti calcola sistematicamente un rischio significativamente inferiore per i delinquenti bianchi rispetto alle persone di colore. Altri ricercatori hanno dimostrato che gli algoritmi di apprendimento automatico apprendono i pregiudizi di genere inerenti ai testi utilizzati per addestrarli.

    I pericoli di sapere ora come funzionano le cose sono stati chiaramente dimostrati dalla recente ammissione di Facebook che in realtà non sapeva cosa stessero facendo le persone con i dati di milioni di suoi utenti che Facebook li aveva incoraggiati a prendere. Con l'uso della sua piattaforma per la diffusione di notizie false mirate durante le elezioni presidenziali statunitensi, Facebook ha ammesso ancora una volta di non essersi reso conto che i governi stranieri avrebbero sfruttato questa ingenuità per minare la democrazia.

    Più che solo Facebook

    Sarebbe sbagliato individuare Facebook come l'unica azienda a non sapere che il proprio software potrebbe essere sfruttato per danneggiare gli individui e la società. Il "diritto all'oblio" emendamenti alla legislazione sulla privacy dei dati e promulgato dall'Unione Europea è stato formulato specificamente per affrontare la riluttanza di Google a correggere gli effetti collaterali della sua ricerca sulla privacy delle persone. La legislazione in molti paesi per rendere obbligatoria la segnalazione delle violazioni dei dati è stata necessaria perché le aziende non erano disposte a prendere la sicurezza informatica, e la protezione dei dati dei propri utenti, sul serio.

    Visto il passato, non c'è motivo di credere che le aziende che implementano sistemi basati sull'IA pensino alla sicurezza e alla privacy by design. Anzi, l'apprendimento automatico ha bisogno di dati, un sacco, e così le aziende stanno acquisendo enormi repository di dati di informazioni dettagliate per sfruttarle attraverso algoritmi. Mentre si potrebbe sostenere che gestito in modo responsabile, grandi quantità di dati saranno preziose per la ricerca, in materia di salute in particolare, i rischi di raccolta, memorizzare e utilizzare tali dati, soprattutto in un contesto commerciale sono molto alti.

    Rapporto del governo francese

    In Francia, Cédric Villani – il matematico vincitore del Field Prize e membro dell'Assemblea Nazionale – ha consegnato il suo rapporto finale che dettaglia una strategia nazionale per lo studio e lo sfruttamento dell'intelligenza artificiale. Le raccomandazioni coprono molti dei potenziali problemi che potrebbero sorgere dal tentativo di bilanciare le richieste di ricerca, innovazione e commercializzazione dell'IA. Riconoscono inoltre la necessità di salvaguardare la società e la privacy e la sicurezza degli individui e suggeriscono un ruolo attivo per il governo nell'assicurare che l'IA sia utilizzata in modo da avvantaggiare la società e rispettare i diritti e i valori umani.

    Però, niente di tutto questo sarà facile. È già stato affermato che il regolamento generale sulla protezione dei dati (GDPR) in Europa entrerà in vigore il 25 maggio, metterà "le imprese dell'UE in una posizione di svantaggio competitivo rispetto ai loro concorrenti in Nord America e Asia".

    Bisogna sperare che tragedie come la morte della 49enne Elaine Herzberg, investito da un'auto Uber a guida autonoma, e la diffusa indignazione per il disprezzo di Facebook per i dati personali dei suoi utenti ricorderà alla gente che c'è un vantaggio nel misurare il progresso tecnologico e non il mantra odierno del progresso tecnologico a qualsiasi prezzo.

    Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale. Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com