• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • L'intelligenza artificiale utilizzata dalle organizzazioni umanitarie potrebbe approfondire le tendenze neocoloniali

    Credito:Liu zishan/Shutterstock.com

    Intelligenza artificiale, o AI, sta attraversando un periodo di forte espansione. Questo non è perché i computer hanno raggiunto una coscienza simile a quella umana, ma a causa dei progressi nell'apprendimento automatico, dove i computer imparano da enormi database come classificare i nuovi dati. All'avanguardia ci sono le reti neurali che hanno imparato a riconoscere i volti umani oa giocare a Go.

    Il riconoscimento dei modelli nei dati può essere utilizzato anche come strumento predittivo. L'intelligenza artificiale viene applicata agli ecocardiogrammi per prevedere le malattie cardiache, ai dati sul posto di lavoro per prevedere se i dipendenti lasceranno, e ai feed dei social media per rilevare segni di depressione incipiente o tendenze suicide. Qualsiasi ambito della vita in cui ci sono dati abbondanti - e questo significa praticamente ogni aspetto della vita - viene preso in considerazione dal governo o dalle imprese per l'applicazione dell'IA.

    Un'attività che attualmente sembra lontana dall'IA è l'umanitarismo; l'organizzazione di aiuti sul campo ai compagni in crisi a causa della guerra, carestia o altro disastro. Ma anche le organizzazioni umanitarie adotteranno l'IA. Come mai? Perché sembra in grado di rispondere a domande al centro dell'umanitarismo – domande come chi dovremmo salvare, e come essere efficaci su larga scala. L'intelligenza artificiale risuona fortemente anche con le modalità esistenti di pensiero e azione umanitarie, in particolare i principi di neutralità e universalità. L'umanitarismo (si crede) non si schiera, è imparziale nella sua applicazione e offre un aiuto indipendentemente dalle particolarità di una situazione locale.


    Il modo in cui l'apprendimento automatico consuma i big data e produce previsioni suggerisce certamente che può cogliere l'enormità della sfida umanitaria e fornire una risposta basata sui dati. Ma la natura delle operazioni di apprendimento automatico significa che in realtà approfondiranno alcuni dei problemi dell'umanitarismo, e introdurne di nuovi.

    La matematica

    L'esplorazione di queste domande richiede una breve deviazione nelle operazioni concrete dell'apprendimento automatico, se vogliamo evitare la disinformazione e la mistificazione che si collega al termine AI. Perché non c'è intelligenza nell'intelligenza artificiale. Né impara veramente, anche se il suo nome tecnico è machine learning.

    L'intelligenza artificiale è semplicemente minimizzazione matematica. Ricorda come a scuola adatteresti una linea retta a un insieme di punti, scegliendo la linea che riduce al minimo le differenze complessive? L'apprendimento automatico fa lo stesso per modelli complessi, adattare le caratteristiche di input a risultati noti minimizzando una funzione di costo. Il risultato diventa un modello che può essere applicato a nuovi dati per prevedere il risultato.

    Tutti i dati possono essere trasferiti attraverso algoritmi di apprendimento automatico. Tutto ciò che può essere ridotto a numeri ed etichettato con un risultato può essere utilizzato per creare un modello. Le equazioni non sanno né si preoccupano se i numeri rappresentano le vendite di Amazon o le vittime del terremoto.

    Questa banalità del machine learning è anche il suo potere. È una compressione numerica generalizzata di domande che contano:non ci sono comprensioni all'interno del calcolo; i modelli indicano correlazione, non causalità. L'unica intelligenza arriva nello stesso senso dell'intelligenza militare; questo è, targeting. Le operazioni sono quelle di minimizzare la funzione di costo al fine di ottimizzare il risultato.

    E i modelli prodotti dall'apprendimento automatico possono essere difficili da invertire nel ragionamento umano. Perché ha scelto questa persona come un brutto rischio per la libertà vigilata? Cosa rappresenta quel modello? Non possiamo necessariamente dirlo. Quindi c'è un'opacità al centro dei metodi. Non aumenta l'agire umano ma lo distorce.

    Logica dei potenti

    L'apprendimento automatico non si limita a prendere decisioni senza fornire motivazioni, modifica la nostra stessa idea di ragione. Questo è, cambia ciò che è conoscibile e ciò che è inteso come reale.

    Per esempio, in alcune giurisdizioni degli Stati Uniti, se un algoritmo produce una previsione che una persona arrestata potrebbe recidivare, a quella persona sarà negata la cauzione. La ricerca di modelli nei dati diventa un'autorità di calcolo che innesca conseguenze sostanziali.

    Apprendimento automatico, poi, non è solo un metodo, ma una filosofia macchinica in cui il calcolo astratto è inteso per accedere a una verità che è vista come superiore alla creazione di senso della percezione ordinaria. E come tale, i calcoli della scienza dei dati possono finire per contare più delle testimonianze.

    Certo, il campo umanitario non è ingenuo sui pericoli della dataficazione. È risaputo che l'apprendimento automatico potrebbe propagare la discriminazione perché apprende dai dati sociali che sono spesso di parte. E così le istituzioni umanitarie saranno naturalmente più attente della maggior parte a garantire tutte le possibili salvaguardie contro dati di formazione distorti.

    Ma il problema va oltre il pregiudizio esplicito. L'effetto più profondo dell'apprendimento automatico è produrre le categorie attraverso le quali penseremo a noi stessi e agli altri. L'apprendimento automatico produce anche un passaggio alla prelazione:precludere i futuri sulla base della correlazione piuttosto che della causalità. Questo costruisce il rischio nello stesso modo in cui Twitter determina gli argomenti di tendenza, allocare e trattenere le risorse in un modo che demarca algoritmicamente i meritevoli e gli immeritevoli.

    Dovremmo forse preoccuparci particolarmente di queste tendenze perché, nonostante le sue migliori intenzioni, la pratica dell'umanitarismo mostra spesso tendenze neocoloniali. Rivendicando neutralità e universalità, gli algoritmi affermano la superiorità della conoscenza astratta generata altrove. Incorporando la logica dei potenti per determinare cosa succede alle persone alla periferia, L'IA umanitaria diventa un meccanismo neocoloniale che agisce al posto del controllo diretto.

    Per come stanno le cose, l'apprendimento automatico e la cosiddetta IA non saranno una sorta di salvezza per l'umanitarismo. Anziché, approfondirà le già profonde dinamiche neocoloniali e neoliberali delle istituzioni umanitarie attraverso la distorsione algoritmica.

    Ma nessun apparato è un sistema chiuso; l'impatto dell'apprendimento automatico è contingente e può essere modificato. Questo è importante per l'IA umanitaria come per l'IA in generale - perché, se una tecnica alternativa non è mobilitata da approcci come i consigli popolari, la prossima generazione di scandali umanitari sarà guidata dall'IA.

    Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com