Credito:CC0 Dominio Pubblico
Nell'era digitale di oggi, l'intelligenza artificiale e i big data stanno aiutando le persone a navigare nel mondo in modi nuovi. Mentre molti ricercatori utilizzano questi nuovi strumenti per innovare e far progredire diverse discipline, alcune, come Fred Fonseca, stanno affrontando questi progressi da una prospettiva diversa.
"C'è un nuovo campo chiamato etica dei dati, " disse Fonseca, professore associato presso il College of Information Sciences and Technology di Penn State e membro di facoltà 2019-2020 presso il Rock Ethics Institute di Penn State. "Stiamo raccogliendo dati e li usiamo in molti modi diversi. Dobbiamo iniziare a pensare di più a come li stiamo usando e cosa stiamo facendo con essi".
Avvicinandosi alla tecnologia emergente con una prospettiva filosofica, Fonseca può esplorare i dilemmi etici che circondano il modo in cui ci riuniamo, gestire e utilizzare le informazioni. Ha spiegato che con l'ascesa dei big data, Per esempio, molti scienziati e analisti rinunciano a formulare ipotesi a favore di consentire ai dati di fare inferenze su problemi particolari.
"Normalmente, nella scienza, la teoria guida le osservazioni. La nostra comprensione teorica guida sia ciò che scegliamo di osservare sia come scegliamo di osservarlo, " spiegò Fonseca. "Ora, con così tanti dati a disposizione, l'immagine classica della scienza della costruzione della teoria è minacciata di essere capovolta, con i dati che vengono suggeriti come fonte di teorie in quella che viene chiamata scienza guidata dai dati".
Fonseca ha condiviso questi pensieri nel suo articolo, "Sistemi cyber-umani di pensiero e comprensione, " che è stato pubblicato nel numero di aprile 2019 del Journal of the Association of Information Sciences and Technology . Fonseca è stato coautore del documento con Michael Marcinowski, Collegio di arti liberali, Università di Bath Spa, Regno Unito; e Clodoveu Davis, Dipartimento di Informatica, Universidade Federal de Minas Gerais, Belo Horizonte, Brasile.
Nella carta, i ricercatori propongono un concetto per colmare il divario tra pensiero teorico e a-teorico, scienza guidata dai dati.
"Invece di avvicinarsi a un insieme specifico di big data per rispondere a una domanda già sviluppata, gli scienziati sono incoraggiati a interagire con i dati in modo più ponderato e immediato, utilizzare i dati stessi come strumento di indagine scientifica, " hanno spiegato i ricercatori. "Il vantaggio immediato sarebbe aiutare gli scienziati a gestire e rispondere al flusso di dati che altrimenti travolgerebbe i loro poteri agenti e decisionali".
Fonseca ha usato la metafora del confronto dei dati o dell'intelligenza artificiale con un bastone che una persona cieca potrebbe usare per navigare nel mondo.
"Gli scienziati usano i dati realmente esistenti per sentirsi d'accordo e interagire con il mondo realmente esistente, coinvolgere i dati non come una rappresentazione, ma come strumento per facilitare il loro pensiero empirico, " ha spiegato. "Come il bastone, i dati vengono utilizzati come estensione dei loro sensi, con la loro comprensione del mondo che è dinamicamente accoppiata con i massicci flussi di dati trovati nella scienza basata sui dati".
Propone un rimodellamento pratico di come gli analisti, professionisti e scienziati pensano al loro lavoro. Con molti progressi nell'intelligenza artificiale, e macchine che compiono azioni e decisioni più simili a quelle umane, Fonseca ha affermato che è importante riflettere sull'impatto che la tecnologia ha nella vita di tutti i giorni.
"La tecnologia non sta andando via, " ha detto. "Dobbiamo pensarci di più e capirlo meglio in modo da poter prendere decisioni informate".
Per illustrare le sfide etiche che le nuove tecnologie possono portare, ha citato un recente articolo del Washington Post sui fornitori di servizi medici e le aziende tecnologiche che utilizzano l'intelligenza artificiale per prevedere i tassi di depressione degli individui e la probabilità di suicidio. La tecnologia esegue la scansione delle cartelle cliniche e dei post sui social media alla ricerca di linguaggio e comportamenti suicidi. Alcuni dei dati vengono forniti a medici o altri soggetti che possono intervenire. Ma gli stessi dati potrebbero cadere nelle mani di esperti di marketing o di altre terze parti?
"Sebbene sia possibile [creare questi algoritmi], forse non dovremmo farlo. Perché una volta che è lì, le persone lo useranno e lo useranno male, " ha detto. "Queste sono le domande sulla scienza su cui dobbiamo iniziare a pensare.
"Si tratta di valori, " ha aggiunto. "Possiamo avere tutti i tipi di dati, ma dobbiamo sapere come lo stiamo usando".