• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Commercio equo:la tua anima per i dati?

    Credito:CC0 Dominio pubblico

    In un mondo sempre più guidato dai dati, stiamo solo camminando sulle fonti di dati a beneficio delle gigantesche multinazionali?

    Ogni singolo minuto, ci sono 3,8 milioni di query di ricerca su Google; 4,5 milioni di video guardati su YouTube; quasi 1 milione di dollari spesi online; 41,6 milioni di messaggi inviati tramite WhatsApp e Facebook Messenger, e queste sono una frazione delle interazioni che attualmente avvengono online.

    Mentre affrontiamo la nostra vita quotidiana, condividendo le nostre esperienze personali sui social media, chiedendo a Siri di impostare le nostre sveglie, e contando quanti passi percorriamo sui nostri dispositivi indossabili, stiamo essenzialmente diventando punti dati ambulanti, dove le nostre informazioni vengono raccolte e analizzate per prevedere il comportamento. Dove andrà a finire?

    Professor Turgay Celik, Direttore della National e-Science Postgraduate Teaching and Training Platform (NEPTTP) e del Wits Institute of Data Science (WIDS), prevede che nei prossimi 10-15 anni, gli esseri umani saranno "direttamente connessi al cyberspazio senza utilizzare dispositivi. Il tuo cervello sarà connesso direttamente a Internet, " lui dice.

    Wits Gli ingegneri biomedici hanno già collegato un cervello umano a Internet in tempo reale. Questo progetto Braininternet ha essenzialmente trasformato il cervello in un nodo Internet of Things sul World Wide Web.

    Nel 2019, lo stesso team ha collegato due computer attraverso il cervello umano e ha trasmesso parole come "ciao" e "mela", passivamente, senza che l'utente sia consapevole della presenza di un messaggio.

    "Abbiamo davvero bisogno dei nostri corpi fisici per sperimentare la vita, o abbiamo solo bisogno di avere il nostro cervello?" chiede Celik. "Vedremo i sistemi che creano quegli ambienti virtuali per dare agli umani un'esperienza della natura. Vuoi andare a vedere l'osean, ma hai davvero bisogno di andarci fisicamente? Posso stimolare una parte del mio cervello a darmi quell'esperienza?"

    Diritti Android e il Grande Altro

    Dottor Christopher Wareham, Senior Lecturer al Steve Biko Center for Bioethics at Wits sostiene che dobbiamo pensare alle implicazioni di tali sviluppi tecnologici dal punto di vista degli agenti artificiali. Questi "esseri digitali" avranno potenzialmente vite e diritti propri.

    "Tradizionalmente l'attenzione su questa domanda è molto dall'altra parte del problema:come impediremo loro di farci del male? C'è pochissimo lavoro che lo guardi dall'altra parte. Come faremo a prevenire gli esseri umani dal danneggiare questo essere, sperimentando su di esso? Dovrebbero esserci leggi che proteggano questo tipo di esseri?"

    Gli sviluppi nell'apprendimento automatico e nell'intelligenza artificiale (AI) influenzano già in modo significativo il modo in cui viviamo oggi le nostre vite. L'accademica americana Shoshana Zuboff ha coniato il termine "capitalismo della sorveglianza" nel 2014. Il capitalismo della sorveglianza dipende "dall'architettura globale della mediazione informatica... [che] produce una nuova espressione di potere distribuita e largamente incontrastata". Zuboff lo battezza il "Grande Altro". Attualmente, il "Grande Altro" include Facebook, Google, Microsoft e Amazon.

    Il capitalismo della sorveglianza

    Scrivendo sul Guardian, Zuboff spiega, "La logica del capitalismo della sorveglianza inizia con la rivendicazione unilaterale dell'esperienza umana privata come materia prima gratuita per la produzione e la vendita. Queste esperienze vengono tradotte in dati comportamentali. Alcuni di questi dati possono essere applicati a miglioramenti di prodotti o servizi, e il resto è valutato per il suo potere predittivo. Questi flussi di dati predittivi vengono inseriti in prodotti computazionali che prevedono il comportamento umano".

    Il capitalismo della sorveglianza è un "problema reale", dice il professor Brian Armstrong, Cattedra di Digital Business presso la Wits Business School. "Secondo me, una grande preoccupazione riguarda l'intera idea di punteggio sociale." Questo si riferisce alla pratica di sviluppare un sistema di valutazione sociale per stabilire se una persona è un membro adatto e corretto della società, in termini di "punteggio sociale".

    In Cina, le aziende private stanno già gestendo sistemi di credito sociale, così come il governo locale nei progetti pilota. Il piano è sviluppare un sistema nazionale che valuti il ​​comportamento dell'individuo, incluso l'attribuzione di un punteggio ai cittadini e l'aggiunta di ricompense e penalità per azioni specifiche. Per esempio, se fai una donazione in beneficenza, ottieni punti ma perdi punti per violazioni del codice stradale.

    Ma non è necessario guardare fino alla Cina per una sorveglianza in stile Grande Fratello. A Johannesburg, migliaia di telecamere di sorveglianza già monitorano automobilisti e pedoni 24 ore su 24, 7 giorni su 7. Nel mese di giugno, il Financial Mail ha riferito che Vumacam, una consociata della società di fibra Internet, Vumatel:ne aveva installati più di 1, 200 telecamere di sorveglianza per combattere la criminalità. Entro il 2020, il numero di telecamere aumenterà a oltre 10, 000.

    Le società di sicurezza locali possono accedere al feed live di Vumacam e, mentre il sistema di intelligenza artificiale apprende com'è una giornata tipo in un quartiere, indicherà un comportamento fuori dall'ordinario per quell'area. Dott.ssa Helen Robertson, che insegna Privacy ed Etica dei Dati nella Scuola di Informatica e Matematica Applicata, si riferisce alla battaglia tra il nostro diritto alla sicurezza e il nostro diritto alla privacy che tali forme di sorveglianza portano alla ribalta.

    "Mi sembra plausibile che pensiamo che le nostre affermazioni sulla sicurezza abbiano un peso maggiore rispetto alle nostre rivendicazioni sulla privacy. Se gli algoritmi pertinenti identificheranno anomalie nel filmato, dobbiamo tenere a mente quanto siano buoni questi algoritmi o meno".

    Credito:Wits University

    Sicurezza contro privacy

    Le nostre opinioni sulla privacy non sono state influenzate solo da problemi di sicurezza. Anche la pervasività dei social media ha avuto un ruolo. Robertson afferma che la persona media è disposta a condividere molto di più sulla propria vita privata oggi rispetto a qualche decennio fa. Queste visioni in evoluzione non sono necessariamente problematiche. "Potrebbe essere semplicemente una questione di convenzione di una società in contrasto con la convenzione di un'altra società, e come tendono a sentirsi riguardo a quanto sono disposti a condividere."

    Celik crede che la privacy sarà personalizzata, con gli individui che sono in grado di definire quanta privacy desiderano per se stessi.

    La nostra autonomia è un'altra area influenzata dal mondo online. Wareham sostiene che molta pubblicità micro-mirata e messaggi politici sono progettati specificamente per degradare la nostra autonomia. "Se fai una ricerca su Google ora, non otterrai un campione imparziale di informazioni... otterrai informazioni che Google ha provveduto a farti ottenere... questo tipo di micro-targeting... modi razionali».

    La domanda allora diventa chi decide cosa leggi, ascoltare, o guarda, e chi prende le decisioni su quale contenuto è "appropriato" per una specifica piattaforma digitale, e cosa no.

    Verso una tecnologia che insegna

    I progressi basati sui dati sono, però, non tutto destino e oscurità. "I dati in sé non sono agnosticamente buoni o cattivi, ma è quello che facciamo con esso. se ne può abusare, oppure può essere utilizzato per scopi molto positivi, " sostiene Armstrong, aggiungendo che l'istruzione è un settore in cui il Sudafrica potrebbe trarre enormi benefici.

    "Se fossimo in grado di utilizzare i sistemi di gestione dell'apprendimento in modo più efficiente per vedere come stanno imparando gli studenti, per vedere con quale materiale stanno lottando... per imparare quali stili di insegnamento funzionano meglio, possiamo individualizzare l'esperienza di apprendimento."

    In Cina, L'istruzione abilitata all'intelligenza artificiale è già sbocciata con decine di milioni di studenti che utilizzano una qualche forma di intelligenza artificiale per imparare. Ciò include piattaforme di tutoraggio in cui gli algoritmi curano le lezioni e adattano il curriculum in base alla comprensione di concetti specifici da parte di un individuo, riporta MIT Technology Review.

    Protezione dei dati personali

    Ogni giorno vengono generate quantità sbalorditive di dati, ma chi possiede tutti questi dati? Robertson sottolinea che attualmente non c'è consenso tra gli eticisti su questa spinosa questione.

    Alcuni sostengono che l'interessato possiede i dati. Altri affermano che il responsabile del trattamento che utilizza le sue risorse per creare e analizzare un set di dati ha diritti di proprietà, mentre alcuni sostengono che in certi casi, come la ricerca medica a vantaggio della società, la necessità del pubblico di cure mediche e scoperte significa che i dati appartengono al pubblico.

    Queste diverse rivendicazioni di proprietà "aggiungono molto grigiore etico", dice Robertson. "La proprietà dei dati è particolarmente difficile. È un oggetto che può essere scambiato, ma allo stesso tempo, ha un riferimento a un individuo, qualcosa come fanno gli altri artefatti, come fotografie. I diritti sembrano certamente tirare in direzioni diverse".

    Nel futuro prossimo, I sudafricani avranno un notevole potere legale per quanto riguarda la protezione dei loro dati. La legge sulla protezione delle informazioni personali (POPIA) mira a proteggere il diritto alla privacy, consentendo nel contempo i benefici sociali ed economici che derivano dal libero flusso di informazioni. POPIA stabilisce le condizioni in base alle quali le informazioni personali devono essere trattate in modo lecito, anche se ci sono eccezioni.

    Queste condizioni includono che le informazioni personali "devono essere raccolte per uno specifico, scopo esplicitamente definito e lecito". L'ulteriore trattamento delle informazioni personali può avvenire solo se è in linea con lo scopo per il quale sono state originariamente raccolte. La maggior parte delle sezioni della legge non sono ancora iniziate. L'annuncio di una data di inizio è previsto prima la fine del 2019, dopo di che le aziende avranno un anno per conformarsi.

    Verine Etsebeth, un Senior Lecturer presso la Wits School of Law, specializzato in diritto della protezione dei dati e della sicurezza delle informazioni, dice che la legge POPI è attesa da tempo. "Prima è in pratica, prima potrà arrivare dinanzi ai nostri tribunali e potremo stabilire dei precedenti, " dice Etsebeth. "Sarà la sopravvivenza del più adatto. Se il tuo concorrente è conforme e tu no, non sarai in grado di fidelizzare i tuoi clienti. Le aziende si renderanno conto di quanto valga la loro reputazione".

    Depotenziamento digitale

    Nonostante l'entusiasmo per il potenziale della tecnologia per risolvere alcuni dei nostri problemi più complessi, molti sudafricani sono ancora esclusi da questi progressi. Solo il 40% della popolazione africana ha accesso a Internet rispetto al 61% del resto del mondo. In Sud Africa, la penetrazione di Internet è attualmente del 56%.

    "Nel mondo di oggi, il depotenziamento digitale è una delle forme più profonde di depotenziamento, ", afferma Armstrong. "La depotenziamento digitale è disponibile in tre livelli. Il primo è hai accesso, in secondo luogo lo usi, e terzo sei fidanzato, transazione e impatto? In Sud Africa, non hai accesso se le reti non coprono dove ti trovi, o se non puoi permetterti il ​​dispositivo mobile... o se non puoi permetterti il ​​prezzo dei dati. In tutte queste aree abbiamo una sfida".


    © Scienza https://it.scienceaq.com