• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Sostenitore dell'integrità algoritmica:le implicazioni dell'interazione umana con la tecnologia

    Credito:Università tecnologica del Michigan

    lo indossiamo, guardalo, lavorarci sopra e può soffrire di ansia da separazione quando non è disponibile. Quali sono le implicazioni dell'interazione umana con la tecnologia, in particolare quando viene utilizzato per prevedere o sorvegliarci?

    Come parte del suo primo programma, Cultura algoritmica, l'Istituto per le Politiche, Etica, and Culture presso la Michigan Technological University ha portato Marika Pfefferkorn, sostenitrice della giustizia sociale e leader di pensiero, al campus per parlare del suo lavoro. In questo Q&A, Pfefferkorn condivide di più sul suo attivismo di base, come si sta diffondendo a livello nazionale e le azioni che spera che la nostra comunità intraprenda in seguito alla sua visita.

    D:Di cosa ti occupi e come ti sei avvicinato a questo lavoro?

    A:Il Minneapolis-St. La Twin Cities Innovation Alliance (TCIA) con sede a Paul è una coalizione che rappresenta un settore trasversale di pubblico, organizzazioni private e comunitarie, corporazioni e istituzioni. TCIA è stata fondata per essere proattiva sull'emergere delle Smart Cities e per impegnarsi in soluzioni imprenditoriali che portino a comunità connesse. Ci concentriamo sull'importanza e il ruolo dei dati nei domini delle Smart Cities, compresa l'istruzione, governo, infrastrutture e trasporti.

    I dati sono come l'ossigeno per le Smart City, e ci siamo resi conto fin dall'inizio che era ed è imperativo condividere con i membri della comunità le promesse ei pericoli che esistono a causa dell'uso dei loro dati. Ora il nostro lavoro si sta espandendo a livello nazionale.

    D:Cosa ti ha interessato del pregiudizio intrinseco negli algoritmi predittivi?

    R:Nel 2018, 43 distretti scolastici del Minnesota sono stati identificati dal Dipartimento dei diritti umani del Minnesota per aver discriminato i neri, studenti marroni e indigeni in sospensioni soggettive fuori dalla scuola. Quando la contea di Ramsey, le scuole pubbliche della città di St. Paul e St. Paul hanno stipulato un accordo sui poteri congiunti con condivisione integrata dei dati, hanno proposto di applicare l'analisi predittiva e di utilizzare una valutazione del rischio per assegnare un punteggio di rischio per segnalare i bambini a rischio per un futuro coinvolgimento con il sistema di giustizia minorile. Quando ho saputo che avevano proposto di utilizzare le sospensioni extrascolastiche come indicatore per la loro valutazione dei rischi, Ero preoccupato perché i dati che avrebbero inserito erano errati e di pregiudizi razziali nei confronti degli studenti di colore e degli studenti che ricevevano servizi di istruzione speciale. Ho riconosciuto che i decisori e i responsabili politici non avevano svolto la dovuta diligenza per proteggere i nostri studenti da profili razziali o etichette stigmatizzanti che li avrebbero seguiti ben oltre la loro istruzione K-12.

    D:Hai scoperto che sia le famiglie che potrebbero essere interessate da un algoritmo problematico sia i funzionari che hanno sostenuto l'accordo sulla condivisione dei dati come un modo più efficace ed efficiente per aiutare le loro comunità avevano lacune nelle conoscenze e/o si sentivano intimiditi nel discutere di tecnologia digitale. In che modo la coalizione che hai organizzato ha lavorato per fornire informazioni alle persone?

    R:Una volta riconosciuto che nessuno aveva veramente compreso le implicazioni di un accordo così ampio sui poteri congiunti, la Coalition to Stop the Cradle to Prison Algorithm ha investito tempo nella scomposizione del documento pezzo per pezzo:se avessimo domande da fare, se avevamo dubbi li nominavamo e se avevamo bisogno di chiarezza accedevamo alla nostra rete di comunità e contattavamo partner come l'ACLU del Minnesota e Data for Black Lives. Come abbiamo appreso, abbiamo creato strumenti che tutti possono utilizzare come catalizzatore per conversazioni più costruttive. Un esempio di ciò è il brief politico che abbiamo creato e condiviso con i nostri funzionari eletti e le parti interessate per spiegare le nostre preoccupazioni ed evidenziare gli aspetti problematici dell'accordo. Abbiamo coinvolto i genitori come ambasciatori e sostenuto i loro sforzi per diffondere il messaggio. Abbiamo ospitato più vertici della comunità e forum che hanno posizionato altri membri della comunità come esperti per parlare di cosa stava succedendo e delle loro preoccupazioni. Abbiamo ospitato una clinica Dare to Data e un workshop di improvvisazione algoritmica per aiutare a interrompere gran parte dell'intimidazione che i nostri membri della comunità hanno provato quando navigano nel linguaggio legale o tecnico con funzionari eletti e responsabili politici.

    D:Le persone potrebbero avere l'impressione che tu sia anti-dati. È questo il caso?

    R:Rido quando le persone pensano che io sia anti-dati perché gran parte del mio lavoro si basa sull'accesso a dati validi per raccontare l'intera storia. Per molte persone in questo lavoro, non c'è problema, a meno che tu non possa dimostrare che c'è un problema con i dati. Gran parte del mio lavoro sulle disparità disciplinari richiede che io sostenga una maggiore raccolta di dati sulle sospensioni, rinvii d'ufficio ed espulsioni; la mia preoccupazione sarà sempre come proteggere i dati degli studenti da usi impropri e abusi:il perché è davvero importante.

    D:A volte sembra che molti di noi passino semplicemente da un computer all'altro, dai nostri orologi e auto ai nostri assistenti domestici. Come pensi che sia un rapporto corretto con la tecnologia?

    R:Un corretto rapporto con la tecnologia inizia con la comprensione che la tecnologia è uno strumento e ricordare la nostra umanità viene prima di tutto. La tecnologia non è la pallottola d'argento, la tecnologia non è la risposta a tutto, e la tecnologia devono essere mantenute nella giusta prospettiva, non deferito a neutrale, sopra domanda. Più importante, il ruolo della tecnologia deve essere reso trasparente.

    D:Titoli recenti, comprese le accuse di pregiudizio di genere sulla carta di credito e la raccolta di punteggi finanziari "segreti" (pagine e pagine di dati, basati su tutto, dagli ordini di cibo da asporto alle abitudini di guardare la TV) rivelano quanta poca privacy abbiamo in realtà. La privacy è possibile in un'era algoritmica?

    R:Siamo a un punto di svolta nella nostra democrazia in cui le persone sono disposte a regalare il bambino con l'acqua sporca senza comprendere veramente l'impatto a lungo termine della privacy in un'era algoritmica. Le aziende tecnologiche puntano su questo. Credo che sia il ruolo dei genitori, educatori, distretti scolastici, stati e il governo federale per equipaggiare meglio le persone per comprendere e navigare in questa nuova era tecnologica, in particolare i nostri nativi digitali che non sanno diversamente. Un'educazione di massa deve essere una priorità se vogliamo proteggere le protezioni della privacy che esistono. Non possiamo dare per scontata la nostra privacy.

    D:Hai incontrato docenti, studenti e personale all'inizio di questo mese. Quali sono alcune delle interazioni più significative che hai avuto nel campus?

    R:Mi è davvero piaciuta la mia visita in Michigan Tech. Ho imparato così tanto sull'Institute for Policy, Etica, e Cultura dai membri del comitato fondatore che ho incontrato:ho sentito la loro visione dell'IPEC prendere vita mentre descrivevano il lavoro che sperano di realizzare. Spero di avere l'opportunità di continuare a lavorare con loro mentre lanciano questo lavoro.

    La mia parte preferita della visita è stata coinvolgere gli studenti in una classe di diritto e società, e incontro con docenti e studenti di informatica. Sebbene molti degli studenti con cui ho interagito possano avere una visione del mondo molto diversa, attraverso la nostra narrazione e discussione ho trovato un terreno comune e un genuino interesse per i temi dei big data, analisi e algoritmi predittivi. Mi sono anche allontanato con una nuova lista di letture. Ho scoperto che alla maggior parte degli studenti importava davvero, ha posto grandi domande ed è stato coinvolto nella conversazione perché ha creato una connessione personale tra teoria ed esperienza di vita reale.

    D:Qual è la cosa che hai portato alla nostra comunità che speri rimarrà con noi?

    A:Condivisione dati integrata, l'applicazione dell'analisi predittiva e l'uso di algoritmi non è una pratica nuova, ma i membri della comunità devono essere consapevoli e preparati a partecipare alle discussioni e ai processi decisionali sul loro utilizzo per garantire che i risultati non siano separati dalle comunità che intendono servire e per sapere che alcuni studenti sono influenzati più negativamente dagli altri. Quando si parla di dati e sistemi, we must recognize the harm that communities have experienced in the misuse of data and systems, and the individuals that represent them must do everything in their power to repair that harm and begin to build trust before any next steps are taken.

    Q:What's next for your projects?

    A:The Twin Cities Innovation Alliance has launched the Data for Public Good Campaign to work side by side with communities to identify emerging technological trends in education across the country for the purpose of creating a heat map to follow the development, resources and policies at play. We will convene these community co-researchers to identify recommendations and guidelines from a community perspective as another tool for communities to use in protecting individual data and ensuring trust between systems and communities.


    © Scienza https://it.scienceaq.com