• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Generare fiducia in un mondo AI

    Sopra (sinistra-destra):il professor SMU David Llewelyn, Vice Preside della SMU School of Law; Professore Associato SMU Warren Chik; Professore Ian Walden, Centro per gli studi di diritto commerciale, Queen Mary University di Londra; Professore Associato SMU Alvin See (che ha presentato il documento del Professore Associato SMU Yip Man per suo conto); Signor KK Lim, Responsabile della sicurezza informatica, Privacy e protezione dei dati, Evershed Harry Elias; e il signor Lanx Goh, Consulente legale senior (privacy e sicurezza informatica) e responsabile globale della protezione dei dati, Tecnologia di viaggio Klook. Attestazione:Kareyst Lin

    Riesci a immaginare un mondo senza playlist Spotify personalizzate, feed di social media curati, o video di gatti consigliati nelle barre laterali di YouTube? Queste comodità moderne, rese possibili dall'intelligenza artificiale (AI), presentano anche una proposta spaventosa:che le macchine potrebbero finire per sapere di più su di noi di quanto sappiamo noi stessi.

    Secondo il sondaggio sull'agenda CIO 2019 di Gartner, Il 37% dei Chief Information Officer (CIO) a livello globale ha già implementato la tecnologia AI nelle proprie organizzazioni. La rapida adozione di soluzioni di intelligenza artificiale porta a focalizzare il modo in cui i dati, che potrebbero consistere in dati sensibili, informazioni riservate e personali:vengono gestite e utilizzate dalle organizzazioni.

    Intervenendo al panel della conferenza su "AI e protezione dei dati:nuovi approcci normativi", Il professore associato della Singapore Management University (SMU) Warren Chik ha fornito la sua prospettiva su come concettualizzare la fiducia nell'era digitale. "Quando si tratta di questioni come i dati personali, non trattiamo l'IA come un dio. Perciò, non possiamo fare affidamento sulla fede, che è ciò che richiede la religione. Abbiamo bisogno di qualcosa di più sostanziale di quello, " Egli ha detto.

    Nel suo discorso intitolato "Intelligenza artificiale e protezione dei dati a Singapore:fiducia dei consumatori, Sicurezza organizzativa e regolamentazione del governo", Il professor Chik ha spiegato che per generare fiducia in una soluzione digitale, è fondamentale che gli utenti siano coinvolti sui problemi coinvolti. "Le persone tendono a temere l'ignoto, ed è difficile avere fiducia in qualcosa che non si conosce."

    Moderato dal Professor David Llewelyn, Vice Preside della Scuola di Giurisprudenza SMU, la tavola rotonda ha visto i relatori il professor Ian Walden, Centro per gli studi di diritto commerciale, Queen Mary University di Londra; Professore Associato Yip Man (il cui lavoro è stato presentato dal Professore Associato Alvin See per suo conto); così come i commentatori Mr KK Lim, Responsabile della sicurezza informatica, Privacy e protezione dei dati, Evershed Harry Elias; e il signor Lanx Goh, Consulente legale senior (privacy e sicurezza informatica) e responsabile globale della protezione dei dati, Tecnologia di viaggio Klook.

    L'intelligenza artificiale come influencer

    La capacità di un sistema di intelligenza artificiale di condurre una profilazione personale potrebbe cambiare radicalmente la personalità digitale di un utente, disse il professor Chik, evidenziando un motivo di preoccupazione per molti.

    "Mentre un'intelligenza artificiale conserva informazioni specifiche come il tuo nome e indirizzo, forma anche la propria conoscenza della tua identità, e chi sei come persona, "Il professor Chik ha detto, citando algoritmi utilizzati dai feed dei social media per raccogliere dati sulla propria identità, interessi e abitudini di navigazione. Da quei dati, il sistema quindi crea un profilo di chi pensano che tu sia.

    "Questi algoritmi, che possono essere giusti o sbagliati, ti forniscono informazioni, articoli e link, e di conseguenza produce un effetto sul tuo pensiero. In altre parole, L'intelligenza artificiale può modellare il comportamento umano, e questo è un rischio che mette a disagio molte persone, " Ha detto il professor Chik. La minaccia è molto reale, ha sottolineato, rilevando che le autorità di regolamentazione hanno chiaramente identificato la necessità di regolamentare l'uso dei dati nell'IA.

    A Singapore, ad esempio, il Protection from Online Falsehoods and Manipulation Act (POFMA) contiene disposizioni penali sulla creazione, uso e alterazione di bot per diffondere informazioni false.

    Legislazione sulla protezione dei dati:un atto di bilanciamento

    Nel tentativo di regolare i dati, ci sono sempre due obiettivi in ​​competizione quando si regola l'uso, raccolta e trattamento dei dati personali. "Il primo obiettivo è proteggere l'interessato, e il secondo è promuovere l'innovazione, " ha detto il professor See, che ha presentato il documento del professor Yip a suo nome.

    Dei diversi tipi di protezione degli interessati oggi esistenti, l'opzione più comunemente disponibile è l'uso di contratti. L'articolo del professor Yip sottolinea che "[il] problema con il tentativo di regolare l'uso dei dati attraverso termini e condizioni è che nella maggior parte dei casi, le persone non leggono [la stampa fine legale]". Il consenso prestato non è quindi genuino.

    Professor Llewelyn, che ha moderato la tavola rotonda, ha aggiunto che il significato del consenso è una questione che deve essere approfondita. "Se un consumatore accettasse integralmente un contratto online senza leggerlo, si può realisticamente affermare che ha accettato tutti i termini e le condizioni, e dato pieno consenso?", chiese. "Forse dovrebbe esserci un riconoscimento legale dato alla natura automatica dell'impegno assunto in tali contratti."

    Una limitazione più critica del contratto come tutela dell'interessato, è che il contratto disciplina solo le informazioni condivise tra le due parti vincolate dal contratto. Ad esempio, se Facebook dovesse trasferire i dati personali di un utente a una terza parte non vincolata dal contratto, la società terza non sarà obbligata a proteggere le informazioni dell'utente.

    Protezione dei dati fin dalla progettazione

    Legge sulla protezione dei dati personali di Singapore (PDPA), che regola i dati personali attraverso l'uso della legislazione, è descritto come un regime leggero che adotta un approccio fortemente bilanciato tra la necessità di protezione della privacy e l'interesse dell'innovazione aziendale.

    L'articolo del professor Yip riconosce che esiste un certo livello di tensione tra i due obiettivi sopra menzionati. Il problema in questione, perciò, è come trovare un equilibrio tra diritti individuali e privacy, e l'interesse concorrente della crescita economica e dell'innovazione, ha notato.

    Alla fine del giorno, il focus è sulla prevenzione, piuttosto che cercare di rimediare a una violazione della privacy dei dati. "Si tratta di riconoscere i diritti dell'individuo e la riservatezza dei suoi dati, e allo stesso tempo, la necessità per le organizzazioni di raccogliere, utilizzare e divulgare i dati personali per scopi legittimi e ragionevoli, " Ha aggiunto il documento del professor Yip.

    Un'altra soluzione che la professoressa Yip ha esplorato nel suo articolo è stata l'uso della tecnologia invece della legge per proteggere gli interessati. In alcuni casi, la privacy può essere direttamente integrata nella progettazione e nel funzionamento dei sistemi operativi, processi di lavoro, infrastrutture di rete e persino spazi fisici. Tuttavia, sottolinea che questa soluzione non è perfetta perché è contro l'interesse delle aziende che sfruttano i dati per realizzare profitti per costruire solide garanzie della privacy nei loro sistemi e modelli di business.


    © Scienza https://it.scienceaq.com