• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Costruire un'IA eticamente allineata

    Credito:CC0 Dominio Pubblico

    Più agenti di intelligenza artificiale vengono impiegati in scenari con possibili situazioni impreviste, più devono essere flessibili, adattivo, e creativi nel raggiungere i propri obiettivi. Così, un certo livello di libertà per scegliere il percorso migliore verso un obiettivo specifico è necessario per rendere l'IA sufficientemente robusta e flessibile da essere implementata con successo in scenari di vita reale.

    Ciò è particolarmente vero quando i sistemi di intelligenza artificiale affrontano problemi difficili la cui soluzione non può essere definita con precisione da un approccio tradizionale basato su regole, ma richiedono approcci basati sui dati e/o di apprendimento sempre più utilizzati nell'IA. Infatti, sistemi di intelligenza artificiale basati sui dati, come quelli che utilizzano l'apprendimento automatico, hanno molto successo in termini di precisione e flessibilità, e possono essere molto "creativi" nel risolvere un problema, trovare soluzioni che potrebbero sorprendere positivamente gli esseri umani e insegnare loro modi innovativi per risolvere una sfida.

    Però, creatività e libertà senza confini possono a volte portare ad azioni indesiderate:il sistema di IA potrebbe raggiungere il suo obiettivo in modi che non sono considerati accettabili secondo i valori e le norme della comunità interessata. Così, c'è una crescente necessità di capire come vincolare le azioni di un sistema di IA fornendo confini entro i quali il sistema deve operare. Questo è di solito indicato come il problema di "allineamento dei valori", poiché tali confini dovrebbero modellare i valori e i principi richiesti per lo specifico scenario di applicazione dell'IA.

    Alla ricerca IBM, abbiamo studiato e valutato due modi per allineare i sistemi di IA ai principi etici:

    • Il primo utilizza lo stesso formalismo per modellare e combinare preferenze soggettive (per ottenere la personalizzazione del servizio) e priorità etiche (per ottenere l'allineamento del valore). Una nozione di distanza tra preferenze e priorità etiche viene utilizzata per decidere se le azioni possono essere determinate solo dalle preferenze o se dobbiamo considerare ulteriori priorità etiche, quando le preferenze sono troppo divergenti da queste priorità.
    • Il secondo utilizza un approccio di apprendimento per rinforzo (all'interno dell'impostazione del problema del bandito) per la massimizzazione della ricompensa e apprende le linee guida etiche da esempi positivi e negativi. Abbiamo testato questo approccio sui consigli sui film con la guida dei genitori, così come la selezione del dosaggio del farmaco con considerazioni sulla qualità della vita.

    Il documento che descrive il nostro approccio generale e i due possibili modi per risolvere il problema dell'allineamento del valore sarà presentato alla prossima conferenza AAAI 2019 e riceverà il premio AAAI 2019 Blue Sky Idea. Può essere trovato qui.

    Questo lavoro fa parte di uno sforzo a lungo termine per capire come incorporare i principi etici nei sistemi di intelligenza artificiale in collaborazione con il MIT. Mentre la ricerca svolta e modella le priorità etiche come vincoli deontologici, il team IBM-MIT sta attualmente raccogliendo dati sulle preferenze umane per modellare il modo in cui gli umani seguono, e passare tra, diverse teorie etiche (come utilitaristica, deontologico, e contrattualista), per poi progettare sia teorie etiche che meccanismi di commutazione, opportunamente adattato, nei sistemi di intelligenza artificiale. In questo modo, tali sistemi potranno essere meglio allineati al modo in cui le persone ragionano e agiscono in base all'etica mentre prendono decisioni, e quindi sarà meglio attrezzato per interagire in modo naturale e compatto con gli umani in un approccio di intelligenza aumentata all'intelligenza artificiale.

    Questa storia è stata ripubblicata per gentile concessione di IBM Research. Leggi la storia originale qui.




    © Scienza https://it.scienceaq.com