• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Utilizzo di una patch contraddittoria stampata per ingannare un sistema di intelligenza artificiale

    A sinistra:la persona senza patch è stata rilevata con successo. A destra:la persona che tiene il cerotto viene ignorata. Attestazione:arXiv:1904.08653 [cs.CV]

    Un trio di ricercatori dell'Università di KU Leuven in Belgio ha scoperto che è possibile confondere un sistema di intelligenza artificiale stampando una determinata immagine e tenendola contro il proprio corpo mentre il sistema di intelligenza artificiale cerca di identificarli come esseri umani. Simen Thy, Wiebe Van Ranst e Toon Goedemé hanno scritto un documento che descrive i loro sforzi e lo hanno caricato su arXiv server di prestampa. Hanno anche pubblicato un video su YouTube che mostra ciò che hanno realizzato.

    Affinché un sistema di intelligenza artificiale impari qualcosa, come identificare oggetti (compresi gli esseri umani) in una scena, deve essere addestrato:l'addestramento implica mostrargli migliaia di oggetti che rientrano in determinate categorie fino a quando non emergono modelli generali. Ma come la ricerca precedente ha suggerito, tali sistemi possono a volte diventare confusi se viene loro presentato qualcosa che non sono stati addestrati a vedere. In questo caso, un'immagine 2D di persone in possesso di ombrelli colorati. Tali immagini ingannatrici dell'IA sono note come patch contraddittori.

    Man mano che i sistemi di intelligenza artificiale diventano più accurati e sofisticati, i governi e le aziende hanno iniziato a usarli per applicazioni del mondo reale. Un'applicazione ben nota utilizzata dai governi consiste nell'individuare individui che potrebbero creare problemi. Tali sistemi sono addestrati a riconoscere la forma umana:una volta che ciò accade, è possibile attivare un sistema di riconoscimento facciale. Ricerche recenti hanno dimostrato che i sistemi di riconoscimento facciale possono essere ingannati dagli utenti che indossano occhiali appositamente progettati. E ora sembra che i sistemi di intelligenza artificiale per l'individuazione umana possano essere ingannati dalle immagini poste davanti alle loro forme.

    Nel tentativo di ingannare un particolare sistema di intelligenza artificiale chiamato YoLo (v2), i ricercatori hanno creato o modificato vari tipi di immagini che hanno poi testato con il sistema di intelligenza artificiale finché non ne hanno trovata una che funzionava particolarmente bene:un'immagine di persone con in mano ombrelli colorati che era stato alterato ruotandolo e aggiungendo rumore. Per ingannare il sistema di intelligenza artificiale, la fotografia è stata tenuta in una posizione che occupava la scatola che il sistema di intelligenza artificiale ha costruito per determinare se un dato oggetto fosse identificabile.

    I ricercatori hanno dimostrato l'efficacia della loro patch contraddittoria creando un video che mostrava le scatole disegnate dal sistema di intelligenza artificiale mentre incontrava oggetti nel suo campo visivo e poi pubblicava loro etichette identificative. Senza la patch, il sistema identificava molto facilmente le persone nel video come esseri umani, ma se uno di loro teneva il cerotto sulla parte centrale, il sistema AI non era più in grado di rilevare la loro presenza.

    © 2019 Scienza X Rete




    © Scienza https://it.scienceaq.com