In questo 21 giugno, foto d'archivio 2018, una telecamera di riconoscimento facciale è vista all'ingresso della dogana all'aeroporto internazionale di Orlando a Orlando, Fla. I computer hanno iniziato a riconoscere i volti umani nelle immagini decenni fa. Ma ora i sistemi di intelligenza artificiale stanno rivaleggiando con la capacità delle persone di classificare gli oggetti in foto e video. Questo sta suscitando un maggiore interesse da parte di agenzie governative e aziende, desiderosi di conferire capacità visive a tutti i tipi di macchine. (Foto AP/John Raoux)
I computer hanno iniziato a riconoscere i volti umani nelle immagini decenni fa, ma ora i sistemi di intelligenza artificiale stanno rivaleggiando con la capacità delle persone di classificare gli oggetti in foto e video.
Questo sta suscitando un maggiore interesse da parte di agenzie governative e aziende, desiderosi di conferire capacità visive a tutti i tipi di macchine. Tra questi:auto a guida autonoma, droni, robot personali, fotocamere e scanner medici in negozio che possono cercare il cancro della pelle. Ci sono anche i nostri telefoni, alcuni dei quali ora possono essere sbloccati con uno sguardo.
COME FUNZIONA?
Gli algoritmi progettati per rilevare le caratteristiche del viso e riconoscere i singoli volti sono diventati più sofisticati dai primi tentativi di decenni fa.
Un metodo comune ha comportato la misurazione delle dimensioni facciali, come la distanza tra il naso e l'orecchio o da un angolo all'altro dell'occhio. Tali informazioni possono quindi essere suddivise in numeri e abbinate a dati simili estratti da altre immagini. Più sono vicini, meglio si abbinano.
Tale analisi è ora aiutata da una maggiore potenza di calcolo e da enormi quantità di immagini digitali che possono essere facilmente archiviate e condivise.
DAI VOLTI AGLI OGGETTI (E ANIMALI)
"Il riconoscimento facciale è un argomento vecchio. È sempre stato abbastanza buono. Quello che ha attirato l'attenzione di tutti è il riconoscimento degli oggetti, "dice Michael Brown, un professore di informatica alla York University di Toronto che aiuta a organizzare la conferenza annuale sulla visione artificiale e il riconoscimento dei modelli.
La ricerca nell'ultimo decennio si è concentrata sullo sviluppo di reti neurali simili al cervello che possono "imparare" automaticamente a riconoscere cosa c'è in un'immagine cercando modelli nei grandi set di dati. Ma gli esseri umani continuano a contribuire a rendere le macchine più intelligenti etichettando le foto, come accade quando gli utenti di Facebook taggano un amico.
Un concorso annuale di riconoscimento delle immagini che è durato dal 2010 al 2017 ha attirato i migliori ricercatori di aziende come Google e Microsoft. Tra le rivelazioni:i computer possono fare meglio degli umani nel distinguere tra le varie razze di corgi gallesi, in parte perché sono più in grado di assorbire rapidamente la conoscenza necessaria per fare queste distinzioni.
Ma i computer sono stati confusi da forme più astratte, come le statue.
LO "SGUARDO CODIFICATO"
Il crescente utilizzo del riconoscimento facciale da parte delle forze dell'ordine ha evidenziato preoccupazioni di lunga data sui pregiudizi razziali e di genere.
Uno studio condotto dall'informatica del MIT Joy Buolamwini ha scoperto che i sistemi di riconoscimento facciale costruiti da aziende tra cui IBM e Microsoft avevano molte più probabilità di identificare erroneamente le persone dalla pelle più scura, soprattutto donne. (Buolamwini ha chiamato questo effetto "lo sguardo codificato".) Sia Microsoft che IBM hanno recentemente annunciato sforzi per rendere i loro sistemi meno distorti utilizzando repository di foto più grandi e diversificati per addestrare il loro software.
© 2018 The Associated Press. Tutti i diritti riservati.