Credito:Shutterstock
Ibrahim Diallo sarebbe stato licenziato da una macchina. Notizie recenti hanno riportato la crescente frustrazione che ha provato quando il suo pass di sicurezza ha smesso di funzionare, il suo accesso al sistema informatico è stato disabilitato, e infine è stato allontanato dall'edificio dal personale di sicurezza. I suoi manager non sono stati in grado di offrire una spiegazione, e impotente a prevalere sul sistema.
Alcuni potrebbero pensare che questo sia stato un assaggio delle cose a venire poiché l'intelligenza artificiale ha più potere sulle nostre vite. Personalmente, Ho tratto la conclusione opposta. Diallo è stato licenziato perché un precedente manager non aveva rinnovato il suo contratto sul nuovo sistema informatico e sono entrati in azione vari sistemi automatizzati. I problemi non sono stati causati dall'intelligenza artificiale, ma per la sua assenza.
I sistemi non mostravano alcuna intelligenza basata sulla conoscenza, il che significa che non avevano un modello progettato per incapsulare la conoscenza (come l'esperienza delle risorse umane) sotto forma di regole, testo e collegamenti logici. allo stesso modo, i sistemi non hanno mostrato intelligenza computazionale - la capacità di apprendere dai set di dati - come riconoscere i fattori che potrebbero portare al licenziamento. Infatti, sembra che Diallo sia stato licenziato a causa di un sistema antiquato e mal progettato innescato da un errore umano. L'intelligenza artificiale non è certamente da biasimare - e potrebbe essere la soluzione.
La conclusione che trarrei da questa esperienza è che alcune funzioni delle risorse umane sono mature per l'automazione da parte dell'IA, soprattutto come, in questo caso, l'automazione stupida si è dimostrata così inflessibile e inefficace. La maggior parte delle grandi organizzazioni avrà un manuale del personale che può essere codificato come un manuale automatizzato, sistema esperto con regole e modelli espliciti. Molte aziende hanno creato tali sistemi in una gamma di domini che coinvolgono conoscenze specialistiche, non solo nelle risorse umane.
Ma un sistema di intelligenza artificiale più pratico potrebbe utilizzare un mix di tecniche per renderlo più intelligente. Il modo in cui le regole dovrebbero essere applicate alle sfumature delle situazioni reali potrebbe essere appreso dai registri delle risorse umane dell'azienda, allo stesso modo i sistemi legali di common law come l'uso dei precedenti inglesi stabiliti da casi precedenti. Il sistema potrebbe rivedere il proprio ragionamento man mano che si rendessero disponibili ulteriori prove in ogni caso utilizzando il cosiddetto "aggiornamento bayesiano". Un concetto di intelligenza artificiale chiamato "logica fuzzy" potrebbe interpretare situazioni che non sono in bianco e nero, applicando prove e conclusioni in vari gradi per evitare il tipo di duro processo decisionale che ha portato al licenziamento di Diallo.
La necessità di diversi approcci è talvolta trascurata nell'attuale ondata di entusiasmo eccessivo per gli algoritmi di "apprendimento profondo", complesse reti neurali artificiali ispirate al cervello umano in grado di riconoscere modelli in grandi set di dati. Poiché questo è tutto ciò che possono fare, alcuni esperti stanno ora sostenendo un approccio più equilibrato. Gli algoritmi di deep learning sono ottimi per il riconoscimento di modelli, ma certamente non mostrano una profonda comprensione.
L'utilizzo dell'IA in questo modo ridurrebbe probabilmente gli errori e, quando si sono verificati, il sistema potrebbe sviluppare e condividere le lezioni con l'IA corrispondente in altre aziende in modo da evitare errori simili in futuro. Questo è qualcosa che non si può dire per le soluzioni umane. Un buon manager umano imparerà dai suoi errori, ma è probabile che il prossimo manager ripeta gli stessi errori.
Quindi quali sono gli svantaggi? Uno degli aspetti più sorprendenti dell'esperienza di Diallo è la mancanza di umanità mostrata. È stata presa una decisione, anche se in errore, ma non comunicato o spiegato. Un'intelligenza artificiale può commettere meno errori, ma sarebbe meglio comunicare le sue decisioni? Penso che la risposta sia probabilmente no.
Perdere il lavoro e i mezzi di sussistenza è un momento stressante ed emotivo per chiunque tranne che per i dipendenti più frivoli. È un momento in cui sono richieste sensibilità e comprensione. Così, Io per primo troverei certamente essenziale il contatto umano, non importa quanto sia convincente il chatbot AI.
Un dipendente licenziato può ritenere di aver subito un torto e potrebbe voler impugnare la decisione attraverso un tribunale. Tale situazione solleva la questione di chi fosse responsabile della decisione originaria e di chi la difenderà in diritto. Ora è sicuramente il momento di affrontare le questioni legali ed etiche poste dall'ascesa dell'IA, mentre è ancora nella sua infanzia.
Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.