Credito:CC0 Dominio Pubblico
L'evidenza suggerisce che l'interfaccia tra l'uomo e la tecnologia diventerà solo più centrale nella vita moderna.
Affinché gli esseri umani siano in grado di estrarre informazioni significative dai dati raccolti dalle macchine "intelligenti" con cui interagiamo, come i telefoni cellulari, i computer devono essere in grado di elaborare il linguaggio come gli umani. Il ramo dell'intelligenza artificiale che risponde a questa esigenza si chiama elaborazione del linguaggio naturale.
Un documento intitolato "Algoritmi nell'emergere storico dei sensi delle parole"—che appare oggi online nel Atti dell'Accademia Nazionale delle Scienze ( PNAS )—è il primo a guardare 1, 000 anni di sviluppo dell'inglese e rileva i tipi di algoritmi che le menti umane hanno utilizzato per estendere le parole esistenti a nuovi significati. Questo tipo di "reverse engineering" di come si è sviluppato il linguaggio umano potrebbe avere implicazioni per l'elaborazione del linguaggio naturale da parte delle macchine.
"Per comunicare con successo con gli umani, i computer devono essere in grado di usare le parole in modo flessibile ma seguendo gli stessi principi che guidano l'uso del linguaggio da parte degli esseri umani, " spiega Barbara Malto, Direttore del Cognitive Science Program alla Lehigh University e uno dei collaboratori del progetto.
Secondo Malto, le parole accumulano famiglie di sensi correlati nel corso della storia. Ad esempio, la parola "faccia" originariamente significava la parte anteriore di una testa, ma col tempo venne a significare anche la parte anteriore di altri oggetti, come la 'faccia' della scogliera, e uno stato emotivo, come mettere su una "faccia" coraggiosa.
"Questo lavoro, "dice Malto, "era finalizzato a indagare i processi cognitivi che creano queste famiglie di sensi".
Il team, incluso il ricercatore capo Yang Xu, un linguista computazionale dell'Università di Toronto e Mahesh Srinivasan, assistente professore di psicologia presso l'Università della California Berkeley, insieme allo studente di Berkeley Christian Ramiro, ha identificato un algoritmo chiamato "concatenamento del vicino più vicino" come il meccanismo che meglio descrive il modo in cui i sensi delle parole si accumulano nel tempo.
Nel "concatenamento del vicino più vicino" i punti di input vengono analizzati come una gerarchia di cluster. Il modello dei ricercatori ha catturato il processo di concatenamento che si verifica quando le idee emergenti vengono espresse usando la parola con il senso esistente più strettamente correlato. Questo modello di concatenamento si adatta meglio al modello storico dell'emergenza dei sensi rispetto ai modelli alternativi.
"È una domanda aperta come gli algoritmi che abbiamo esplorato qui possano essere applicati direttamente per migliorare la comprensione delle macchine dell'uso di un nuovo linguaggio, "dice Xu.
Dopo aver sviluppato gli algoritmi di calcolo che prevedevano l'ordine storico in cui sono emersi i sensi di una parola, il team ha testato queste previsioni rispetto ai record di inglese nel corso del millennio passato utilizzando il Thesaurus storico dell'inglese, un grande database in cui ciascuno dei molti sensi di una parola è contrassegnato per la sua data di nascita nella lingua.
I loro risultati suggeriscono che i sensi delle parole emergono in modi che riducono al minimo i costi cognitivi, quali sono i costi collettivi di generazione, interpretare e apprendere i sensi delle parole. In altre parole, nuovi sensi delle parole emergono attraverso un meccanismo efficiente che esprime nuove idee attraverso un insieme compatto di parole.
"Quando le idee emergenti sono codificate in inglese, è più probabile che vengano codificati estendendo il significato di una parola esistente che attraverso la creazione di una nuova parola, " dice Malt. "Un'idea popolare potrebbe essere che quando hai una nuova idea devi inventare una nuova parola per essa, ma abbiamo scoperto che questa strategia è in realtà meno comune."
L'anno scorso, lo stesso team è stato il primo a identificare una serie di principi che governano un altro aspetto dello sviluppo del linguaggio:la mappatura metaforica.
Nell'ultimo millennio, i sensi delle parole si sono ampiamente evoluti da domini letterali a domini metaforici, chiamati mappatura metaforica. Parole che originariamente avevano solo un significato concreto o esterno (come "afferrare" un oggetto fisico) sono cresciute fino ad avere significato nei regni dell'astratto e dell'interno (come "afferrare" un'idea). Il gruppo è stato il primo a dimostrare che questa progressione ha seguito un insieme compatto di principi psicologici e cognitivi e che il movimento attraverso i regni può essere previsto.
I risultati del gruppo sono stati pubblicati su Cognitive Psychology in un articolo intitolato "Evoluzione dei significati delle parole attraverso la mappatura metaforica:sistematicità nell'ultimo millennio".
"Insieme, i nostri studi stanno cominciando a dimostrare che i modi in cui le parole hanno sviluppato nuovi significati non sono arbitrari, ma riflettono invece le proprietà fondamentali di come pensiamo e comunichiamo tra di noi, " spiega Mahesh Srinivasan, Assistant Professor di Psicologia e direttore del laboratorio di sviluppo linguistico e cognitivo presso l'UC Berkeley