Ultimo aggiornamento 3 anni fa
Lo stato mentale dell’emozione è l’ultima frontiera dell’intelligenza artificiale (AI). Se ne occupa l’Affective Computing, un approccio multidisciplinare della computazione, che combina skills e know-how di ingegneria, neuroscienze e psicologia comportamentale.
Si è sempre ritenuto che il confine invalicabile tra gli uomini e le macchine fossero le emozioni. Gartner, la società di consulenza strategica, ricerca e analisi nel campo della tecnologia dell’informazione, afferma il contrario. Prevede che il 10% dei dispositivi personali includerà una forma di tecnologia di riconoscimento delle emozioni entro il 2022.
In questo campo entra in gioco la disciplina dell’Affective Computing con l’obiettivo di unire conoscenze di informatica e psicologia per creare macchine in grado di interpretare – misurare, comprendere e simulare – lo stato emotivo degli esseri umani.
Il primo a utilizzare l’espressione “intelligenza emotiva” è stato lo psicologo Michael Beldoch negli anni ’60, indicando la capacità di riconoscere le proprie emozioni e quelle dell’interlocutore e di reagire ad esse in modo consono ai propri obiettivi.
Quali sono le opinioni più diffuse?
Alcune teorie sull’Affective Computing
Questo concetto lo ritroviamo nel 1995 quando Rosalind Picard, fondatrice e direttrice dell’Affective Computing Research Group del Massachusetts Institute of Technology (MIT) Media Lab, ha affermato:
Le emozioni giocano un ruolo necessario non solo nella creatività e nell’intelligenza umana, ma anche nel pensiero umano razionale e nel processo decisionale. I computer che interagiranno in modo naturale e intelligente con gli esseri umani hanno bisogno della capacità di riconoscere ed esprimere almeno gli affetti.
Ciò significa, per esempio, che il computer potrebbe ascoltare le inflessioni della voce e riconoscere quando sono correlate a stress, rabbia o altri stati d’animo. Allo stesso modo, riuscirebbe ad analizzare le immagini e cogliere leggere sottigliezze nelle micro-espressioni dei volti.
Secondo il professor Erik Brynjolfsson del MIT, invece:
Proprio come possiamo capire la parola e le macchine possono comunicare attraverso la parola, anche noi comprendiamo e comunichiamo con l’umorismo e altri tipi di emozioni. Le macchine in grado di parlare quel linguaggio – il linguaggio delle emozioni – avranno interazioni migliori e più efficaci con noi. È fantastico che abbiamo fatto dei progressi; è solo qualcosa che 20 o 30 anni fa non era un’opzione, e ora è sui nostri tavoli di lavoro.
Questa teoria viene applicata in ambito sanitario dalla NYU School of Medicine in collaborazione con i ricercatori SRI hanno sviluppato uno strumento che diagnostica il Disturbo Post-Traumatico da Stress (PTSD) grazie all’analisi vocale.
È interessante notare come determini emozione, cognizione e salute mentale, analizzando la sola voce dell’oratore. Alla base di tutto, un complesso algoritmo di machine learning classifica marcatori vocali in grado di prevedere il disturbo di un paziente. Quale sarà il prossimo passo?
Vuoi conoscere maggiori dettagli su questi trend e leggere utili consigli per il tuo business? Seguici su LinkedIn!