Un computer capace di leggere e interpretare la parte meno codificabile dell’uomo: le sue emozioni, raccontate attraverso il linguaggio del corpo, nelle sue innumerevoli sfaccettature. Quelle che, persino a chi le compie, appaiono impercettibili. È questa la vera frontiera della robotica che l’intelligenza artificiale sta cercando di implementare, con risultati sempre più apprezzabili.

Il filone scientifico che lega macchina e uomo non è di certo nuovo. A fine 2018, l’agenzia di stampa governativa cinese Xinhua News Agency ha creato un avatar sviluppato su due giornalisti in carne e ossa: Qiu Hao per le notizie in cinese e Zhang Zhao per quelle in lingua inglese.

Decodificare le emozioni con la programmazione affettiva

Ora la ricerca, però, si sta muovendo in un terreno ancora più avanzato: quello del riconoscimento in diretta del linguaggio del corpo, all’interno di una logica d’interazione immediata tra uomo e macchina. Si punta attraverso il machine learning a consentire al computer di decodificare il linguaggio umano, e quindi anche le azioni quotidiane, entrando in una connessione diretta con gli esseri umani nelle situazioni reali, quelle della vita di ogni giorno, con tempi di risposta che rasentano l’immediatezza. Un’innovazione che comporta allo stesso tempo grandissime sfide – scientifiche e nel contempo anche filosofiche – e una varietà esponenziale di applicazioni pratiche: è la cosiddetta “programmazione affettiva”, come l’ha definita Rosalind Picard, docente del MIT e pioniera dell’ ”affective computing”.

Fonte: Wikimedia
Autore: Jared C.Benedict

Dal test di Turing ai muscoli facciali

L’interazione sempre più spinta tra uomo e macchina non è, dal punto di vista concettuale, un tema nuovo per ricercatori informatici e scienziati. Fin dal 1950 il grande matematico, logico, crittografo e filosofo inglese Alan Mathison Turing si era chiesto se una macchina potesse assumere il principale “asset” umano: pensare. Nell’articolo “Computing machinery and intelligence” Turing gettò le basi dell’intelligenza artificiale e sviluppò anche un apposito test per stabilire se e quando una macchina sia in grado di comunicare e collegare idee tra loro. Ancora oggi quel test è la pietra miliare di riferimento, e il suo superamento o meno rappresenta le colonne d’Ercole dell’intelligenza artificiale.

Nell’ultima decina d’anni ricercatori, informatici e scienziati, dopo avere risposto in maniera più o meno positiva all’interazione fisica e di movimento tra uomo e macchina, si sono quindi concentrati sulle emozioni. Gli indicatori più utilizzati sono il linguaggio non verbale, il registro vocale e le microespressioni facciali, spesso ignote anche a chi le produce, essendo affidate alle reazioni di ben ventidue muscoli facciali, quelli che in ogni istante determinano la nostra mimica facciale.

La postura, il movimento degli occhi e l’espressioni del viso inviano segnali impercettibili che un bravo osservatore può decifrare e usare a proprio vantaggio. Per capire le reali emozioni e intenzioni dell’interlocutore fino a poterne fare una vera e propria arma psicologica da usare a proprio vantaggio.

In aggiunta a questi indicatori, vengono presi in considerazione una serie di parametri fisiologici, in grado di consentire alla macchina di comprendere lo stato d’animo dell’essere umano che hanno di fronte: si va dal battito cardiaco alla frequenza del respiro, fino all’umidità della pelle. I sistemi valutano i parametri dell’essere umano, andando a confrontarli con il proprio database e stabilendo, in questo modo, una valutazione dello stato emotivo a cui contrapporre la giusta risposta.

Fonte: MaxPixel

Variabili esponenziali per applicazioni potenzialmente sterminate

Il numero di variabili è, ovviamente, sterminato. L’esistenza però di computer capaci di elaborare una quantità vertiginosa di dati al secondo consente di creare modelli impensabili fino a pochissimi anni fa. Altrettanto sterminati sono i campi d’applicazione di queste tecnologie: dai cobot, pensati per interagire lavorativamente con operai e tecnici, all’apprendimento a distanza. Dagli assistenti virtuali come Google Assistant, che attraverso DeepMind legge il labiale e punta a intuire le richieste degli utenti prima che questi le formulino, fino all’aiuto per le persone affette da patologie, come quelle dello spettro autistico, i disturbi del linguaggio e del comportamento o la depressione. Senza dimenticare il lato commerciale, come le possibili applicazioni in campo pubblicitario e dell’entertainment, l’implementazione con gli smartphone e l’uso domestico grazie alla domotica sempre più estrema.

Insomma, il futuro è già qui.