HR EXPERT
& COACH

Emotional AI e l’orso trentino

Che c’entra l’orso, dirai… tre minuti di lettura e ci arrivo.

Emotional AI e l'orso trentino

Riguardo il mio cellulare e quei puntini su un grafico. Penso. Collego i puntini, una mia mania questa, e ripenso alla stimolante cena di ieri con McKinsey e Workday e noi ospiti, tra questi Riccardo Bui, General Manager di Humanitas e Matteo Santoro, General Manager del Gruppo GPI. 

Ripenso alle discussioni di ieri sera nel ristorante di Andrea Aprea (una incredibile esplosione di gusto tra le altrettanto gustose argomentazioni sull’AI) e riguardo lo schermo del mio cellulare: il mio grafico di salute mentale è lì.

Già, perché fino ad oggi, per misurare il mio stato mentale, tenevo traccia del mio stato emotivo sull’app Salute, indicando anche le emozioni collegate a una giornata piacevole, molto spiacevole o anche spiacevole, e potendo anche scrivere una breve nota su a cosa fosse legata quella sensazione di piacevolezza: impegni, lavoro, partner, salute, famiglia, ecc. Dopo un mese di mio “tracciamento”, devo dire che la sensazione di avere una visione più reale del mio stato mentale era più nitida. Magari stai passando un periodo negativo e pensi che tutto sia negativo, poi ti accorgi che di negativo c’erano solo alcuni giorni e che non è sempre tutto così difficile. Credetemi, con un ragazzo in piena pubertà i fattori che possono influenzarti sono molti! 😉

Nell’app Salute, questi dati raccolti giornalmente tramite il mio inserimento si collegano poi al mio battito cardiaco (visto che ho un Apple Watch) ma anche alle ore di sole e a quanto movimento ho fatto (in questo mese, con il braccio ingessato, gran poco e sto andando fuori di testa). E già mi sembrava un passo enorme, poi ho provato l’app di NuraLogix e… sono sbalordita! In 30 secondi mi dice lo stato mentale e fisico di quel giorno e, se oggi sono più stanca, che la mia pelle dimostra qualche anno in più per correre ai ripari e farmi la maschera serale! E questo mi fa riflettere…

Emotional AI: nuove frontiere dell’empatia digitale

In un’era di trasformazione, l’Emotional AI sta tracciando decisamente un nuovo percorso dove pochi ne sono ancora consapevoli. Questi strumenti avanzati non sono solo software; sono ponti per comprendere le emozioni umane in un modo che una volta apparteneva al regno della fantascienza.

Aziende come Hume AI, Entropik Tech e Affectiva sono in prima linea, utilizzando l’intelligenza artificiale per comprendere le emozioni umane fondendo psicologia e tecnologia avanzata. Entropik sta trasformando le interazioni brand-consumatore analizzando risposte cognitive ed emotive per ottenere approfondimenti sul comportamento dei consumatori. Le applicazioni dell’Emotional AI si estendono oltre il marketing alla sanità e ad altri settori, con aziende come quella di NuraLogix che ho provato e che impiegano metodi innovativi per la valutazione emotiva, con significative implicazioni per la salute mentale e la diagnostica.

Tuttavia, l’avanzamento di questa tecnologia solleva importanti questioni etiche e di privacy, in particolare riguardo al consenso e alla sicurezza dei dati. È essenziale un uso responsabile ed etico dell’Emotional AI.

Etica e innovazione: tra responsabilità e progresso

Giganti tecnologici come Microsoft, HireVue e Nielsen hanno interrotto le loro API di codifica facciale a causa delle complesse considerazioni etiche e di privacy. La decisione di Microsoft di interrompere la sua API di riconoscimento emotivo nel 2022 riflette un cambiamento nell’approccio alle tecnologie sensibili.

Microsoft ha collaborato con ricercatori per comprendere le limitazioni e i benefici della tecnologia, sollevando importanti domande sulla privacy e l’incapacità di generalizzare il collegamento tra espressione facciale e stato emotivo. L’accesso alle API che prevedono attributi sensibili può essere abusato, portando a stereotipi e discriminazioni, ha detto Sarah Bird, la product manager responsabile di Microsoft.

La decisione di queste aziende di interrompere le API di codifica facciale segnala una crescente consapevolezza delle implicazioni del riconoscimento delle emozioni. Solleva questioni cruciali sull’accuratezza, l’uso etico e i bias nei sistemi AI.

Guardando avanti: Emotional AI e diagnosi precoce

Il potenziale dell’Emotional AI è vasto, e non parliamo solo di riconoscimento facciale ma anche di quello della voce ad esempio. Tutto ciò può portare a progressi nella personalizzazione delle esperienze dei clienti, migliorare i trattamenti per la salute mentale (e non solo) e creare interazioni uomo-macchina più empatiche. Tuttavia, dobbiamo navigare con attenzione tra pratiche etiche, trasparenza e rispetto per la privacy, e su questo non pongo alcun dubbio.

Se però le restrizioni sulla privacy in Italia, che sono tra quelle più rigide, mi impedissero di fare una diagnosi precoce, sarei disposta ad andare all’estero per farmi curare? Io certamente sì. Ecco perché è fondamentale trovare un equilibrio tra tutela della privacy e utilizzo di queste tecnologie con consenso esplicito. 

Altrimenti, rischiamo di trovarci come lo skyrunner francese attaccato dall’orso qualche giorno fa perché da noi lo spray anti orso è vietato ed utilizzabile solo dalle guardie forestali mentre in Canada nel parco di Jasper quasi te lo infilano nello zaino!

NEWSLETTER

Se questo articolo ti è piaciuto iscriviti alla mia newsletter e una volta al mese riceverai un aggiornamento di tutti gli articoli che ho scritto e tanto altro! 😃

Newsletter
Tag:
Categoria:
Condividi:
Ultime notizie:
Torna in alto