L’intelligenza artificiale non prova empatia, ma riesce a riconoscere e rispondere alle emozioni umane in modo efficace. E, sorprendentemente, molte persone la percepiscono come più empatica degli esseri umani.
Questo solleva una domanda fondamentale: è più importante che l’empatia sia autentica o che l’effetto sia quello desiderato?
Se c’è un ambito in cui l’essere umano è considerato sicuramente superiore all’intelligenza artificiale, questo è l’esercizio dell’empatia. Si ritiene che l’intelligenza artificiale non possa mai eguagliare un essere umano. Eppure, una ricerca ci ha detto il contrario.
Le persone coinvolte nello studio hanno ricevuto messaggi sia da esseri umani, compresi esperti, sia da un’intelligenza artificiale. Sorprendentemente, hanno giudicato le risposte dell’intelligenza artificiale come più empatiche e compassionevoli. Queste risposte li hanno fatti sentire meglio.
In questo video voglio procedere in questa maniera. Prima di tutto, voglio chiarire un concetto fondamentale: cos’è l’empatia?
Successivamente, affronterò un altro argomento: perché insistiamo nel dire che l’intelligenza artificiale non prova empatia, ma la simula? Questo dettaglio ha davvero importanza? Se l’IA non prova empatia ma riesce comunque a farmi stare meglio, ha senso questa distinzione?
Infine, vedremo cosa significa simulare empatia e analizzeremo i risultati della ricerca. Vi fornirò un riassunto dei dati e condividerò il link alla ricerca, in modo che possiate leggerla direttamente e formarvi un’opinione basata sui dati originali.
Cos’è l’empatia?
Per comprendere meglio il concetto di empatia, facciamo riferimento al libro Questione di cervello di Simon Baron-Cohen. Questo testo è uno dei pilastri della psicologia evoluzionistica. Baron-Cohen ha elaborato una classificazione dettagliata delle emozioni umane e ha scoperto che esistono 412 emozioni discrete, semanticamente distinte l’una dall’altra.
Riconoscere le sottili differenze tra queste emozioni è facile per alcuni, ma molto difficile per altri. Non tutti percepiscono e distinguono le emozioni allo stesso modo. L’empatia è il mezzo attraverso il quale ci sintonizziamo con il mondo degli altri. Provarla significa uscire dal proprio universo personale per comprendere gli altri, dimenticando per un attimo le proprie percezioni e sentimenti.
L’empatia ci spinge ad agire: ad esempio, se assistiamo a un incidente stradale, ci induce a fermarci, prestare soccorso alle vittime e rassicurarle. Nonostante non ne ricaviamo alcun vantaggio diretto, sentiamo comunque il bisogno di aiutarle.
“L’empatia è il mezzo attraverso il quale ci si sintonizza con il mondo degli altri. Provarla significa dimenticare per un attimo il proprio universo personale, con tutti i suoi assunti, sentimenti, percezioni e nozioni. Oltre a permetterci di intuire l’altra parte della medaglia, l’empatia ci induce a curarci degli altri, a consolarli anche se non sono nostri parenti e anche se non ne ricaviamo alcun vantaggio, punto. Sponiamo di assistere a un incidente stradale e di arrivare per primi sulla scena, due punti. L’empatia ci spinge a prestare soccorso alle vittime, controllare come stanno, assicurare loro che non le lasceremo senza assistenza.”
Le componenti dell’empatia
L’empatia si compone di due aspetti principali:
- Cognitivo: la capacità di prevedere il comportamento o lo stato mentale degli altri.
- Affettivo: la capacità di reagire in modo emotivamente adeguato alla situazione dell’interlocutore.
Un elemento fondamentale dell’empatia è la solidarietà, che comporta sia la partecipazione al dolore altrui, sia il desiderio di alleviarlo.
cosa significa che l’intelligenza artificiale non prova empatia, ma la simula?
Empatia umana vs. simulazione artificiale
Abbiamo visto che esistono 412 emozioni diverse, chiaramente definite, ma con confini spesso sfumati. Alcune persone sono più abili di altre nel riconoscerle. Questo significa che il riconoscimento delle emozioni è una questione di schemi.
Gli esseri umani presentano le emozioni attraverso il comportamento, le espressioni facciali e il tono della voce. Alcuni individui riescono a identificare gli schemi emotivi con maggiore precisione di altri. A livello funzionale, si pensa che l’empatia sia legata ai neuroni specchio, che ci permettono non solo di riconoscere le emozioni altrui, ma anche di provarle.
Se, ad esempio, vediamo una persona sofferente perché è stata lasciata dal partner, i nostri neuroni specchio ci inducono a sentire una parte del suo dolore, anche se non stiamo vivendo la stessa esperienza. Questo meccanismo si è evoluto nella nostra specie per favorire la cooperazione e la solidarietà.
L’IA può simulare empatia?
Un confronto utile può essere fatto tra l’intelligenza artificiale e le persone autistiche ad alta funzionalità, come coloro che rientrano nella condizione di Asperger. Queste persone, pur non percependo le emozioni altrui in modo automatico e intuitivo, possono imparare a riconoscerle attraverso l’osservazione e l’analisi di schemi comportamentali. È possibile che questa differenza sia legata a un diverso funzionamento dei neuroni specchio, che nei soggetti neurotipici permettono una risonanza emotiva immediata.
In pratica, mentre un individuo neurotipico “sente” il dolore dell’altro grazie ai neuroni specchio, una persona autistica può comprenderlo razionalmente e decidere comunque di aiutare. La sua risposta, pur non essendo fondata su un’emozione provata, resta comunque funzionalmente efficace.
“Gli autistici sono spesso appassionati difensori delle persone che ritengono vittime di un’ingiustizia. Sotto questo profilo non sono né degli indifferenti né dei crudeli psicopatici che desiderano solo fare del male agli altri. Anzi, quando scoprono di aver involontariamente offeso qualcuno, magari dicendo qualcosa di indelicato, rimangono molto male e non riescono a capire perché la loro azione abbia avuto un simile effetto. In genere non hanno neppure idea di come riparare il torto. Non intendono ferire nessuno; semplicemente, fanno fatica a capire e prevedere i sentimenti, i pensieri e il comportamento degli altri.”
L’intelligenza artificiale si comporta in modo analogo. Non ha neuroni specchio, non prova emozioni e non può provare dolore. Tuttavia, grazie alla sua capacità di analizzare grandi quantità di dati e riconoscere schemi emotivi, è in grado di offrire risposte adeguate, spesso percepite come empatiche dagli utenti.
Questa analogia ci mostra che l’efficacia dell’empatia non risiede necessariamente nella sua autenticità emotiva, ma nella capacità di comprendere e rispondere ai bisogni dell’altro. Se accettiamo che alcune persone siano in grado di fornire supporto emotivo pur non provando l’emozione altrui, possiamo riconoscere che l’intelligenza artificiale, in alcune situazioni, può fare lo stesso.
I risultati della ricerca
La ricerca ha coinvolto 556 partecipanti in quattro esperimenti preregistrati. Le risposte empatiche fornite da GPT, il motore dietro ChatGPT, sono state confrontate con quelle di esseri umani, sia non esperti che professionisti del supporto emotivo.
I risultati hanno sorpreso gli stessi ricercatori:
- Le risposte dell’IA sono state giudicate più compassionevoli rispetto a quelle umane.
- Anche quando i partecipanti sapevano che le risposte provenivano da un’IA, le hanno comunque preferite.
- L’IA è stata percepita come più reattiva, capace di comprendere, validare e rispondere ai bisogni emotivi degli utenti.
Perché l’IA viene percepita come più empatica?
Ci sono alcune ragioni chiave:
- Migliore struttura del linguaggio: l’IA risponde con frasi ben costruite, senza esitazioni.
- Assenza di giudizio: gli esseri umani possono giudicare inconsciamente l’interlocutore. L’IA, invece, risponde senza pregiudizi.
- Disponibilità illimitata: un umano ha limiti di tempo ed energie, mentre un’IA può ascoltare all’infinito.
L’IA può davvero aiutare?
Se da un lato l’IA può fornire conforto immediato, dall’altro sorge un dubbio: può davvero aiutare nel lungo termine?
Un terapeuta umano non si limita ad ascoltare, ma guida il paziente a riflettere e agire per migliorare la propria condizione. Un’IA, invece, rischia di limitarsi a offrire rassicurazioni senza fornire strumenti concreti per affrontare i problemi.
Inoltre, c’è il rischio che le persone si rifugino nell’IA invece di affrontare la realtà. Se parlare con un’IA ci fa sentire meglio ma non ci aiuta a risolvere i problemi alla radice, il suo ruolo è solo di consolazione, non di soluzione.
NOTA
La ricerca citata
https://www.nature.com/articles/s44271-024-00182-6