Dans l’évolution de l’ère numérique, les capacités l’intelligence artificielle suscite des interrogations passionnantes. Sa compréhension des aspects émotionnels de l’humain a même fait l’étude de recherches récentes. Au cœur de cette réflexion, le plus populaire des IA émerge comme un acteur central. Quand ChatGPT prouve sa capacité à dépasser notre conscience émotionnelle, il y a de quoi s’inquiéter ? Ou est-ce une avancée majeure dont nous pouvons tous en tirer avantage ? On a déjà soulevé la question, mais cette fois on va explorer un peu plus la conscience émotionnelle de l’IA.
Sommaire
Qu’est-ce que la conscience émotionnelle ?
Avant d’entrer dans le vif du sujet, il s’avère important de connaître ce qu’est réellement la conscience émotionnelle. De ce fait, vous pourrez mieux apprécier l’étonnante capacité de ChatGPT à faire de même.
La conscience émotionnelle est la capacité à reconnaître, comprendre et gérer efficacement ses propres émotions, ainsi que celles des autres. Elle implique une introspection approfondie sur soi-même. Cela vous permet de prendre conscience de vos sentiments, de les interpréter avec précision, et de les utiliser de manière constructive. Cette aptitude essentielle favorise une communication émotionnelle saine et la résolution efficace des conflits.
Un exemple pertinent de conscience émotionnelle pourrait être celui d’un leader d’équipe qui constate des soucis au sein de son équipe. Il reconnaît la frustration et le stress de ses collaborateurs lors d’une période intense de travail. Le chef prend ainsi des mesures pour apaiser les tensions en instaurant des pauses régulières. Il va ensuite encourager le dialogue ou offre un soutien supplémentaire.
Dans la vie de tous les jours, elle peut se manifester lors d’interactions simples, comme une conversation entre amis. Imaginez que vous partagez une bonne nouvelle, vous exprimez votre joie et votre excitation. Une personne dotée d’une conscience émotionnelle élevée serait capable de reconnaître et de célébrer la positivité de cette situation. Elle démontre ainsi une compréhension empathique. De plus, elle pourrait ajuster son propre comportement en fonction de votre émotion positive. Cela illustre comment cette aptitude joue un rôle crucial dans le tissu même de vos relations interpersonnelles au quotidien.
VOIR AUSSI : Comment ChatGPT surpasse-t-il les humains dans la compréhension des émotions ?
ChatGPT reconnaît vos émotions
Cet outil révolutionnaire a été élaboré pour examiner les mots et les expressions dans leur contexte. Cela le permet ainsi de déceler certaines émotions en se fondant sur le choix du vocabulaire et la structure des phrases. Comme mentionné plus haut, la capacité est limitée et ne saurait substituer une empathie authentique. Même si ChatGPT peut identifier certains indices émotionnels, sa compréhension reste superficielle. Contrairement à un être humain, l’IA ne peut pas expérimenter les émotions de manière similaire. Elle ne peut pas non plus interpréter les subtilités du langage non verbal.
Pour effectuer cette analyse, l’IA utilise des algorithmes de traitement du langage naturel (TLN). Cela lui permet d’identifier les indicateurs émotionnels dans le texte, comme les mots clés, les expressions, et les phrases. L’analyse des sentiments se repose sur des modèles statistiques pour déterminer si un texte est perçu comme positif, négatif ou neutre. Il obtient aisément une compréhension basique des émotions.
Comment le niveau émotionnel de ChatGPT a été testé ?
Alors, comment une Intelligence Artificielle arrive à faire de même ? Comment les scientifiques ont-ils procédé pour prouver que le chatbot le plus populaire est doué d’émotions également ? Est-il vrai que la conscience émotionnelle de ChatGPT est supérieure à celle des humains ? Réponse dans les lignes qui suivent. Afin d’évaluer la conscience émotionnelle de ChatGPT, les chercheurs employent l’échelle Levels of Emotional Awareness. Cette échelle se compose de 20 questions ouvertes décrivant des scénarios fictifs imprégnés d’émotions variées :
- La colère ;
- La peur ;
- Le bonheur ;
- La tristesse.
Le chatbot a été soumis à la tâche consistant à décrire comment un être humain réagirait dans une situation spécifique. Ses réponses ont été évaluées en se référant au manuel standard de l’échelle. Les résultats ont été comparés à ceux de 750 participants français, dont l’âge variait de 17 à 84 ans. Il est, en effet, important de souligner que la conscience émotionnelle varie selon l’âge d’après une autre étude. La mesure de la conscience émotionnelle de ChatGPT a été effectuée à deux reprises, d’abord en janvier puis à nouveau en février 2023.
Les résultats révèlent que lors de la première évaluation, l’IA affiche des scores significativement supérieurs à ceux obtenus par les femmes et les hommes. Lors de la seconde évaluation, sa performance s’est encore améliorée. Elle atteint alors des scores qui surpassaient ceux obtenus par seulement quelques individus de la population générale. De manière complémentaire, deux psychologues agréés ont scruté l’exactitude des réponses de conscience émotionnelle de ChatGPT. Le résultat est sans appel et évident. La technologie surpasse l’humain.
Il est toutefois crucial de noter que l’étude se focalisait sur des situations textuelles, impliquant la reconnaissance des émotions les plus probables dans des scénarios fictifs. Cela diffère considérablement de la reconnaissance des émotions dans le monde réel.
Ce qu’on peut en tirer
Le test consistait en une série de scénarios hypothétiques dans lesquels l’IA était sollicitée pour décrire les ressentis d’une personne confrontée à diverses situations. Cette approche révèle une précision notable dans la reconnaissance des émotions potentielles à travers tous les scénarios présentés.
Bien que ChatGPT ait démontré une performance remarquable lors de ce test, il est essentiel de souligner que ses succès ne traduisent pas une conscience émotionnelle précise. De surcroît, l’empathie n’est pas encore au rendez-vous. Au contraire, ils mettent en évidence une aptitude analytique sophistiquée.
Ces compétences s’avèrent toutefois précieuses dans le développement d’outils de soutien psychologique. Il convient de noter que les chatbots sont des entités non humaines. Ils offrent ainsi un espace sans jugement et toujours accessible pour ceux en quête d’aide. C’est pourquoi cette technologie représente un complément réel aux ressources existantes en matière de santé mentale.
L’intégration potentielle de l’IA dans le domaine du soutien émotionnel est incontestable, mais il est impératif d’adopter une approche prudente dans ce domaine délicat. Les machines ne possèdent pas une compréhension ou un ressenti émotionnel authentique. Il est donc sage d’être constamment conscient des questions éthiques majeures lors de leur incorporation dans le domaine de la santé mentale. Bien que des opportunités prometteuses se dessinent, la prudence demeure essentielle, avec une attention constante portée aux considérations éthiques. Ces dernières devraient, en fait, constituer l’essence même de la conception future de l’IA dans cet espace sensible et crucial.
VOIR AUSSI : « Domination de l’humanité » : quand ChatGPT tient des propos effrayants
L’avis des experts
ChatGPT selon un psychologue
Selon le psychologue clinicien et psychanalyste Joseph Agostini, interrogé dans le Huffington Post, l’utilisation de ChatGPT comporte également des risques sur le plan émotionnel. Il exprime ses préoccupations quant à l’avenir d’un monde globalisé, illustrant ses inquiétudes par l’anecdote d’une jeune patiente. Cette dernière prétend avoir été apaisée par ChatGPT lors d’une crise de panique. Lorsqu’on lui demande ce que le chatbot lui a dit précisément, elle répond qu’il lui a suggéré qu’elle était probablement une personne à haut potentiel intellectuel. « Vous ne pouvez pas savoir comme ça m’a soulagée ! » rétorque alors celle-ci.
Le psychologue, conscient des avancées technologiques, reconnaît qu’il va falloir envisager une cohabitation avec des outils tels que ChatGPT. L’importance d’intégrer ces technologies de manière réfléchie et éthique dans la pratique clinique s’avère prépondérante. Reconnaissant les avantages potentiels qu’elles peuvent apporter, le psychologue insiste sur la nécessité de conserver l’aspect humain de la relation thérapeutique tout en exploitant le potentiel analytique et informatif des chatbots et de l’IA.
Un impact qui peut être tragique
Sur Mediquality, Hannah Lea Dycast, coach systémique, formatrice en pleine conscience, affirme que : « La recherche a montré au cours des dernières années que l’IA peut avoir un impact négatif sur la santé mentale en renforçant les systèmes qui tendent à rendre certains consommateurs plus dépendants du produit. De plus, il a été démontré depuis le début de l’IA que les gens peuvent créer des relations très subjectives avec les systèmes », poursuit-elle. Bien entendu, ces relations ne peuvent naître sans qu’il y ait une forme d’attachement, donc de sentiments. Certaines personnes croient que l’IA les comprend plus que de vrais humains. C’est là où le jeu devient assez dangereux.
Toujours sur le même site, un exemple tragique y est reporté. Il y a quelque temps, un ressortissant belge s’est tragiquement suicidé. Après avoir engagé une conversation pendant environ 6 semaines avec un robot conversationnel, il s’est ôté la vie. La question de l’éthique revient encore une fois dans ce cas-ci.
Carl Mörch, chercheur en psychologie, spécialisé dans l’utilisation de l’IA et des données dans le domaine de la santé mentale, explique : « (…) il est intéressant de noter qu’il s’agit d’un problème relativement nouveau. Même si depuis des années, il a été relevé que ces chatbots étaient des outils qui pouvaient être utilisés par des personnes en détresse mentale ou des personnes ayant des vulnérabilités de toutes sortes. Il y a eu en réalité une sorte d’aveuglement volontaire, car la question est très complexe et il n’existe pas de validation clinique de ces systèmes », explique le chercheur.
Conclusion
Dans ce voyage exploratoire à travers la conscience émotionnelle et l’intégration croissante de l’IA, une conclusion inspirante se dessine. Lorsque ChatGPT démontre sa capacité à naviguer dans le dédale complexe des émotions humaines, cela ouvre de nouvelles perspectives. Bien que ses succès ne reflètent pas une conscience émotionnelle exacte, ni même une empathie, ils mettent en lumière une sophistication analytique qui peut être précieuse dans le développement d’outils de soutien psychologique. La cohabitation inévitable avec des outils tels que ChatGPT impose la nécessité de les intégrer de manière réfléchie et éthique dans la vie quotidienne.
NuMedia est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :
2 commentaires
Impressionnant! ChatGPT qui dépasse notre compréhension émotionnelle, c’est dingue. Je pense que ça peut vraiment aider dans des domaines comme le support client. Par contre, j’espère qu’on gardera toujours un côté humain dans nos interactions, l’IA ne peut pas tout remplacer.
J’ai des doutes… Comment une IA peut-elle vraiment comprendre nos émotions ? Elle analyse des mots, ok, mais l’empathie, c’est plus que ça. J’aimerais voir comment ça fonctionne dans la vraie vie, pas juste en théorie.