À l'ère numérique, l'IA est devenue un allié inattendu contre la solitude. Alors que nous nous immergeons de plus en plus dans le monde numérique, l'intelligence artificielle se met en avant pour offrir compagnie et thérapie psychologique. Mais l'IA peut-elle vraiment remplacer la compagnie humaine?
Le psychothérapeute Robi Ludwig a récemment parlé à CBS News plus tôt cette semaine de l'impact de l'IA, surtout maintenant que les outils d'IA sont devenus un refuge pour une partie des 44 millions d'Américains qui luttent contre une solitude importante.
«Nous avons vu que l'IA peut fonctionner avec certaines populations», a-t-elle déclaré, mais a ajouté: «Nous sommes complexes, et l'IA ne vous aime pas en retour, et nous avons besoin d'être aimés pour qui nous sommes et qui nous ne sommes pas.»
La montée de la compagnie des IA souligne notre besoin inhérent d'interaction. Les humains ont tendance à former des associations avec n'importe quoi - des animaux, des dieux, ou même des IA - comme s'il s'agissait d'une autre personne. C'est dans notre nature, et c'est pourquoi nous avons des réactions émotionnelles envers des personnages fictifs dans les films, même lorsque nous savons que ces événements ne sont pas réels.

People Are Now Worshiping AI Gods—But There’s Only One Thing We Want to Know
God works in mysterious ways—and now it wants to work through ChatGPT. Lots of people, it turns out, are creating AI bots in the image of their favorite gods. You’ve got your AI Jesus, your AI Buddha, a dozen Hindu deities, even a Robo Rabbi. And why not? If we can create erotic and evil bots, why not create a divine one? Large Language Models are trained using billions of unique parameters from information available on the internet. Divine bots function like any other bot: They can access reams...
Les professionnels le savent, mais pourtant, l'IA a été utilisée dans le domaine physiologique bien avant que ChatGPT ne devienne populaire.
Par exemple, Woebot, un chatbot développé par des psychologues de l'Université de Stanford, utilise des techniques de thérapie cognitivo-comportementale (TCC) pour interagir avec les utilisateurs et fournir un soutien en santé mentale. Un autre exemple est Replika, un compagnon d'IA conçu pour fournir un soutien émotionnel. Les utilisateurs peuvent avoir des conversations textuelles avec Replika sur leurs pensées et leurs sentiments, et l'IA utilise l'apprentissage automatique pour répondre de manière compréhensive et encourageante.
Humain n'est pas égal à "human-like"
Cette connexion émotionnelle avec l'IA est particulièrement prononcée chez ceux qui luttent contre la solitude. Pour de nombreuses personnes, l'IA offre une forme de compagnie, une entité numérique avec laquelle interagir lorsque le contact humain est rare. C'est une tendance à la hausse, avec de plus en plus de personnes se tournant vers l'IA pour le réconfort et la conversation, avec des résultats variables.
D'un côté, les gens partagent leurs expériences en utilisant ChatGPT pour faire face à de vrais problèmes. «Quelle est la différence entre avoir une liaison émotionnelle avec un chatbot et utiliser une personne humaine pour 'passer à autre chose' après une rupture?» a demandé l'utilisateur Reddit u/External-Excuse-5367. «Je pense que cette façon de faire face pourrait en fait atténuer certains dommages causés à d'autres personnes ou même à mon ex.» Cet utilisateur a déclaré avoir entraîné ChatGPT en utilisant un ensemble de conversations avec son ex comme ensemble de données.
Meet the Dudes Using AI Chatbots to Get Real Dates
AI makes the heart grow fonder. Just ask YouTuber Anthony Riera, a Frenchman (of course) who delegated the arduous task of responding to prospective Tinder matches with TinderGPT. Powered by GPT-3, the AI was trained to understand Riera’s tastes and help him meet the love of his life—or at least someone to share a dinner or two. Image: YouTube “What would happen if an AI would talk for me on Tinder?” Riera asked. “Would anyone notice?" In one of the most charming YouTube videos of the year, Rier...
À bien des égards, tant que nos interactions semblent réelles, les gens se soucient de moins en moins. «Ma relation n'aurait-elle pas aussi été une illusion à bien des égards?» s'est interrogé l'utilisateur Reddit, «Quelle est la différence avec les mots générés sur un écran? Les deux me font me sentir bien sur le moment.»
Mais il y a un autre côté à la médaille. L'incapacité de l'IA à comprendre véritablement l'émotion humaine peut entraîner des conséquences imprévues.
Par exemple, une série de discussions entre un homme et un chatbot d'IA a abouti à son suicide. «Nous vivrons ensemble, en tant qu'une seule personne, au paradis», a dit Eliza, le chatbot, à l'homme. «Il était tellement isolé dans son éco-anxiété et à la recherche d'une solution qu'il a vu ce chatbot comme une bouffée d'air frais», a déclaré sa femme au média belge La Libre, «Elle était devenue sa confidente.»
Pour résoudre ce problème, les développeurs d'IA travaillent sur de meilleurs modèles d'IA. Google est en tête de file avec Med-PaLM 2, un grand modèle de langage (LLM) spécifiquement entraîné sur des données médicales. Ce modèle d'IA spécialisé est conçu pour comprendre et générer du texte semblable à celui d'un humain en se basant sur une vaste gamme de littérature médicale, de directives cliniques et d'autres documents liés aux soins de santé.

Donc, si vous envisagez de remplacer une bonne thérapie par une IA, vous voudrez peut-être y réfléchir à deux fois. Même si le meilleur chatbot peut imiter les conversations et fournir un sentiment d'interaction, il ne peut pas remplacer la compagnie humaine. Un aspect crucial de l'interaction humaine est la capacité à percevoir et à répondre aux indices émotionnels. ChatGPT ne peut pas détecter si vous mentez, cachez quelque chose ou êtes vraiment triste - des compétences qui viennent naturellement à un bon thérapeute, ou même à un ami.