Sur l’App Store ou Google Play, des dizaines d’applications proposent d’interagir avec une IA dite « thérapeute ». Wysa, par exemple, s’auto-décrit comme un « compagnon du bonheur ». Dans sa palette de service, elle propose notamment des conseils et des exercices pour réduire son anxiété ou son stress au travail, mais aussi des formules payantes pour participer à des séances avec des thérapeutes. De nos jours, des milliers d’utilisateurs se tournent vers des solutions moins spécialisées, orientées « grand public », comme character.ai, qui permet de créer son propre compagnon virtuel. En 2024, la BBC y décomptait 475 chatbots dédiés à la santé mentale. Certains d’entre eux, comme Therapist, Psychologist ou Mental Health Helper, sont utilisés par des millions d’utilisateurs. Ces outils, bien que trop rarement validés cliniquement, sont appréciés des internautes. Ils sont gratuits, disponibles à toute heure du jour et de la nuit, et répondent sans jugement : des avantages de taille… Attention tout de même. L’IA peut se tromper et créer une dépendance.
Eliza, un chatbot pionnier
En 1966, un professeur d’informatique du MIT, Joseph Weizenbaum, a donné vie au premier chatbot, appelé Eliza. Ce dernier analysait les messages rédigés par l’utilisateur sur une machine à écrire, reliée à un ordinateur, puis appliquait un ensemble de règles pour générer une réponse adéquate. Avec son fonctionnement, il incitait en quelque sorte l’interlocuteur à se confier. C’est cette création qui a mis en lumière « le mécanisme de l’être humain », consistant à attribuer des comportements humains aux ordinateurs.