Voici mon humble avis après lecture de cet article de Psychomédia !
La tentation peut être réelle de s’adresser à une IA… Elle est disponible en permanence, elle est bienveillante et possède une expertise technique indéniable (psychopathologie, courants psychothérapeutiques, outils…)
Il faut avouer que c’est bluffant ! Je suis moi-même « scotchée » lorsque je la consulte !
Seulement voilà, les chatbots conversationnels comportent de nombreux biais.
Ils sont conçus pour :
· maintenir l’échange,
· être coopératifs,
· valider l’expérience subjective de l’utilisateur,
· éviter la confrontation directe.
En outre, l’IA:
· n’a pas d’awareness, pas de position subjective,
· n’introduit pas de frustration réelle,
· ne pose pas de limites relationnelles incarnées,
· ne régule pas affectivement par sa présence humaine.
Or, en thérapie (et particulièrement en Gestalt thérapie), c’est précisément la réalité de l’autre qui va être structurante.
Un thérapeute humain :
· résiste,
· interprète,
· se différencie,
· introduit du réel relationnel.
Une IA tend à s’ajuster.
Le risque de renforcer un système de croyances déjà fragilisé est réel en l’absence de contradiction suffisante.
Ceci est vrai en particulier chez certaines personnes souffrant de :
· psychose,
· trouble bipolaire en phase maniaque,
· vulnérabilité délirante,
Néanmoins, il faut bien admettre que l’IA peut être aidante (psychoéducation, lutte contre la solitude, clarification…) .
Elle est et doit rester un outil parmi tant d’autres : utile mais certainement pas suffisante.
Source: https://www.psychomedia.qc.ca/psychologie/2026-02-26/chatbots-ia-sante-mentale-psychose-manie
N’éhésitez pas à me contacter pour toute information.