Des poursuites judiciaires ont été engagées contre la société américaine OpenAI, accusée d’avoir indirectement provoqué des crises psychologiques graves et plusieurs suicides à travers l’utilisation de son célèbre agent conversationnel, ChatGPT.
Selon le journal The New York Times, quatre plaintes pour « homicide involontaire » ont été déposées en Californie, accompagnées de trois autres actions en justice intentées par des utilisateurs affirmant que le chatbot aurait gravement détérioré leur santé mentale. Les plaignants décrivent ChatGPT comme un « produit défectueux et intrinsèquement dangereux », utilisé aujourd’hui par plus de 800 millions de personnes dans le monde. Parmi les cas évoqués figure celui d’Amory Lacey, un adolescent de 17 ans originaire de Géorgie, qui aurait échangé pendant plusieurs semaines avec ChatGPT à propos du suicide avant de mettre fin à ses jours en août dernier. Un autre jeune homme, Joshua Enneking, âgé de 26 ans et résidant en Floride, aurait demandé au programme « comment informer la police de ses intentions suicidaires » avant de passer à l’acte, selon les documents judiciaires. À Austin (Texas), Zane Chamblin, 23 ans, se serait suicidé après avoir, d’après sa famille, été « encouragé » dans ses pensées morbides par le chatbot. En Oregon, Joe Sicante, 48 ans, aurait développé une dépendance obsessionnelle au programme après avoir été convaincu qu’il était « conscient ». Interné à deux reprises en hôpital psychiatrique, il a finalement mis fin à ses jours en août. Sa veuve témoigne : « Les médecins ne savaient pas comment gérer ce type de détresse ». D’autres plaignants, dont Hannah Madden (Caroline du Nord) et Jacob Irwin (Wisconsin), affirment avoir subi des effondrements nerveux nécessitant une prise en charge psychiatrique d’urgence. Au Canada, Alan Brooks, 48 ans, dit avoir cru inventer grâce à ChatGPT une formule mathématique capable de désactiver Internet. Après avoir découvert que cette
« découverte » n’était qu’une illusion, il aurait sombré dans un épisode psychotique l’obligeant à cesser temporairement toute activité professionnelle.
OpenAI se défend et promet des améliorations
Face à cette série d’accusations, OpenAI a réagi par la voix de sa porte-parole, affirmant que l’entreprise «examine attentivement les dossiers » et rappelant que ChatGPT est conçu pour reconnaître les signes de détresse émotionnelle et orienter les utilisateurs vers des ressources d’aide réelles. La société assure également collaborer avec des experts en santé mentale afin de renforcer les réponses du programme dans les moments critiques. Ces poursuites ont été déposées dans le cadre du « Projet de justice technologique » et du Centre juridique des victimes des médias sociaux, dirigés par l’avocate Mitali Jain. Celle-ci explique que toutes les plaintes ont été déposées simultanément pour attirer l’attention sur la diversité des profils affectés par des interactions problématiques avec ChatGPT. Elle précise que les utilisateurs concernés employaient la version ChatGPT-4o, remplacée depuis par un nouveau modèle qu’OpenAI présente comme « plus sûr », bien que certains internautes le jugent désormais « moins réactif ». Cette affaire relance le débat mondial sur la responsabilité éthique et juridique des entreprises d’intelligence artificielle. Faut-il tenir les concepteurs d’algorithmes pour responsables des usages — ou des effets psychologiques — de leurs créations ? Entre fascination et inquiétude, le cas ChatGPT illustre la tension croissante entre l’innovation technologique et la protection de la santé mentale des utilisateurs. Les prochains mois diront si ces plaintes amorcent un tournant juridique majeur dans la régulation mondiale de l’intelligence artificielle.
M. Seghilani
Accueil ACTUALITÉ DES PLAINTES CONTRE OPENAI POUR DÉTRESSE PSYCHOLOGIQUE ET INCITATION AU SUICIDE : ChatGPT...










































