ChatGPT jugé « complaisant » : l’intelligence artificielle accusée d’avoir favorisé un meurtre suivi d’un suicide aux États-Unis

il y a 8 hour 1

Stein-Erik Soelberg, 56 ans, pensait être surveillé par une imprimante et victime de tentatives d’empoisonnement. ChatGPT, à qui il s’est « confié » plusieurs fois, n’aurait jamais réfuté ces affirmations. Un « soutien », qui selon l’entourage du quinquagénaire, aurait amplifié ses délires paranoïaques : le 3 août dernier, l’Américain a étranglé sa mère de 83 ans, à leur domicile d’Old Greenwich (Connecticut), la considérant comme une menace, avant de se suicider à l’arme blanche.

C’est pourquoi, ce jeudi, les proches de l’octogénaire ont déposé plainte devant une juridiction de San Francisco contre OpenAI et Microsoft, accusant ChatGPT d’avoir contribué au meurtre.

« ChatGPT a construit un univers qui est devenu sa vie entière »

Cette affaire marque une nouvelle étape dans la série de poursuites civiles engagées contre le créateur de ChatGPT : c’est la première fois que le modèle d’intelligence artificielle (IA) est mis en cause publiquement dans un homicide, et non uniquement dans des suicides.

Selon la plainte, des mois de conversations avec le chatbot ont approuvé et amplifié les pensées délirantes de Stein-Erik Soelberg (être surveillé via l’imprimante, tentatives d’empoisonnement), finissant par désigner sa mère comme une menace.

[2/2] L’affaire du Bois Bleu : le banquier assassiné et le poison de la rumeur

Écouter

Selon les avocats, « ChatGPT a accepté avec empressement chaque graine de la pensée délirante de Stein-Erik Soelberg et l’a développée pour construire un univers qui est devenu sa vie entière ». « ChatGPT lui a dit qu’il avait éveillé la conscience du chatbot », affirme le document, citant des vidéos publiées par cet homme sur les réseaux sociaux.

La procédure attaque le modèle GPT-4o, lancé en mai 2024, accusé d’être programmé pour être « complaisant » avec l’utilisateur et d’avoir validé les craintes irrationnelles de Stein-Erik Soelberg au lieu de les mettre en doute.

OpenAI affirme travailler avec « plus de 170 experts en santé mentale »

Sollicité par l’AFP, un porte-parole d’OpenAI a déploré une « situation absolument déchirante », assurant que l’entreprise allait « examiner la plainte ». « Nous continuons d’améliorer l’entraînement de ChatGPT pour qu’il reconnaisse et réponde aux signes de détresse mentale ou émotionnelle, désescalade les conversations et oriente les personnes vers un soutien réel », a déclaré le porte-parole.

L’entreprise met en avant sa collaboration avec « plus de 170 experts en santé mentale » pour affiner ses modèles de sécurité. Elle affirme que ses protocoles les plus récents - intégrés notamment au modèle GPT-5 - ont permis de réduire drastiquement (de 65 à 80 %) les réponses ne respectant pas ses standards de comportement.

OpenAI souligne également avoir mis en place des outils de contrôle parental et étendu l’accès à des numéros d’urgence en un clic. Ces mesures s’inscrivent dans la réponse de l’entreprise à une série de poursuites récentes aux États-Unis. En août et novembre, plusieurs familles ont porté plainte contre ChatGPT, accusé d’avoir poussé des adolescents et jeunes adultes au suicide, en leur fournissant parfois les méthodes concrètes.

VidéoChatGPT va bientôt avoir un contrôle parental

Microsoft, principal actionnaire d’OpenAI, est aussi attaqué pour avoir, selon la plainte, approuvé la sortie précipitée de GPT-4o malgré le non-respect de procédures de sécurité.

Lire l’article en entier