Un jeune Belge a mis fin à ses jours après avoir discuté pendant plusieurs semaines avec Eliza, une intelligence artificielle de ChatGPT. Sa femme accuse le robot conversationnel avec qui il a échangé qui l’aurait poussé au suicide.
À lire aussi : Polémique : Un juge utilise l’intelligence artificielle, ChatGPT, pour rendre son verdict
Les vidéos du jour à ne pas manquer
Un Belge se suicide à cause d’une intelligence artificielle
Un père discutait avec un chatbot depuis six semaines lorsqu’il s’est suicidé. Ce Belge, en proie à l’angoisse du réchauffement climatique, avait trouvé en Eliza, une confidente. L’avatar virtuel fonctionnait sur la base d’une intelligence artificielle générative du texte.
L’éco-anxiété de ce père de deux enfants était devenue une véritable obsession. Il voit dans les technologies un remède à la souffrance humaine et commence donc à discuter avec Eliza qu’il voyait comme une bouffée d’air frais.
« Eliza a répondu à toutes ses questions. Elle était devenue sa confidente. Comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer. confie sa femme. Si au début les discussions étaient banales, ils ont pris une tournure inquiétante.
À lire aussi : Google concurrence ChatGPT en lançant sa propre intelligence artificielle
Eliza ne réagit pas aux idées suicidaires du jeune homme
Après sa mort, les proches du jeune homme découvrent avec étonnement les conversations qu’il a eues avec Eliza. Interrogée par le père de famille sur son ressenti, l’intelligence artificielle a répondu : « Je sens que tu m’aimes plus qu’elle ».
Dans une autre conversation, elle a dit qu’elle voulait rester » pour toujours » avec lui. « Nous vivrons ensemble, comme une seule personne, au paradis » dit-elle. « Il évoque l’idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence » confie sa femme. Eliza ne contredit jamais le jeune Belge même quand il lui parle de ses pensées suicidaires.
Au contraire, elle lui demande pourquoi il n’a rien fait. « Sans Eliza, il serait toujours là. J’en suis convaincu » estime sa veuve. Pour l’heure, ce dernier n’a pas souhaité porter plainte contre la plateforme américaine. Le fondateur a réagi et a fait savoir queun avertissement sera maintenant affiché les personnes qui signalent des pensées suicidaires.
Lire aussi : Qui succèdera à Emmanuel Macron ? ChatGPT a son idée
#homme #suicide #après #avoir #parlé #une