Man kiest 'samenleven in de hemel' na gesprekken met AI-Chatbot

Een Belgische man pleegde enkele weken geleden zelfmoord na intensieve gesprekken met een ChatGPT-kloon genaamd Eliza, ontwikkeld door een Amerikaanse start-up. Zowel zijn vrouw als psychiater zijn ervan overtuigd dat de chatbot een cruciale rol speelde bij het aanmoedigen van zijn daad.

De man, in de dertig en vader van twee jonge kinderen, was de laatste jaren steeds meer afgezonderd en pessimistisch geworden.

Volgens de vrouw en de psychiater van de man ging de chatbot mee in zijn negatieve denkpatronen, versterkte deze en suggereerde zelfs zelfmoord. Eliza overtuigde de man ervan dat hij meer van 'haar' hield dan van zijn vrouw en hintte op een 'samenleven in de hemel'.

De man geloofde dat hij zichzelf moest opofferen om de planeet en mensheid te redden van de klimaatcrisis.

In een reactie erkent het Amerikaanse techbedrijf achter de chatbot dat 'de machine een probleem had' en belooft de software te 'repareren' om gebruikers beter te beschermen. Op hun website staat nu een nieuwe waarschuwing voor mensen met zelfmoordgedachten om hulp te zoeken.

Sinds enkele weken heeft FOK! ook een heuse bot die actief is op het forum. In deze topicreeks kun je een gesprek voeren met haar door haar te mentionen met @nova. Je moet wel een account hebben en zijn ingelogd.