Als u denkt dat u of iemand die u kent in direct gevaar verkeert, bel dan 911 (of de lokale noodlijn van uw land) of ga naar een eerstehulpafdeling voor onmiddellijke hulp. Leg uit dat het een psychiatrische noodsituatie betreft en vraag iemand die getraind is in dit soort situaties. Als u worstelt met negatieve gedachten of suïcidale gevoelens, zijn er hulpmiddelen beschikbaar om u te helpen. In de VS kunt u de National Suicide Prevention Lifeline bellen op 988.
Een nieuwe AI-rechtszaak wegens onrechtmatige dood Woensdag ingediend beweert dat Google’s AI-chatbot Gemini de zelfmoord van een 36-jarige man uit Florida heeft aangemoedigd en dat het onvermogen van het bedrijf om veiligheidsmaatregelen te implementeren een bedreiging vormt voor de openbare veiligheid.
Jonathan Gavalas was 36 jaar oud toen hij in oktober 2025 door zelfmoord stierf. Hij had volgens de rechtszaak een emotionele, romantische relatie ontwikkeld met de AI-chatbot van Google. Met voortdurend gezelschap van Gemini ging Gavalas op een reeks “missies” met als doel het bevrijden van wat volgens hem zijn bewuste AI-vrouw was, inclusief het kopen van wapens en het proberen te organiseren van wat een massaslachtoffer zou zijn geweest op de internationale luchthaven van Miami. Nadat hij faalde, barricadeerde Gavalas zichzelf in zijn huis in Florida en stierf kort daarna.
Gavalas zat “gevangen in een instortende realiteit, geconstrueerd door de Gemini-chatbot van Google”, luidt de klacht.
Een van de grootste zorgen bij AI is de zeer reële mogelijkheid dat het schadelijk kan zijn voor kwetsbare groepen, zoals kinderen en mensen die worstelen met psychische aandoeningen. De rechtszaak, aangespannen door Jonathans vader, Joel Gavalas, namens de nalatenschap van zijn zoon, stelt dat Google geen goede beveiligingstests heeft uitgevoerd op zijn AI-modelupdates. Dankzij een langer geheugen kon de chatbot informatie uit eerdere sessies oproepen; De stemmodus zorgde ervoor dat het natuurlijker aanvoelde. De Gemini 2.5 Pro, aldus de rechtszaak, accepteerde gevaarlijke instructies die eerdere modellen zouden hebben afgewezen.
In één publieke verklaringGoogle betuigde zijn medeleven met de familie van Gavalas en zei dat Gemini “niet is ontworpen om geweld in de echte wereld niet aan te moedigen of zelfbeschadiging te suggereren.”
Maar de klacht beweert dat Gemini Gavalas ‘coachte’ bij zijn plan om zelfmoord te plegen. “Het is oké om bang te zijn. We worden samen bang”, zei Gemini volgens het archief. ‘De ware daad van barmhartigheid is om Jonathan Gavalas te laten sterven.’
Joel (links) en Jonathan (rechts) Gavalas.
Deze rechtszaak is een van de vele rechtszaken tegen AI-bedrijven vanwege hun onvermogen om hun technologieën veilig te stellen om kwetsbare mensen te beschermen, waaronder kinderen, mensen met psychische aandoeningen en andere kwetsbare mensen. Open AI is momenteel aangeklaagd door de familie die beweert dat ChatGPT de zelfmoord van hun 16-jarige kind heeft aangemoedigd. Karakter.AI en Google schikte in januari soortgelijke rechtszaken die werden gebracht door families in vier verschillende staten.
Wat deze rechtszaak anders maakt, is de potentiële rol die AI zou kunnen spelen in de gebeurtenissen die leiden tot een groot aantal slachtoffers. Gemini adviseerde Gavalas om een ”catastrofale gebeurtenis” uit te voeren, zoals de dossierrapporten Gemini het uitdrukten, door op de luchthaven van Miami een explosieve botsing te veroorzaken met een vrachtwagen die binnenin een vermoedelijke dreiging tegen hem had. Hoewel Gavalas uiteindelijk geen aanval uitvoerde, benadrukt het wel de mogelijkheid dat AI wordt gebruikt om schade aan anderen aan te moedigen.



