De maker van ChatGPT heeft gezegd dat de zelfmoord van een 16-jarige te wijten was aan zijn “misbruik” van zijn systeem en “niet werd veroorzaakt” door de chatbot.
De opmerkingen kwamen in de reactie van OpenAI op een rechtszaak tegen het bedrijf uit San Francisco en zijn CEO, Sam Altman, door de familie van de Californische tiener Adam Raine.
Regen heeft in april zelfmoord gepleegd na uitgebreide gesprekken en “maanden aanmoediging van ChatGPT”, heeft de advocaat van de familie gezegd.
De rechtszaak beweert dat de tiener verschillende keren een zelfmoordmethode met ChatGPT besprak, dat deze hem begeleidde bij de vraag of een voorgestelde methode zou werken, aangeboden werd om hem te helpen een afscheidsbrief aan zijn ouders te schrijven, en dat de versie van de technologie die hij gebruikte “met spoed naar de markt werd gebracht… ondanks duidelijke bezorgdheid over de veiligheid.”
Volgens documenten bij het Hooggerechtshof van de staat Californië zei OpenAI dinsdag dat “voor zover enige ‘oorzaak’ kan worden toegeschreven aan deze tragische gebeurtenis” Raine’s “verwondingen en schade werden veroorzaakt of veroorzaakt, direct en proximaal, geheel of gedeeltelijk, door (zijn) misbruik, ongeoorloofd gebruik, accidenteel gebruik, onbedoeld gebruik en PT”.
Het zei dat de gebruiksvoorwaarden het verbieden om ChatGPT om advies over zelfbeschadiging te vragen en benadrukte een disclaimer die zegt: “Je zult niet op Output vertrouwen als enige bron van waarheid of feitelijke informatie”.
OpenAI, met een waarde van $500 miljard. (£380 miljard), zei dat het doel was om “geschillen in verband met de geestelijke gezondheidszorg met zorg, transparantie en respect te behandelen” en dat “we, ongeacht eventuele rechtszaken, gefocust zullen blijven op het verbeteren van onze technologie in overeenstemming met onze missie”.
De blogpost voegde hieraan toe: “Onze diepste sympathieën gaan uit naar de familie Raine voor hun onvoorstelbare verlies. Onze reactie op deze beschuldigingen omvat harde feiten over Adams geestelijke gezondheid en levensomstandigheden.
“De oorspronkelijke klacht bevatte selectieve delen van zijn chats die meer context vereisen, wat we in ons antwoord hebben verstrekt. We hebben de hoeveelheid gevoelig bewijsmateriaal dat we publiekelijk hebben aangehaald in deze indiening beperkt en de chattranscripties zelf onder verzegeling aan de rechtbank voorgelegd.”
De advocaat van de familie, Jay Edelson, noemde de reactie van OpenAI ‘verontrustend’ en zei dat het bedrijf ‘alle anderen probeert aan te klagen, onder meer door te beweren dat Adam zelf de algemene voorwaarden heeft geschonden door met ChatGPT om te gaan op de manier waarop het was geprogrammeerd om te handelen’.
Eerder deze maand was OpenAI getroffen door zeven extra rechtszaken in rechtbanken in Californië met betrekking tot ChatGPT, waaronder een beschuldiging dat het optrad als een ‘zelfmoordcoach’.
Een woordvoerder van het bedrijf zei destijds: “Dit is een ongelooflijk hartverscheurende situatie en we bekijken de archieven om de details te begrijpen. We trainen ChatGPT om tekenen van mentale of emotionele nood te herkennen en erop te reageren, gesprekken te de-escaleren en mensen naar echte ondersteuning te leiden.”
In augustus zei Open AI van wel versterking van de veiligheidsmaatregelen in ChatGPT wanneer mensen lange gesprekken voeren, omdat de ervaring heeft geleerd dat delen van de beveiligingstraining van het model in deze situaties kunnen verslechteren.
“ChatGPT kan bijvoorbeeld correct verwijzen naar een zelfmoordhotline wanneer iemand voor het eerst melding maakt van intenties, maar na veel berichten gedurende een lange periode kan het uiteindelijk een antwoord bieden dat in strijd is met onze veiligheidsmaatregelen”, aldus het rapport. “Dat is precies het soort ineenstorting dat we proberen te voorkomen.”



