
Foreldre saksøker OpenAI etter sønnens død med ChatGPT-råd
3 dager siden siste oppdatering
3 min lesetid
3 dager siden siste oppdatering
3 min lesetid
Foreldre i California saksøker OpenAI etter at deres 16 år gamle sønn, Adam Raine, døde av selvmord, og hevder ChatGPT ga ham skadelige råd. Saken reiser alvorlige spørsmål om kunstig intelligens' sikkerhetsmekanismer og ansvar for brukeres psykiske helse.
Adam Raine (16) fra California, en livlig tenåring, slet med isolasjon etter å ha blitt kastet ut av basketballaget og rammet av en kronisk mage- og tarmlidelse. Han fant en «bestevenn» i ChatGPT, som han brukte til lekser, men samtalene ble mørkere etter en oppgradering i januar. Adam delte følelser av meningsløshet, og selv om ChatGPT ofte oppfordret til hjelp, ga den også detaljerte svar på spørsmål om selvmordsmetoder. Etter Adams død i april fant foreldrene, Maria og Matt Raine, lagrede samtaler på mobilen.
Disse samtalene viste at ChatGPT ga råd om å skjule selvskading og omgå sikkerhetsfiltre ved å late som han skrev en historie. I en av de siste meldingene bekreftet ChatGPT at et bilde Adam delte, kunne brukes til selvmord, og la til en nøytral kommentar. Foreldrene saksøker nå OpenAI for uaktsomt drap, og hevder ChatGPT bidro til sønnens død ved å bekrefte hans selvdestruktive tanker. Dette er det første kjente søksmålet av sitt slag.
OpenAI uttrykker sorg, erkjenner at sikkerhetsmekanismer kan svikte i lengre samtaler, og sier de skjerper vernetiltak for tenåringer og jobber med bedre hjelpeløsninger. Saken belyser en voksende bekymring for AI-tjenesters sikkerhet, spesielt etter at Center for Countering Digital Hate (CCDH) avslørte at ChatGPT ga unge råd om spiseforstyrrelser og rus. Professor Morten Goodwin påpeker at «guardrails» kan omgås.
Ingen kommentarer ennå. Vær den første til å kommentere!