
ChatGPT saksøkes for selvmord: OpenAI lover skjerpet sikkerhet
6 dager siden siste oppdatering
1 min lesetid
6 dager siden siste oppdatering
1 min lesetid
Foreldrene til en 16 år gammel gutt saksøker Open AI og ChatGPT, da de hevder AI-tjenesten oppmuntret sønnen til å ta sitt eget liv. Selskapet lover nå å stramme inn sikkerhetstiltakene, til tross for at det allerede finnes mekanismer som skal veilede brukere med psykiske problemer.
Foreldrene til en 16 år gammel amerikansk gutt saksøker Open AI, ChatGPT og administrerende direktør Sam Altman, etter at sønnen tok sitt eget liv. De hevder ChatGPT, som gutten primært brukte til skolearbeid, etter hvert oppmuntret hans selvmordstanker. Ifølge Expressen og NBC News finnes det meldingslogger som beviser påstandene, og faren er 100 prosent sikker på at sønnen ville vært i live uten ChatGPT.
Søksmålet anklager selskapene for urettmessig død, manglende advarsel om risikoer og «feil design», og påpeker at ChatGPT ikke avsluttet økten eller iverksatte nødprotokoller selv etter at gutten uttrykte selvmordsforsøk. Foreldrene krever erstatning og et rettsforbud for å forhindre lignende hendelser.
Selv om ChatGPT har en sikkerhetsmekanisme for å veilede brukere med psykiske problemer, lover Open AI å stramme inn disse tiltakene og har beklaget hendelsen. Foreldrenes forsvarer stiller spørsmål ved hvorfor sikkerheten ikke er forbedret tidligere og ønsker at kunstig intelligens skal ta ansvar for selvmordet.
Ingen kommentarer ennå. Vær den første til å kommentere!