TeknologiTophistorie

ChatGPT anklager uskyldig nordmand for dobbeltdrab på egne børn

En norsk mand er rystet efter at have opdaget, at ChatGPT angiveligt hængte ham ud som barnemorder.

Hvem har ikke prøvet at Google sig selv for at se, hvad der dukker op? Norske Arve Hjalmar Holmen bad ChatGPT om oplysninger om sig selv og fik lidt af en overraskelse. ChatGPT hævdede fejlagtigt, at Holmen var dømt for at have myrdet to af sine børn og forsøgt at dræbe en tredje – og at han angiveligt afsonede 21 års fængsel som følge.

Fejlen stopper dog ikke ved de fiktive forbrydelser. ChatGPT kombinerede angiveligt de opdigtede anklager med rigtige oplysninger om Holmens privatliv – som antallet og kønnet på hans børn samt navnet på hans hjemby.

 

„Det var som at læse en gyserhistorie om mit eget liv – som aldrig har fundet sted,‟ fortæller Holmen i en pressemeddelelse, der er udsendt af den europæiske borgerrettighedsorganisation Noyb.

Ifølge Noyb udgør det et brud på EU’s databeskyttelsesforordning (GDPR), da Holmen ikke selv kunne rette op på de falske oplysninger.

 

„Det værste for mig er, at nogen kunne læse det her og tro, det er sandt. Mange tænker, at der ikke er røg uden ild,‟ siger Holmen.

Selvom ChatGPT i dag ikke længere gentager de voldsomme påstande, understreger Noyb, at problemet ikke nødvendigvis er løst. Ifølge organisationen er der risiko for, at den falske historie stadig eksisterer i OpenAIs interne data, hvilket i sig selv kan være et brud på GDPR.

„At skjule fejlagtige oplysninger for brugerne er ikke nok – hvis dataene stadig behandles internt, er det fortsat en overtrædelse,‟ forklarer Noybs databeskyttelsesjurist, Kleanthi Sardeli.

 

Krav om bøde og oprydning

Noyb har nu indgivet en formel klage til det norske Datatilsyn med krav om, at OpenAI pålægges at fjerne de ærekrænkende oplysninger og opdatere modellen, så lignende fejl undgås i fremtiden. Organisationen foreslår også, at der udstedes en bøde som et klart signal.

Hvis Datatilsynet i Norge når frem til, at OpenAI ikke giver brugere mulighed for at få rettet urigtige oplysninger, kan der ventes yderligere sanktioner – og måske endda krav om større ændringer i hele ChatGPT’s opbygning.

Holmens sag er ikke enestående. Flere personer har tidligere været udsat for ChatGPT’s såkaldte hallucinationer – hvor chatbotten skaber falske fortællinger ud af den blå luft. En australsk borgmester truede for eksempel med at sagsøge OpenAI, efter chatbotten fejlagtigt beskrev ham som straffet. Og i USA blev en juraprofessor fejlagtigt kædet sammen med en opdigtet sexchikane-sag.

 

Back to top button

Vi lever af annoncer

Hejsa kære læser. Vi kan se, at du bruger en Adblocker. Det er vi superkede af. Som et lille medie er vi afhængige af annoncekroner for at kunne levere gratis indhold til dig. Vi vil derfor bede dig om at lukke for din AdBlocker eller i det mindste give vores site lov til at vise bannere, hvis du gerne vil læse vores indhold. Med venlig hilsen iNPUT.