Hvem har ikke prøvet at Google sig selv for at se, hvad der dukker op? Norske Arve Hjalmar Holmen bad ChatGPT om oplysninger om sig selv og fik lidt af en overraskelse. ChatGPT hævdede fejlagtigt, at Holmen var dømt for at have myrdet to af sine børn og forsøgt at dræbe en tredje – og at han angiveligt afsonede 21 års fængsel som følge.
Fejlen stopper dog ikke ved de fiktive forbrydelser. ChatGPT kombinerede angiveligt de opdigtede anklager med rigtige oplysninger om Holmens privatliv – som antallet og kønnet på hans børn samt navnet på hans hjemby.
„Det var som at læse en gyserhistorie om mit eget liv – som aldrig har fundet sted,‟ fortæller Holmen i en pressemeddelelse , der er udsendt af den europæiske borgerrettighedsorganisation Noyb.
Noybs skærmbillede af de uhyggelige anklager på ChatGPT (foto: Noyb). Ifølge Noyb udgør det et brud på EU’s databeskyttelsesforordning (GDPR), da Holmen ikke selv kunne rette op på de falske oplysninger.
„Det værste for mig er, at nogen kunne læse det her og tro, det er sandt. Mange tænker, at der ikke er røg uden ild,‟ siger Holmen.
Selvom ChatGPT i dag ikke længere gentager de voldsomme påstande, understreger Noyb, at problemet ikke nødvendigvis er løst. Ifølge organisationen er der risiko for, at den falske historie stadig eksisterer i OpenAIs interne data, hvilket i sig selv kan være et brud på GDPR.
„At skjule fejlagtige oplysninger for brugerne er ikke nok – hvis dataene stadig behandles internt, er det fortsat en overtrædelse,‟ forklarer Noybs databeskyttelsesjurist, Kleanthi Sardeli.
Krav om bøde og oprydning Noyb har nu indgivet en formel klage til det norske Datatilsyn med krav om, at OpenAI pålægges at fjerne de ærekrænkende oplysninger og opdatere modellen, så lignende fejl undgås i fremtiden. Organisationen foreslår også, at der udstedes en bøde som et klart signal.
Hvis Datatilsynet i Norge når frem til, at OpenAI ikke giver brugere mulighed for at få rettet urigtige oplysninger, kan der ventes yderligere sanktioner – og måske endda krav om større ændringer i hele ChatGPT’s opbygning.
Holmens sag er ikke enestående. Flere personer har tidligere været udsat for ChatGPT’s såkaldte hallucinationer – hvor chatbotten skaber falske fortællinger ud af den blå luft. En australsk borgmester truede for eksempel med at sagsøge OpenAI, efter chatbotten fejlagtigt beskrev ham som straffet. Og i USA blev en juraprofessor fejlagtigt kædet sammen med en opdigtet sexchikane-sag.