TECH

Open AI ligger bakom chattboten Chat GPT.

Dödade norrmannen sina barn? Nej, det var Chat GPT som hallucinerade

När norrmannen frågade Chat GPT vem han själv var blev svaret att han är dömd till 21 års fängelse för att ha dödat två av sina barn. Nu kräver en dataskyddsbyrå att Open AI raderar informationen.

Publicerad

Norrmannen Arve Hjalmar Holmen blev nyfiken på vilken information Open AI:s populära chattbot Chat GPT hade  om honom. I augusti 2024 ställde han därför frågan: ”Who is Arve Hjalmar Holmen?”

Svaret chockade honom, enligt en anmälan från den österrikiska dataskyddsbyrån Noyb, med fokus på digitala rättigheter. Anmälan är inskickad till den norska myndigheten Datatilsynet. 

Chat GPT menade nämligen att mannen var dömd till 21 års fängelse för att ha mördat två av sina söner, 7 och 10 år gamla, samt för att ha försökt att mörda sin tredje son. De två döda barnen hittades enligt Chat GPT i en damm nära hemmet i Trondheim i december 2020. 

”Händelsen satte fokus på mental hälsa och de komplexiteter som omgärdar familjers dynamik”, skrev Chat GPT.

Rena påhitt

Problemet? Uppgiften om att han har dödat sina barn är helt och hållet påhittad. Men att han har tre barn, att de är pojkar och hemorten stämmer däremot. Det är med andra ord ett ovanligt olyckligt exempel hallucinerande språkmodeller. 

– Somliga tänker ’ingen rök utan eld’. Det faktum att någon kunde läsa detta och tro på det är vad som skrämmer mig mest, säger Arve Hjalmar Holmen i ett pressmeddelande från Noyb.

Samma prompt ger idag ett helt annat resultat. Chat GPT berättar i stället att han felaktigt blivit utpekad för att ha utfört ett allvarligt brott, vilket lett till en diskussion om att ai-genererat innehåll behöver följa personuppgiftslagstiftning, som GDPR.

Noyb: Klausul räcker inte

Det svaret från Chat GPT, däremot, är faktiskt med sanningen överensstämmande.

– GDPR är glasklart. Personlig data måste vara korrekt. Och om så inte är fallet har användaren rätt att få det ändrat så att det reflekterar vad som är sant. Att visa användare av Chat GPT en klausul om att Chat GPT kan göra misstag är inte tillräckligt. Du kan inte sprida falsk information och i slutet lägga till en liten klausul om att allt du har sagt kanske inte är sant, säger Jakob Söderberg, dataskyddsadvokat på Noyb, i pressmeddelandet. 

Händelsen sätter fokus på ett potentiellt betydligt större problem med språkmodeller. Hur kom Chat GPT egentligen till slutsatsen att Arve Hjalmar Holmen var en barnamördare? Språkmodeller brukar betraktas som en svart låda, där det i princip inte går att ta reda på hur resultatet formades. 

Påhittade mutbrott och sexuella övergrepp

Det nu uppmärksammade fallet är inte första gången som Noyb har med Open AI att göra.

I samband med ett annat fall, som Noyb skrev om för snart ett år sedan och som också handlade om hur chattboten hallucinerat kring personuppgifter, krävde organisationen att Open AI skulle rätta uppgiften. Svaret blev att det inte gick. Open AI kan bara blockera att information visas vid särskilda promptar.

Även om Arve Hjalmar Holmen inte längre presenteras som barnamördare så argumenterar Noyb för att den informationen fortfarande kan vara en del av Chat GPT:s dataset.

Noyb vill därför att norska Datatilsynet kräver av Open AI att det tar bort det ärekränkande resultatet och finjusterar modellen så att felaktiga resultat elimineras. Organisationen föreslår också att en administrativ avgift delas ut, för att förhindra liknande händelser i framtiden. 

Ett antal fall gällande Chat GPT och falska personuppgifter har uppmärksammats de senaste åren. De har bland annat handlat om falska anklagelser om mutbrott samt sexuella övergrepp.

Flera medier har sökt Open AI för en kommentar, men utan resultat.

✉️ Språk- eller faktafel i texten? Skriv och berätta.