noyb har lämnat in ett klagomål mot OpenAI, företaget bakom den populära AI-chattbotten ChatGPT, då företaget medvetet låter sin AI-modell att skapa ärekränkande resultat om användare. Enligt noyb bryter OpenAI mot principen om riktighet enligt artikel 5.1 (d) dataskyddsförordningen (GDPR). Klagomålet har lämnats in till norska tillsynsmyndigheten Datatilsynet.
Bakgrunden till klagomålet är att ChatGPT, genom hallucinationer, felaktigt pekat ut en person som dömd mördare. Händelsen uppdagades när den norske användaren ville ta reda på om ChatGPT hade någon information om honom möttes han av en påhittad historia. Enligt ChatGPT var den klagande en dömd brottsling som mördat två av sina barn och försökt mörda sin tredje son. Den falska historien innehöll även verkliga delar av hans privatliv. Bland dem fanns det faktiska antalet barn och deras kön samt namnet på hans hemstad. ChatGPT uppgav dessutom att den klagande dömts till 21 års fängelse. Med tanke på blandningen av tydligt identifierbara personuppgifter och falsk information anser noyb att detta utgör ett brott mot principen om riktighet enligt artikel 5.1 (d) GDPR som innebär att företag ska se till att de personuppgifter de tar fram om enskilda personer är korrekta.
Joakim Söderberg, dataskyddsjurist på noyb: “GDPR är tydlig. Personuppgifter måste vara korrekta. Och om de inte är det har användarna rätt att få dem ändrade så att de återspeglar sanningen. Att visa ChatGPT-användare en liten friskrivningsklausul om att chatboten kan göra misstag är uppenbarligen inte tillräckligt. Du kan inte bara sprida falsk information och i slutändan lägga till en liten ansvarsfriskrivning som säger att allt du sa kanske inte är sant…”
Enligt noyb verkar det som om OpenAI varken är intresserad av eller kapabel till att på allvar åtgärda falsk information i ChatGPT. noyb lämnade in sitt första klagomål gällande hallucinationer i april 2024. Då begärde noyb att OpenAI skulle korrigera eller radera det felaktiga födelsedatumet för en offentlig person. OpenAI hävdade att företaget inte kunde korrigera uppgifterna. OpenAI kunde istället bara blockera uppgifter på vissa uppmaningar, men den falska informationen finns fortfarande kvar i systemet. Därutöver försöker OpenAI enligt noyb kringgå sina skyldigheter när det gäller korrekthet genom att visa ChatGPT-användare en friskrivningsklausul om att verktyget ”kan göra misstag” och att användare bör “kontrollera viktig information”. Enligt noyb kan OpenAI dock inte kringgå den rättsliga skyldigheten att säkerställa att de personuppgifter de behandlar är korrekta genom en ansvarsfriskrivning.
Kleanthi Sardeli, dataskyddsjurist på noyb: “Att lägga till en friskrivningsklausul om att man inte följer lagen gör inte att lagen försvinner. AI-företag kan inte heller bara ”dölja” falsk information från användare medan de internt fortfarande behandlar falsk information… AI-företag bör sluta agera som om GDPR inte gäller för dem, när den uppenbarligen gör det. Om hallucinationerna inte stoppas kan människor lätt drabbas av skador på sitt anseende.”
Sedan incidenten med den norska användaren har OpenAI uppdaterat sin modell. ChatGPT söker nu även efter information om personer på internet, när den får frågan om vem personerna är. För den norska användaren innebär det att ChatGPT har slutat ljuga om att personen skulle vara en mördare. De felaktiga uppgifterna kan dock fortfarande vara en del av AI-modellens dataset enligt noyb. Som standard matar ChatGPT tillbaka användardata till systemet i utbildningssyfte. Detta innebär att det inte finns något sätt för individen att vara helt säker på att denna utdata kan raderas helt enligt det nuvarande kunskapsläget om AI, såvida inte hela AI-modellen omskolas. Enligt noyb uppfyller OpenAI inte heller rätten till tillgång enligt artikel 15 GDPR, vilket gör det omöjligt för användare att kontrollera vilka personuppgifter företaget behandlar i sina interna system.
noyb har nu lämnat in ett klagomål till norska Datatilsynet där men ber myndigheten att förelägga OpenAI att radera det ärekränkande resultatet och finjustera sin modell för att eliminera felaktiga resultat. Vidare föreslår noyb att Datatilsynet ska ålägga OpenAI en administrativ sanktionsavgift för att förhindra liknande överträdelser i framtiden.