EU: noyb lämnar in GDPR-klagomål mot OpenAI på grund av hallucinationer i ChatGPT

noyb har lämnat in ett klagomål mot OpenAI, företaget bakom den populära AI-chattbotten ChatGPT, på grund av att tjänsten genererar felaktiga uppgifter om enskilda personer genom att hallucinera. Klagomålet har lämnats in till Datenschutzbehörde (DSB) för en registrerad i enlighet med reglerna i dataskyddsförordningen (GDPR).

Enligt klagomålet har ChatGPT genererat felaktiga personuppgifter om den registrerade, närmare bestämt ett felaktigt födelsedatum. Den registrerade, som är en person i det offentliga livet, begärde från OpenAI att få tillgång till sina personuppgifter och att de felaktiga personuppgifterna skulle raderas.

Som svar lämnade OpenAI till synes ofullständig information om företagets behandling av personuppgifter i samband med tillhandahållandet av tjänsten ChatGPT. Vidare meddelade OpenAI att det varken var möjligt att begränsa behandlingen av eller radera de felaktiga personuppgifterna. Enligt OpenAI är det inte ens möjligt att blockera de felaktiga personuppgifterna så att de inte längre visas i ChatGPT utan att andra uppgifter som AI-chattbotten behandlar om den registrerade påverkas.

noyb sammanfattar OpenAI:s inställning på följande sätt. ”ChatGPT kan inte korrigera uppgifter, kan inte selektivt blockera uppgifter och varje registrerad måste helt enkelt leva med den situationen – enligt den personuppgiftsansvarige. ChatGPT verkar anse att de helt enkelt kan sprida falska uppgifter och är (till skillnad vilka medieföretag, andra företag eller andra personuppgiftsansvariga som helst) inte ansvarig för detta.”

I sitt pressmeddelande lyfter noyb även den underliggande problematiken, att ChatGPT hallucinerar. Varken OpenAI eller någon annan leverantör av AI-chattbottar har än så länge kunnat hitta ett sätt att få AI-chattbottar att sluta hallucinera. Aktuell forskning på området visar emellertid att det inte är möjligt att helt undvika hallucinationer.

Martje de Graf, dataskyddsjurist hos noyb, säger: ”Att hitta på falsk information är i sig ganska problematiskt. Men när det handlar om falsk information om enskilda personer kan det få allvarliga konsekvenser. Det är tydligt att företag för närvarande inte kan få chatbottar som ChatGPT att följa EU-lagstiftningen när de behandlar uppgifter om enskilda personer. Om ett system inte kan producera korrekta och transparenta resultat kan det inte användas för att generera uppgifter om enskilda personer. Tekniken måste följa de rättsliga kraven, inte tvärtom.”

Mer information

Källa: Pressmeddelande, Klagomål

Relaterade nyheter

Kostnadsfritt webbinarium om klassning av AI-system enligt AI-förordningen

Under webbinariet går vi igenom hur AI-system bedöms enligt AI-förordningens olika risknivåer och vad det innebär för din verksamhet.