Allt fler verksamheter använder olika former av artificiell intelligens (AI) för att fatta beslut om enskilda. Det kan till exempel vara fråga om att använda AI-system för att bedöma någons kreditvärdighet, att sålla bort CV:s som kommit in under en ansökningsprocess eller att avgöra om någon ska få ett bidrag eller inte. Sådana beslut omfattas inte sällan av dataskyddsförordningens (GDPR) regler om automatiserat beslutsfattande.
Enligt en av dessa regler, har den registrerade rätt att i samband med en begäran om tillgång till personuppgifter få information om förekomsten av automatiserat beslutsfattande. I förekommande fall ska den personuppgiftsansvarige lämna information om logiken bakom samt betydelsen och de förutsedda följderna av sådan behandling för den registrerade, se artikel 15.1 (h) GDPR.
En central fråga är då vad som menas med “meningsfull information om logiken bakom”. Denna fråga togs upp av EU-domstolen i målet C‑203/22 (Dun & Bradstreet) som handlade om ett kreditvärderingsföretag som förelades av en domstol att ge en registrerad meningsfull information om logiken bakom en automatiserad kreditvärdering. EU-domstolen konstaterade att den registrerade inom ramen av en begäran om tillgång har rätt att kräva en förklaring av det automatiserade beslutet från den personuppgiftsansvarige. Förklaringen ska klargöra vilket förfarande och vilka principer som tillämpats för att på automatisk väg använda den registrerades personuppgifter i syfte att uppnå ett visst resultat, såsom en kreditvärdighetsprofil. Vidare ska förklaringen ges med hjälp av relevant information som lämnas i en koncis, transparent, begriplig och lättillgänglig form.
Av detta följer att den personuppgiftsansvarige åläggs en långtgående skyldighet att förklara hur den har kommit fram till ett automatiserat beslut. Denna skyldighet gäller oavsett om det automatiserade beslutet fattats med eller utan användning av AI. Samtidigt kan användning av vissa typer av AI-system försvåra för den personuppgiftsansvarige att fullgöra skyldigheten att förklara ett automatiserat beslut. Detta gäller till exempel vid användning av AI-system som är svarta lådor eller AI-system som baseras på generativ AI. Resultat som produceras av de förstnämnda kan i många fall inte förklaras på ett tillfredställande sätt medan resultat som tas fram av de sistnämnda präglas av hallucinationer.