I september 2022 lämnade EU-kommissionen ett förslag på ett direktiv om skadeståndsansvar gällande AI, COM(2022) 496 final (direktivet). Syftet med direktivet är att säkerställa att offer för skador orsakade av AI får samma skydd som de som drabbas av skador som orsakas av produkter i allmänhet. Syftet ska uppnås genom enhetliga regler för vissa aspekter av utomobligatoriskt civilrättsligt skadeståndsansvar för sådana skador.
I denna artikel analyserar vi innebörden av direktivet med fokus på de två huvudsakliga regeländringarna avseende en ny skyldighet att lämna ut bevis och en ny presumtion om kausalitet vid culpa som har bevislättnande verkan.
Bakgrund
De nuvarande nationella ansvarsreglerna, särskilt de som är grundade på culpa, lämpar sig inte för att hantera skadeståndsanspråk för skador som orsakats av AI-system. Enligt dessa regler måste skadelidande bevisa att den person som orsakat skadan handlade felaktigt eller felaktigt underlät att uppfylla sina skyldigheter. Särdragen i AI-system (komplexitet, autonomi, bristen på insyn m.m.), kan göra det svårt eller oskäligt kostsamt för skadelidande att identifiera den ansvariga personen och uppnå kraven för ett framgångsrikt skadeståndsanspråk. Särskilt när de begär ersättning riskerar skadelidande att ådra sig mycket höga initialkostnader och genomgå betydligt längre rättsliga förfaranden, jämfört med fall som inte rör AI. Skadelidande kan därför helt och hållet avskräckas från att begära ersättning.
Syfte och tillämpningsområde
Syftet med direktivet är att säkerställa att offer för skador orsakade av AI får samma skydd som de som drabbas av skador som orsakas av produkter i allmänhet. Syftena ska uppnås genom att fastställa enhetliga regler för vissa aspekter av utomobligatoriskt civilrättsligt skadeståndsansvar för en skada som orsakats av AI-system. I huvudsak innehåller dessa regler en presumtion om kausalitet vid culpa och skyldigheter för att lämna ut bevis till skadelidande.
Direktivet är tillämpligt på utomobligatoriska civilrättsliga skadeståndsanspråk för skador som orsakats av ett AI-system, när sådana anspråk görs inom ramen för culpabaserade ansvarssystem. Med detta avses system som föreskriver ett lagstadgat ansvar för att ersätta skada som vållats genom en avsiktlig eller försumlig handling eller underlåtenhet.
Detta direktiv ska inte tillämpas retroaktivt, utan endast på skadeståndsanspråk som uppstår från och med dagen för dess införlivande.
Subrogat och grupptalan
Skadeståndsanspråk kan inte bara göras gällande av den skadelidande utan även av personer som skadelidandes rätt har överlåtits eller subrogerats till. Subrogation innebär att en tredje part (till exempel ett försäkringsbolag) övertar en annan parts lagliga rätt att driva in en skuld eller ett skadestånd. En person har således rätt att göra gällande en annan persons rättigheter för egen räkning. Subrogation skulle även omfatta arvingar till avlidna skadelidande.
En skadeståndstalan kan även väckas av någon som agerar på en eller flera skadelidande parters vägnar, i enlighet med unionsrätten eller nationell rätt. Denna bestämmelse syftar till att ge fler möjligheter för personer som skadats av ett AI-system att få sina anspråk bedömda av en domstol, även i fall där det kan verka för kostsamt eller besvärligt att genomdriva en enskild talan, eller där en gemensam talan kan medföra storskalighetsfördelar.
Utlämnande av bevis
Ett av syftena med direktivet är att ge personer som begär ersättning för skada som orsakats av AI-system med hög risk, som definieras i enlighet med AI-förordningen, effektiva medel för att identifiera potentiellt ansvariga personer och relevanta bevis för ett anspråk.
I detta avseende föreskriver direktivet att en domstol får besluta om utlämnande av relevanta bevis om specifika AI-system med hög risk som misstänks ha orsakat skada. Begäran om bevis riktas till leverantören av ett AI-system, en person som omfattas av leverantörens skyldigheter enligt AI-förordningen eller en användare i enlighet med AI-förordningen. Begäran bör stödjas av fakta och bevis som är tillräckliga för att fastställa rimligheten i en avsedd skadeståndstalan, och det begärda beviset bör stå till adressatens förfogande. Begäranden kan inte riktas till parter som inte har några skyldigheter enligt AI-förordningen och därför inte har tillgång till beviset.
Kursen ger dig en grundlig genomgång av reglerna i AI-förordningen och ökar din kunskap om hur din organisation kan utveckla och använda AI-system på ett lagenligt sätt. Läs mer >
Sökanden kan endast begära utlämnande av bevis från leverantörer eller användare som inte är motpart om alla rimliga försök att samla in bevis från motparten gjorts och dessa misslyckats. En domstol får även förordna om bevarande av sådana bevis. Domstolen får besluta om sådant utlämnande endast i den utsträckning som är nödvändig för att styrka kravet, med tanke på att informationen kan utgöra avgörande bevis för den skadelidandes anspråk vid skada som inbegriper AI-system.
Ett utlämnande omfattas av skyddsåtgärder för att skydda alla berörda parters legitima intressen, såsom företagshemligheter eller konfidentiell information. Exampel på skyddsåtgärder är processuella rättsmedel mot ett beslut om utlämnande eller bevarande.
Vidare införs en presumtion om bristande iakttagande av ett aktsamhetskrav när en motpart inte efterkommer en begäran om utlämnande eller bevarande av bevis. Motparten ska ha rätt att motbevisa den presumtionen.
Presumtion om kausalitet vid culpa
När det gäller skada som orsakas av AI-system syftar direktivet till att tillhandahålla en effektiv grund för att begära ersättning i samband med den culpa som ger sig uttryck genom bristande iakttagande av ett aktsamhetskrav enligt unionsrätten eller nationell rätt.
Det kan vara en utmaning för sökanden att fastställa kausalitet mellan ett sådant bristande iakttagande och utdata som produceras av ett AI-system, eller underlåtenhet att producera utdata, som gett upphov till den relevanta skadan. Därför fastställer direktivet en riktad motbevisbar presumtion om kausalitet när det gäller detta orsakssamband. Lagstiftaren anser att en sådan presumtion är den minst betungande åtgärden för att tillgodose behovet av skälig ersättning till skadelidande.
Motpartens culpa måste bevisas av sökanden i enlighet med tillämpliga unionsbestämmelser eller nationella regler. Sådan culpa kan exempelvis fastställas för bristande iakttagande av ett aktsamhetskrav enligt AI-förordningen eller enligt andra regler som fastställts på unionsnivå. Sådan culpa kan också presumeras av domstolen på grundval av bristande efterlevnad av ett domstolsbeslut om utlämnande eller bevarande av bevis enligt direktivet. Det är dock endast lämpligt att införa en presumtion om kausalitet när det kan anses sannolikt att en viss culpa har påverkat det relevanta AI-systemets utdata eller avsaknad av utdata, vilket kan bedömas på grundval av de övergripande omständigheterna i ärendet. Samtidigt måste sökanden fortfarande bevisa att AI-systemet (dvs. dess utdata eller underlåtenhet att producera uteffekt) orsakade skadan.
Det görs en åtskillnad mellan å ena sidan anspråk som görs gällande mot leverantören av ett AI-system med hög risk eller mot en person som omfattas av leverantörens skyldigheter enligt AI-förordningen och, å andra sidan anspråk som görs gällande mot användaren av sådana AI-system. I detta avseende följer den de respektive bestämmelserna och de relevanta villkoren i AI-förordningen. I vissa fall måste motparternas efterlevnad av de skyldigheter också bedömas mot bakgrund av riskhanteringssystem och systemets resultat, dvs. riskhanteringsåtgärder, enligt AI-förordningen. För AI-system med hög risk finns vissa undantag från presumtionen om kausalitet.
När det gäller AI-system som inte medför en hög risk fastställs ett villkor för att presumtionen om kausalitet ska vara tillämplig. Enligt detta villkor ska, för att presumtionen ska gälla, en domstol fastställa att det är orimligt svårt för sökanden att bevisa ett orsakssamband. Sådana svårigheter ska bedömas mot bakgrund av särdragen hos vissa AI-system, såsom autonomi och brist på insyn, som i praktiken gör det mycket svårt att förklara AI-systemets inre funktion, vilket inverkar negativt på sökandens förmåga att bevisa orsakssambandet mellan motpartens culpa och AI-utdatan.
I fall där motparten använder AI-systemet i samband med en privat icke-yrkesmässig verksamhet gäller presumtionen om kausalitet endast i vissa fall.
Sammanfattning
Om förslaget blir verklighet ställs leverantörer och användare av AI-system inför nya skadeståndsrättsliga regler för skador som orsakas av AI-system. Reglerna innebär för det ena en bevislättnad för den skadelidande och för det andra nya krav på att lämna ut relevanta bevis.
Avseende bevislättnaden kan en ny presumtion kausalitet vid culpa bli tillämplig när en person hos en leverantör eller användare av ett AI-system har brustit i sitt iakttagande av ett relevant krav, som till exempel en relevant skyldighet enligt AI-förordningen. Detta kräver dock bland annat att den sökande kan visa att det är sannolikt att det finns ett orsakssamband mellan skadan och AI-systemets prestation. Det är således fraga om en begränsad bevislättnad i specfika situationer och inte en omvänd bevisbördan.
Gällande de nya krav på utlämnandet av bevis måste vissa förutsättningar vara uppfyllda för att sådana utlämnanden ska bli aktuella. Därutöver omfattas utlämnandena av åtgärder för att skydda alla berörda parters legitima intressen, såsom företagshemligheter eller konfidentiell information.