AI-förordningen förbjuder utsläppande på EU-marknaden, ibruktagande eller användning av vissa AI-system för ändamål som till sin natur kränker grundläggande rättigheter och unionens värden. Förbuden gäller samtliga AI-system, oavsett om de har ett avsett ändamål eller utgör så kallade system för allmänna ändamål, såsom AI-chattbottar.
En central fråga är vilket ansvar leverantörer av AI-chattbottar har för att säkerställa efterlevnaden av förordningens förbud, och hur detta ansvar förhåller sig till tillhandahållarens ansvar.
Analys
Utgångspunkten är att både leverantören och tillhandahållaren ska vidta de åtgärder som, utifrån respektive roll och kontroll över chattbotten, är bäst lämpade för att säkerställa ett ansvarsfullt och säkert tillhandahållande och användande. Det handlar om att balansera systemets risker och fördelar inom ramen för respektive parts faktiska inflytande.
Tillhandahållaren får inte använda chattbotten på ett sätt som är förbjudet enligt artikel 5 AI-förordningen. Detta inkluderar att inte kringgå skyddsmekanismer som implementerats av leverantören. En potentiell skada uppkommer typiskt sett till följd av den konkreta användningen och beror på omständigheterna i det enskilda fallet. Detta innebär dock inte att leverantören är fri från ansvar. Leverantören får inte släppa ut på marknaden eller ta i bruk en chattbott som rimligen kan förväntas bete sig eller direkt användas på ett sätt som är förbjudet enligt artikel 5 AI-förordningen.
Enligt EU-kommissionen förväntas leverantörer vidta effektiva och kontrollerbara åtgärder för att bygga in skyddsmekanismer och förebygga samt begränsa skadligt beteende och felaktig användning i den mån sådana risker rimligen kan förutses. Åtgärderna ska vara genomförbara och proportionella med hänsyn till det specifika AI-systemet och omständigheterna i det enskilda fallet. Detta innebär bland annat att leverantören i sina användningsvillkor bör utesluta förbjudna användningsområden samt tillhandahålla lämplig information i bruksanvisningen om korrekt användning och nödvändig mänsklig kontroll.
En chattbott kan exempelvis använda manipulerande eller vilseledande tekniker som sannolikt kan orsaka betydande skada. För att förhindra förbjudna beteenden och användningar som rimligen kan förväntas manipulera, vilseleda och orsaka sådan skada enligt artikel 5.1 (a) AI-förordningen måste leverantören vidta lämpliga och proportionella åtgärder innan systemet släpps ut på marknaden. Samtidigt kan tillhandahållaren inte förlita sig på att leverantören ensidigt säkerställer full efterlevnad. Tillhandahållaren måste vidta åtgärder som förhindrar att chattbotten används i strid med förordningens förbud.
Praktiska konsekvenser
Leverantörer av AI-chattbottar kan inte vältra över allt ansvar för efterlevnaden på tillhandahållarna, inte ens under användningsledet. På motsvarande sätt kan tillhandahållarna inte lägga över hela ansvaret på leverantören. Ansvarsfrågan kräver en nyanserad bedömning utifrån bland annat respektive parts faktiska kontroll över relevanta aspekter av chattbotten, de skyddsmekanismer som implementerats samt hur chattbotten används i praktiken. För både leverantörer och tillhandahållare krävs därför en strukturerad analys av roller, risker och styrningsåtgärder redan innan chattbotten tas i bruk.
Relaterad expertis
TechLaw bistår aktörer med analys av ansvarsfördelning, avtalsreglering och styrningsfrågor enligt AI-förordningen. Läs mer om vår expertis inom artificiell intelligens.
Har ni frågor om hur regelverket bör tolkas eller tillämpas i er verksamhet är ni välkomna att kontakta oss.
Källa: Förordning (EU) 2024/1689; EU-kommissionen.