AI-förordningen, som trädde i kraft den 1 augusti 2024, innehåller harmoniserade regler för utsläppande på marknaden, ibruktagande och användning av artificiell intelligens (AI) i EU. Förordningens syfte är att främja innovation inom och användning av AI och samtidigt säkerställa en hög skyddsnivå för hälsa, säkerhet och grundläggande rättigheter i EU, inbegripet demokrati och rättsstatsprincipen.
AI-förordningen följer en riskbaserad metod och delar in AI-system i fyra olika riskkategorier. Den första kategorin, oacceptabel risk, avser AI-system som medför oacceptabla risker för de grundläggande rättigheterna och EU:s värden. Sådana AI-system är förbjudna enligt artikel 5 AI-förordningen.
Den andra kategorin, hög risk, avser AI-system som medför höga risker för hälsa, säkerhet och grundläggande rättigheter. Dessa system omfattas av en rad krav och skyldigheter. Klassificeringen av ett system som ”AI-system med hög risk” sker i enlighet med artikel 6 AI-förordningen jämförd med bilagorna I och III till AI-förordningen.
Den tredje kategorin, transparensrisk, avser AI-system som medför begränsade transparensrisker. Sådana AI-system omfattas av transparensskyldigheterna i artikel 50 AI-förordningen.
Den fjärde och sista kategorin avser AI-system med liten till ingen risk. Sådana AI-system regleras inte i AI-förordningen, men leverantörer och tillhandahållare kan frivilligt följa frivilliga uppförandekoder. Därutöver kan sådana AI-system omfattas av andra regelverk, som till exempel dataskyddsförordningen (GDPR). För att avgöra i vilken eller vilka kategorier ett specifikt AI-system hamnar krävs en bedömning i det enskilda fallet.