AI-förordningen bygger på en riskbaserad metod. Ju högre risken är för människor eller samhället i stort, desto strängare regler kommer företag och andra organisationer att ställas inför.
AI-förordningen skiljer mellan fyra olika risknivåer: AI-system med oacceptabel risk, AI-system med hög risk, AI-system med transparensrisk och AI-system med minimal eller ingen risk.
AI-system med oacceptabel risk
Alla AI-system som anses utgöra ett tydligt hot mot människors säkerhet, försörjning och rättigheter förbjuds. Detta innebär att företag och andra organisationer inte får tillhandahålla eller driftsätta dessa AI-system efter den 5 februari 2025. AI-förordningen förbjuder åtta AI-användningsområden;
- Skadlig AI-baserad manipulation och vilseledande
- Skadligt AI-baserat utnyttjande av sårbarheter
- Social poängsättning
- Riskbedömning eller förutsägelse av enskilda brott
- Icke målinriktad skrapning av internet eller kamerabevakningsmaterial för att skapa eller utöka databaser för ansiktsigenkänning
- Känsloigenkänning på arbetsplatser och utbildningsinstitutioner
- Biometrisk kategorisering för att härleda vissa skyddade egenskaper
- Biometrisk identifiering på distans i realtid för brottsbekämpande ändamål i allmänt tillgängliga utrymmen
AI-system med hög risk
AI-tillämpningar som kan innebära allvarliga risker för hälsa, säkerhet eller grundläggande rättigheter klassificeras som AI-system med hög risk (artikel 6 AI-förordningen). Dessa AI-system får endast släppas ut på marknaden eller tas i bruk om de uppfyller vissa obligatoriska krav. Kraven för dessa system träder i kraft från och med augusti 2026. AI-system med hög risk inkluderar bland annat följande användningsområden:
- Biometri
- Kritisk infrastruktur
- Utbildning och yrkesutbildning
- Anställning, arbetsledning och tillgång till egenföretagande
- Tillgång till och åtnjutande av väsentliga tjänster och förmåner
- Brottsbekämpning
- Migration, asyl och gränskontrollförvaltning
- Rättskipning och demokratiska processer
AI-system med transparensrisk
AI-tillämpningar som endast innebär en begränsad risk omfattas av ett antal transparensskyldigheter (artikel 50 AI-förordningen). Det handlar ofta om AI-system som är avsedda att kommunicera med människor, till exempel chattbots, eller AI-system som genererar innehåll, till exempel text och bilder. Den som tillhandahåller eller driftsätter dessa system måste informera människor om att de har att göra med ett AI-system. Transparensskyldigheterna träder i kraft från och med augusti 2026.
AI-system med minimal eller ingen risk
AI-förordningen innehåller inga regler för AI som bedöms utgöra en minimal eller ingen risk. Den stora majoriteten av de AI-system som för närvarande används i EU faller inom denna kategori. Detta inkluderar applikationer som AI-baserade skräppostfilter.