Kunskap: Risknivåer för AI-system enligt AI-förordningen

AI-förordningen bygger på en riskbaserad metod. Ju högre risken är för människor eller samhället i stort, desto strängare regler kommer företag och andra organisationer att ställas inför.

AI-förordningen skiljer mellan fyra olika risknivåer: AI-system med oacceptabel risk, AI-system med hög risk, AI-system med transparensrisk och AI-system med minimal eller ingen risk.

AI-system med oacceptabel risk

Alla AI-system som anses utgöra ett tydligt hot mot människors säkerhet, försörjning och rättigheter förbjuds. Detta innebär att företag och andra organisationer inte får tillhandahålla eller driftsätta dessa AI-system efter den 5 februari 2025. AI-förordningen förbjuder åtta AI-användningsområden;

  • Skadlig AI-baserad manipulation och vilseledande
  • Skadligt AI-baserat utnyttjande av sårbarheter
  • Social poängsättning
  • Riskbedömning eller förutsägelse av enskilda brott
  • Icke målinriktad skrapning av internet eller kamerabevakningsmaterial för att skapa eller utöka databaser för ansiktsigenkänning
  • Känsloigenkänning på arbetsplatser och utbildningsinstitutioner
  • Biometrisk kategorisering för att härleda vissa skyddade egenskaper
  • Biometrisk identifiering på distans i realtid för brottsbekämpande ändamål i allmänt tillgängliga utrymmen

AI-system med hög risk

AI-tillämpningar som kan innebära allvarliga risker för hälsa, säkerhet eller grundläggande rättigheter klassificeras som AI-system med hög risk (artikel 6 AI-förordningen). Dessa AI-system får endast släppas ut på marknaden eller tas i bruk om de uppfyller vissa obligatoriska krav. Kraven för dessa system träder i kraft från och med augusti 2026. AI-system med hög risk inkluderar bland annat följande användningsområden:

  • Biometri
  • Kritisk infrastruktur
  • Utbildning och yrkesutbildning
  • Anställning, arbetsledning och tillgång till egenföretagande
  • Tillgång till och åtnjutande av väsentliga tjänster och förmåner
  • Brottsbekämpning
  • Migration, asyl och gränskontrollförvaltning
  • Rättskipning och demokratiska processer

AI-system med transparensrisk

AI-tillämpningar som endast innebär en begränsad risk omfattas av ett antal transparensskyldigheter (artikel 50 AI-förordningen). Det handlar ofta om AI-system som är avsedda att kommunicera med människor, till exempel chattbots, eller AI-system som genererar innehåll, till exempel text och bilder. Den som tillhandahåller eller driftsätter dessa system måste informera människor om att de har att göra med ett AI-system. Transparensskyldigheterna träder i kraft från och med augusti 2026.

AI-system med minimal eller ingen risk

AI-förordningen innehåller inga regler för AI som bedöms utgöra en minimal eller ingen risk. Den stora majoriteten av de AI-system som för närvarande används i EU faller inom denna kategori. Detta inkluderar applikationer som AI-baserade skräppostfilter.

Mer information

Källa: Förordning (EU) 2024/1689

Relaterade nyheter

Kostnadsfritt webbinarium om klassning av AI-system enligt AI-förordningen

Under webbinariet går vi igenom hur AI-system bedöms enligt AI-förordningens olika risknivåer och vad det innebär för din verksamhet.