Det pratas allt oftare om tillförlitlig AI (Trustworthy AI), men vad menas egentligen med begreppet?
I EU-kommissionens riktlinjer för tillförlitlig AI konstateras att tillförlitlighet är en förutsättning för att människor och samhällen ska utveckla, sprida och använda AI-system. Om AI-systemen otillförlitliga kan detta leda till negativa konsekvenser och även försvåra systemens spridning. Detta kan leda till att fördelarna med AI-system inte kan utnyttjas. Tillförligheten påverkas av såväl komponenterna i ett AI-systemet som det större sammanhang i vilket systemet används. Därför handlar tillförlitlig AI inte bara om AI-systemet i sig utan även om aktörer och processer som ingår i systemets sammanhang under hela dess livscykel.
Enligt riktlinjerna har tillförlitlig AI har tre komponenter som bör finnas med under systemets hela livscykel:
- Den bör vara laglig och garantera respekt för alla gällande lagar och förordningar,
- Den bör vara etisk och säkerställa efterlevnad av etiska principer och värden, och
- Den bör vara robust, både ur tekniskt och samhälleligt perspektiv eftersom AI-system även med de bästa intentioner kan orsaka oavsiktliga skador.
I riktlinjerna poängteras att var och en av dessa tre komponenter är nödvändig, men inte tillräcklig i sig för att skapa tillförlitlighet. Det krävs att alla tre komponenter fungerar tillsammans och överlappa varandra. Samtidigt kan det uppstå spänningar mellan komponenterna, till exempel när lagstiftning och etiska normer avviker från varandra.