Twitter har tillfälligt stängt av flera användare som publicerade bilder och videor av en SpaceX-raketuppskjutning. Skälet var att innehållet klassades som “intimtate content” (dvs. innehåll av pornografisk natur) av företagets algoritmer som använder artificiell intelligens (AI) för att granska innehåll. Avstängningen skedde per automatik och utan förklaring. En av användarna som drabbades tweetade om avstängningen varpå Elon Musk, Twitters ägare, svarade ”Seems like our image recognition needs some work!”.
Enligt en tidigare Twitter-medarbetare är AI-algoritmerna för innehållsgranskning benägna att ge upphov till fel. Till exempel kan bilder med många hudfärgade pixlar utlösa pornografidetektorer. Som följd kan en person som delar en bild av sin pedikyr av misstag utlösa detektorerna. “Du kan föreställa dig hur en raket skulle kunna felaktigt identifieras [som pornografiskt innehåll]”, förklarar medarbetaren. Detektorerna har justerbara precisionströsklar som styr vilket innehåll som ska markeras som känsligt och när ett konto ska stängas av.
Enligt Sebastian Berg, AI-expert på TechLaw, pekar denna händelse på ett underliggande problem med användning av AI som behöver lyftas mer. AI kan göra fel. AI har svagheter som kan leda till olika typer av risker och, i vissa fall, allvarliga konsekvenser för enskilda. Det är uppenbart att en automatiserad avstängning på grund av spridning av pornografiskt innehåll som baseras på felaktiga grunder är till nackdel för användaren. Detta gäller särskilt när användaren inte kan vidta åtgärder för att ompröva beslutet och häva avstängningen.