Tyskland: BSI informerar om möjligheter och risker med Large Language Models

Stora AI-språkmodeller, Large Language Models (LLM), är vanligt förekommande i den offentliga debatten om artificiell intelligens (AI). I synnerhet tillkännagivandet och publiceringen av modeller som ChatGPT har snabbt gjort AI-språkmodeller välkända. Som en del av den 19:e tyska IT-säkerhetskongressen har Bundesamt für Sicherheit in der Informationstechnik (BSI) publicerat en vägledning där myndigheten ger information om styrkor, svagheter och risker med AI-språkmodeller, samt lämpliga försiktighetsåtgärder.

Enligt Dr Gerhard Schabhüser, vice ordförande för BSI, kan AI-språkmodeller vara användbara verktyg. De kan vara till hjälp för att känna igen skräppost eller phishing-mejl eller för att upptäcka oönskat innehåll som falska nyheter eller hatpropaganda på sociala medieplattformar. I samma utsträckning medför AI-modeller dock enligt Dr Gerhard Schabhüse också risker. På darknet pågår diskussioner om hur AI kan användas för att skapa skadlig kod och phishingmejl. AI-stödda språkmodeller är också mycket väl lämpade för att skapa och sprida falsk information.

Manipulerade bilder, videor och röster är risker som BSI anser bör motverkas med lämpliga försiktighetsåtgärder. Till exempel kan äktheten i texter och meddelanden bevisas genom krypteringsmetoder som kan användas för att tekniskt bevisa deras ursprung. Särskilt viktigt är det att utbilda användarna om AI. På grund av den språkligt ofta felfria textgenereringen får användare av AI-språkmodeller enligt BSI ofta intrycket av människoliknande prestanda och därmed för stor tilltro till det AI-genererade innehållet. Att öka medvetenheten om detta är en viktig åtgärd. BSI kommer därför inom kort att publicera en motsvarande vägledning för konsumenter.

Företag eller myndigheter som överväger att integrera AI-språkmodeller i sina arbetsflöden bör också genomföra en riskanalys för sitt specifika användningsfall och utvärdera de risker som nämns i BSI:s vägledning för att avgöra om de utgör ett hot mot deras arbetsflöden. Baserat på detta bör befintliga säkerhetsåtgärder anpassas. Ur BSI:s synvinkel bör AI-språkmodeller för närvarande i princip betraktas som verktyg vars resultat, till exempel vid skapandet av programkod eller texter, bör kontrolleras av en mänsklig intelligens.

Mer information

Källa: Vägledning

Relaterade nyheter

Områden

I fokus

Länder

Taggar

Populära kurser

Expertis

Gå kurs med oss

14 MAR

NIS 2-direktivet – Cybersäkerhet i praktiken

En genomgång av de viktigaste reglerna i NIS2-direktivet och kompletterande svensk lagstiftning.

21 MAR

Introduktion till AI-förordningen

En genomgång av de viktigaste reglerna i den nya AI-förordningen och hur du kan använda AI-system på ett lagenligt sätt.

11 APR

Introduktion till Cyber Resilience Act

En genomgång av Cyber Resilience Act och hur du kan tillverka, distribuera och sälja produkter med digitala element på ett lagenligt sätt.