AI och kommunikation: AI Act ställer krav på tydlighet
Artificiell intelligens (AI) spelar en allt större roll inom kommunikationen, men med den tekniska utvecklingen följer också ökade krav på transparens och tydlighet. Den nyligen antagna AI-förordningen (2024/1689) (AI Act) skärper reglerna för AI-genererat innehåll och ställer krav på tydlig märkning av AI-manipulerade bilder, videor, röster och i vissa fall även texter.

Transparenskrav: Märkning av AI-genererat material blir obligatoriskt
Enligt AI-förordningen, som till största delen träder i kraft den 2 augusti 2025, ska AI-system som skapar eller manipulerar innehåll informera mottagaren om att materialet är artificiellt framställt. Detta gäller särskilt det som i förordningen kallas för ”deepfakes”, alltså AI-genererade eller modifierade bilder, ljud eller videor som kan ge en felaktig uppfattning om verkligheten.
För deepfakes och syntetiskt innehåll föreskrivs ett uttryckligt märkningskrav, där informationen måste vara tydlig och maskinläsbar – exempelvis genom metadata eller vattenmärkning. Syftet är att minska risken för att mottagaren blir vilseledd och stärka konsumentskyddet. Kravet på information gäller även text som offentliggörs i syfte att informera allmänheten om frågor av allmänt intresse. Undantaget från detta krav är om det AI-genererade innehållet har genomgått en process med mänsklig granskning eller redaktionell kontroll och om en fysisk eller juridisk person bär det redaktionella ansvaret för offentliggörandet av innehållet. Undantaget syftar till att en ansvarig utgivare kan ta på sig ansvaret.
Inför en AI Policy
Hur generativa AI-verktyg kan och bör användas inom organisationen varierar beroende på verksamhetens karaktär. Generativ AI kan användas på många sätt, men vad som är lagligt och lämpligt beror på flera faktorer. Dels kan det handla om vilken information som hanteras inom verksamheten, dels om vilken information det generativa AI-verktyget får, eller kommer att få, tillgång till. Därför bör du som aktör ta fram en egen AI-policy som tydligt definierar ramarna för både användningen och användarna. En AI-policy bör ingå som ett styrdokument i verksamhetens styr- och ledningssystem och behöver inte heta ”AI-policy”. En policy eller annat styrdokument är en avsiktsförklaring som ska styra ett handlande i en viss riktning.
Reklambranschens självreglering skärps
Flera branschaktörer har redan vidtagit åtgärder för att säkerställa transparens. Sveriges Annonsörer och Sveriges Kommunikationsbyråer (Komm) har utvecklat etiska riktlinjer för AI-användning i marknadsföring, där en av huvudprinciperna är att mottagaren ska förstå när AI har använts, om det inte är uppenbart.
Även den internationella handelskammaren ICC har uppdaterat sina regler för reklam och marknadskommunikation för att inkludera AI-genererad marknadsföring. Reglerna kräver att företag som använder AI i sin marknadsföring ska tillämpa ”rimlig transparens”.
Hur kan organisationer anpassa sig?
För att undvika juridiska risker och säkerställa efterlevnad bör företag som använder AI i sin kommunikation redan nu:
- Införa märkning av AI-genererat innehåll, i linje med de kommande lagkraven.
- Säkerställa att kommunikationen inte är vilseledande, även innan AI-förordningen träder i kraft.
- Säkerställa att er användning av AI följer GDPR:s krav på behandling av personuppgifter.
- Skapa en AI Policy som tar upp organisationens ställningstaganden och kan användas som vägledning.
- Följa branschens principer och ICC:s regler för reklam och marknadskommunikation.
- Granska sociala mediers AI-regler, då plattformar som Facebook och Instagram redan har infört krav på AI-märkning.
AI:s roll i kommunikation fortsätter att expandera, men med tekniken följer ett ökande ansvar för transparens. De kommande lagkraven är en tydlig signal om att vilseledande AI-genererat innehåll inte kommer att tolereras. Företag som anpassar sig i tid minskar risken för juridiska problem och stärker förtroendet hos sina kunder.