
Någon har redan gjort grovjobbet. Efter ordentlig research och genomgång av vad EU AI Act faktiskt kräver, vad GDPR-efterlevnad innebär i praktiken och hur en policy faktiskt används i en organisation har en komplett mall tagits fram. Den är gratis, nedladdningsbar och byggd för att fungera på bolag av alla storlekar. Modifiera, anpassa och kalla den din egen.
Någon har redan gjort grovjobbet. Efter ordentlig research och genomgång av vad EU AI Act faktiskt kräver, vad GDPR-efterlevnad innebär i praktiken och hur en policy faktiskt används i en organisation har en komplett mall tagits fram. Den är gratis, nedladdningsbar och byggd för att fungera på bolag av alla storlekar. Modifiera, anpassa och kalla den din egen.
Det finns en olycklig trend i hur bolag hanterar AI-frågan internt. Någon på HR eller IT får i uppdrag att “ta fram något”, googlar i tjugo minuter, kopierar tre punkter från en konsultbyrås blogg och klistrar in det i ett Word-dokument som sedan försvinner in i intranätet för all framtid.
Det är inte en policy. Det är ett alibi.
Riktlinjerna ska inte leva i en PDF ingen kan hitta. De ska vara ett levande dokument, länkat från onboarding och interna processdokument. Det är precis den filosofin som ligger till grund för den mall som tagits fram här.
Från den 2 februari 2025 är det krav på att anställda hos leverantörer och tillhandahållare av AI har tillräcklig AI-kunnighet för att hantera dem ansvarsfullt. Det är alltså inte längre en fråga om ambitionsnivå. Det är lagkrav.
Mallen är strukturerad i tydliga sektioner som täcker det juridiska, det praktiska och det organisatoriska. Ingenting är med för prydnadsskulls skull.
Syfte och tillämpningsområde är alltid sektion ett. Policyn måste definiera exakt vad den gäller, vilka medarbetare som omfattas och vilka AI-system som inkluderas. En policy utan scope är som en karta utan legend.
Etiska principer är inte fluff. De ska vägleda all AI-användning inom företaget och inkludera principer som rättvisa, transparens, ansvarsskyldighet och respekt för mänskliga rättigheter. Det här avsnittet sätter tonen för allt annat och signalerar till medarbetare och kunder hur bolaget faktiskt förhåller sig till tekniken.
Datahantering och GDPR är den sektion där de flesta bolag har störst exponering utan att veta om det. Publika AI-tjänster är inte säkra platser för känslig data, något som Samsung fick erfara den hårda vägen när ingenjörer klistrade in källkod och interna mötesanteckningar i ChatGPT. Informationen hamnade hos OpenAI och gick inte att hämta tillbaka. Enligt GDPR bär ditt företag alltid ansvaret för hur personuppgifter hanteras, inte AI-leverantören.
Godkända och icke godkända verktyg löser shadow-AI-problemet som existerar i de allra flesta organisationer, ofta utan att ledningen känner till det. Mallen inkluderar en tabellstruktur för verktygslistan som går att fylla i direkt.
Riskklassificering enligt EU AI Act är ett avsnitt som kräver lite eftertanke men som inte går att hoppa över. Ett HR-system som använder AI för att filtrera jobbansökningar klassas som högrisk. En bank som använder AI för kreditbedömning likaså. Det handlar inte bara om ansiktsigenkänning och drönare.
Rollfördelning och ägarskap klargör vem som faktiskt ansvarar för AI-frågorna. Utan namngivna ansvariga hamnar ansvaret i ett kollektivt ingenmansland.
Utbildning och kompetenskrav specificerar minimikraven på AI-kunskap per rollkategori. Inte alla behöver veta hur en transformer-modell fungerar, men alla behöver veta vad de inte ska mata in i ChatGPT.
Uppföljning, revision och incidenthantering avslutar mallen. Det är det avsnitt som avgör om policyn är ett levande dokument eller ett historiskt artefakt.
En bra AI-policy följer en logisk ordning som gör att den både är läsbar för en nyanställd och tillräckligt strukturerad för att uppfylla krav från en extern granskning.
“AI-förordningen handlar inte om att bromsa innovation. Den handlar om att skapa förtroende.” — Dragisa Markovic, AI-policy-rådgivare vid EU-kommissionens AI-kontor
Mallen är uppbyggd i tre lager. Det första lagret är det strategiska, varför bolaget har policyn, vilka värderingar den vilar på och vad den övergripande ambitionen är. Det andra lagret är det operativa, konkreta regler, verktygsgodkännanden och rollbeskrivningar. Det tredje lagret är det processbaserade, hur policyn uppdateras, vem som rapporterar vad och hur incidenter hanteras.
Den här tredelade strukturen gör att policyn fungerar som referensdokument i tre olika situationer: vid onboarding, vid en intern revision och när något faktiskt går fel.
Att anta en policy är ungefär lika svårt som att köpa ett gymkort. Det enkla steget. Det svåra är att faktiskt använda det.
En AI-policy bör ingå som ett styrdokument i verksamhetens styr- och ledningssystem. Det innebär i praktiken att den ska vara länkad och levande, inte arkiverad.
Konkreta steg för att hålla policyn vid liv:
Kvartalsvisa genomgångar med den utsedda AI-ansvariga för att kontrollera att verktygslistan är aktuell och att inga nya risker har uppstått. Majoriteten av EU AI Acts bestämmelser börjar tillämpas den 2 augusti 2026, inklusive regler för högrisk-AI-system och transparenskrav. Det är ett datum att ha i kalendern redan nu.
Inkludera policyn i alla nyanställdas onboarding. Inte som en bilaga utan som ett moment med faktisk genomgång.
Rapporteringsrutin för incidenter, det vill säga när en medarbetare misstänker att känsliga uppgifter hanterats felaktigt i ett AI-verktyg. Utan en tydlig rapporteringsväg sker ingenting och problemet eskalerar i tystnad.
Halvårlig utbildningspåminnelse till samtlig personal, anpassad till rollkategori. En säljare behöver inte samma utbildning som en systemutvecklare, men båda behöver en.
| Situation | Utan aktiv AI-policy | Med aktiv AI-policy |
|---|---|---|
| Dataincident via AI-verktyg | Oklart ansvar, potentiell GDPR-anmälan | Tydlig process, snabb hantering |
| Ny AI-tjänst ska användas | Ad hoc-beslut utan granskning | Genomgång mot godkänd lista |
| Extern revision eller kundkrav | Svårt att visa regelefterlevnad | Dokumenterat och revisionsfärdigt |
| Ny medarbetare börjar | Lär sig av kollegor, inkonsekvent | Strukturerad onboarding med AI-avsnitt |
| EU AI Act-kontroll | Exponerad för sanktioner | Proaktivt förberedd |
Fördelar Sparar tid jämfört med att börja från noll Täcker juridiska krav som är lätta att missa Strukturen är beprövad och logisk Går att anpassa fullt ut efter bolagets behov och storlek Inkluderar avsnitt som många glömmer, som incidenthantering och revisionsplan
Nackdelar Kräver fortfarande anpassning, en mall är en mall inte ett färdigt dokument Måste uppdateras löpande i takt med lagstiftning och teknikutveckling Fungerar bara om policyn faktiskt förankras i organisationen och inte bara antas formellt
Vem passar mallen för? Mallen är framtagen för att fungera för bolag av alla storlekar. Oavsett om det handlar om ett startup med tio anställda eller ett medelstort bolag med hundratals medarbetare fungerar strukturen som utgångspunkt.
Får mallen modifieras fritt? Ja. Det är hela poängen. Ta bort det som inte är relevant, lägg till det som är specifikt för er bransch och gör den till ert eget dokument.
Hur länge håller mallen? Som referens håller strukturen länge. Specifikt innehåll, framför allt verktygslistan och riskklassificeringen, behöver ses över minst en gång per år. Ett tips är att köra igenom den nästa år, fråga vad som är nytt i t.ex Claude och be att den uppdateras utan att ändra grundstruktur.
Måste juridik vara inblandad när policyn antas? Det rekommenderas starkt, framför allt för bolag som hanterar känsliga personuppgifter eller driver verksamhet i reglerade branscher som finans, vård eller HR-tech.
Vad är det vanligaste misstaget bolag gör med AI-policies? Att anta dem och sedan aldrig röra dem igen. En policy som inte är levande är värre än ingen policy alls, för den skapar en falsk trygghet.






