Digital rättvisevåg med element av AI-reglering och europeisk arkitektur

EU AI Act: praktisk guide för vad ditt företag måste göra före augusti 2026

Världens första AI-förordning är redan i kraft. Det här behöver du veta och göra innan böterna kommer

Av AISHA · 7 april 2026 · 12 min läsning

Böterna under EU AI Act kan uppgå till 7 % av den globala årsomsättningen — mer än dubbelt så höga som GDPR:s maximala böter.

EU AI Act är redan i kraft och augusti 2026 är den verkliga tidsfristen för merparten av företagen. Varje AI-system som påverkar anställning, kreditgivning, försäkringar eller utbildning är sannolikt högrisk. Böterna överstiger GDPR:s: upp till 7 % av den globala omsättningen. Du har fyra månader på dig att inventera, klassificera riskerna och dokumentera. Den här artikeln förklarar exakt vad du behöver göra.

Tillämpningskalender för EU AI Act

Feb 2025

Förbjudna metoder i kraft (Art. 5)

Aug 2025

GPAI-skyldigheter (GPT-4, Claude, Gemini…)

Aug 2026

Högrisk — den verkliga tidsfristen för företag

Aug 2027

Produkter reglerade av andra direktiv

35 %

Företag som använder AI vid rekrytering (hög risk)

7 %

Maximal bot baserad på global omsättning

€ 35 M

Maximal absolut bot för förbjudna metoder

Aug 2026

Tidsfrist för högrisk-system

GDPR kom 2018 och det tog företagen år att ta det på allvar. De första böterna minns man som en sen varning. EU AI Act kommer inte att bli annorlunda — förutom i en detalj: de maximala böterna är nästan dubbelt så höga som GDPR:s. Där GDPR nådde upp till 4 % av den globala årsomsättningen når AI Act upp till 7 %. Och klockan tickar redan.

Augusti 2026 är det datum då AI-system med hög risk blir fullt sanktionerbara i EU:s 27 medlemsländer. Det är fyra månader kvar. Den här artikeln förklarar vad förordningen innebär, vad som berör dig och vad du måste göra innan det datumet.


Vad är egentligen EU AI Act?

Förordning (EU) 2024/1689, känd som EU AI Act, är världens första AI-förordning med lagkraft. Det är inte ett direktiv: det är en förordning, vilket i EU-rätten innebär att den tillämpas direkt i alla 27 medlemsstater utan behov av nationell införlivning. Från det ögonblick den träder i kraft är den lag i Spanien, Frankrike, Tyskland och resten av Europa, utan mellansteg.

Den publicerades i Europeiska unionens officiella tidning den 12 juni 2024 och trädde i kraft den 1 augusti 2024. Dess arkitektur är stegvis tillämpning: olika delar av förordningen aktiveras vid olika datum mellan 2025 och 2027.

Den bärande principen är det riskbaserade tillvägagångssättet: ju mer ett AI-system kan skada människor, desto striktare skyldigheter. All AI regleras inte lika. Ett spamfilter och ett system för personalurval behandlas inte likadant.


De 4 riskkategorierna

AI Act delar in AI-system i fyra nivåer. Att veta i vilken kategori varje verktyg som ditt företag använder hamnar är det första obligatoriska steget.

KategoriVad som ingårRegim
Oacceptabel riskStatlig social poängsättning, subliminal manipulation, utnyttjande av sårbarheter, biometrisk identifiering i realtid på offentliga platserFörbjudet — I kraft sedan feb. 2025
Hög riskKritisk infrastruktur, anställning och HR, kreditgivning, försäkringar, utbildning, rättsväsende, migrationReglerat — Sanktionerbart från aug. 2026
Begränsad riskChatbottar som verkar mänskliga, deepfakesObligatorisk transparens
Minimal riskSpam, rekommendationsmotorer, AI i datorspelFritt — Inga specifika skyldigheter

Oacceptabel risk: förbjudet sedan februari 2025

Dessa metoder är helt förbjudna i EU sedan den 2 februari 2025. Om ditt företag eller någon leverantör du anlitar använder dem, bryter du mot förordningen just nu:

  • Social poängsättning: system som poängsätter personer baserat på beteende i olika sammanhang i deras liv för att bestämma fördelar eller nackdelar
  • Subliminal manipulation: AI som använder tekniker under medvetandets tröskel för att ändra beteenden
  • Utnyttjande av sårbarheter: system som utnyttjar ålder, funktionsnedsättning eller socioekonomisk situation för att påverka på ett skadligt sätt
  • Biometrisk identifiering i realtid på offentliga platser — med mycket begränsade undantag för brottsbekämpande myndigheter

Hög risk: det block som berör de flesta företag

Bilaga III i förordningen listar de sektorer där AI-system automatiskt klassas som hög risk. Det inkluderar:

  • Kritisk infrastruktur: vatten, gas, elektricitet, transport — AI som påverkar driften av dessa nätverk
  • Utbildning och yrkesutbildning: system som bestämmer tillgång, utvärderar prestationer eller avgör utbildningsvägar
  • Anställning och HR: urval av kandidater, CV-poängsättning, uppgiftsfördelning, prestationsövervakning
  • Väsentliga tjänster: kreditvärdering, solvensbedömning, riskklassificering inom försäkring
  • Brottsbekämpning och migration: profilering, riskbedömning, beslut om visum eller asyl
  • Rättskipning: AI som assisterar vid tvistlösning eller tolkning av fakta

Begränsad risk: den transparens som många glömmer

Chatbottar som interagerar med människor måste uppge att de är AI när det finns rimlig möjlighet att användaren tror att den talar med en människa. Samma sak gäller deepfakes: innehåll som genererats eller manipulerats av AI och som föreställer verkliga personer måste märkas som sådant. Skyldigheten gäller redan nu.

Minimal risk: merparten av vardagens AI

Spamfilter, rekommendationsmotorer utan påverkan på rättigheter, AI i datorspel, skrivassistenter utan konsekvenser för beslut: inga specifika skyldigheter under AI Act. De kan fortsätta fungera som hittills.


Vad innebär det att vara “hög risk”?

Om ett av dina system faller i kategorin hög risk ställer förordningen nio konkreta krav innan det lanseras — och under hela dess operativa livstid:

  1. Riskhanteringssystem: kontinuerlig och dokumenterad process för identifiering, bedömning och begränsning av risker under systemets hela livscykel
  2. Datastyrning: data för träning, validering och testning måste vara relevant, representativ, så felfri som möjligt och får inte vidmakthålla diskriminering
  3. Teknisk dokumentation före driftsättning: all relevant teknisk information måste finnas tillgänglig innan systemet sätts i produktion, inte efteråt
  4. Loggning av aktivitet: systemet måste automatiskt registrera sin aktivitet för att möjliggöra efterhandstillsyn, särskilt vid beslut med stor påverkan
  5. Transparens och information till användaren: operatörer måste få tydliga användningsinstruktioner; berörda medborgare måste veta att de utvärderas av ett AI-system
  6. Effektiv mänsklig tillsyn (Human-in-the-loop): det måste finnas en reell möjlighet för en människa att granska, korrigera eller upphäva systemets beslut — inte som en kryssruta, utan som en operativ process
  7. Noggrannhet, robusthet och cybersäkerhet: systemet måste upprätthålla dokumenterade nivåer av noggrannhet och motstå manipulationsförsök
  8. Registrering i EU-databas: högrisk-system i reglerade sektorer måste registreras i den europeiska databasen innan de används på marknaden
  9. Försäkran om överensstämmelse: motsvarigheten till CE-märkning för fysiska produkter — formell certifiering av att systemet uppfyller alla tillämpliga krav

Att uppfylla dessa nio skyldigheter är inte ett veckoprojekt. För de flesta företag är det en process på tre till sex månader om man börjar från noll.


De användningsfall som flest företag förbiser

Det vanligaste misstaget är inte att använda förbjuden AI. Det är att inte veta att systemet man använder är högrisk. Här är de fall som oftast underskattas:

CV-screening och personalurval med AI — Om du använder ett verktyg som automatiskt filtrerar, poängsätter eller klassificerar kandidater innan en människa ser dem, är det hög risk enligt Bilaga III. LinkedIn Recruiter med AI-filter, Workday med kandidatpoängsättning, vilket ATS som helst med automatisk gallring. 35 % av europeiska företag använder redan AI i någon del av rekryteringsprocessen.

Kreditvärdering — Varje modell som tilldelar en kreditvärdighetspoäng eller sannolikhet för betalningsinställelse faller under kategorin väsentliga tjänster i Bilaga III. Det är hög risk oavsett om du utvecklade den själv eller köper den som SaaS från en leverantör.

Försäkringschatbottar som beslutar om täckning — Om chatbotten inte bara informerar utan avgör om en täckning gäller eller vilken premie som ska tillämpas, är det hög risk. Nyckeln är om systemet påverkar ett beslut som materiellt påverkar en person.

AI för att bedöma studenter — System för plagiatkontroll som automatiserar sanktioner, e-learningplattformar som anpassar utbildningsvägar baserat på automatisk bedömning, verktyg som genererar betyg utan mänsklig granskning: hög risk inom utbildningsblocket.

Prediktiva underhållssystem för kritisk infrastruktur — Om AI:n förutsäger fel i vatten-, gas-, el- eller transportnätverk och den förutsägelsen påverkar operativa beslut, hög risk inom infrastrukturblocket.

Rätt fråga är inte “Använder vi högrisk-AI?” utan “Vilka beslut som påverkar människor fattar eller påverkar AI:n i vårt företag?”


Modeller för allmänna ändamål (GPAI): i kraft sedan augusti 2025

AI-modeller för allmänna ändamål — det som branschen kallar grundmodeller — har sin egen regim under AI Act. GPT-4, Claude, Gemini, Llama, Mistral: alla är föremål för specifika skyldigheter som varit aktiva sedan augusti 2025.

För alla GPAI-modeller, oavsett storlek:

  • Transparens kring träningsdata: vilka data som användes, med vilka licenser
  • Copyright-policy: sammanfattning av de policyer som tillämpats under träningen
  • Publicerad teknisk dokumentation: tillgängliga modellspecifikationer

För modeller med systemisk påverkan — definierat som modeller tränade med mer än 10²⁵ FLOPs (för närvarande GPT-4 och motsvarande) — tillkommer:

  • Adversariella säkerhetsutvärderingar (red-teaming) före och efter driftsättning
  • Rapportering av allvarliga incidenter till den europeiska AI Office
  • Förstärkta cybersäkerhetsåtgärder
  • Inventering av energiförbrukning

Om ditt företag bygger produkter ovanpå API:er från dessa modeller, vilar GPAI-efterlevnaden på modellleverantören — men du är fortfarande ansvarig för hur du använder modellen i system som kan vara högrisk.


Kalendern som är viktig för ditt företag

Datumen i AI Act är inte symboliska. Vart och ett aktiverar en annan regim med verkliga rättsliga konsekvenser.

Den 2 februari 2025 aktiverade de absoluta förbuden. Om ditt företag använder social poängsättning eller biometrisk identifiering i realtid utan rättsligt stöd, bryter det mot förordningen sedan mer än ett år tillbaka.

Den 2 augusti 2025 aktiverade skyldigheterna för GPAI-modeller. Leverantörer av grundmodeller står redan under tillsyn av AI Office.

Den 2 augusti 2026 är det datum som flest företag ignorerar — och det viktigaste. Från och med den dagen måste alla högrisk-AI-system som listas i Bilaga III fullt ut uppfylla artiklarna 6 till 49 i förordningen. Nationella myndigheter kan inleda utredningar och utdöma sanktioner.

Från idag till augusti 2026 återstår fyra månader. För ett företag som startar processen från noll är det precis tillräckligt med tid om man agerar nu.

Den 2 augusti 2027 införlivas högriskprodukter som regleras av andra EU-direktiv — medicinteknisk sektor, luftfart, fordonsindustri. Det blocket har ett års ytterligare marginal.


Böterna — hårdare än GDPR

GDPR har genererat mer än 5 miljarder euro i böter sedan 2018. AI Act fördubblar den maximala skalan:

ÖverträdelseMaximal bot
Förbjudna metoder (Art. 5)€35M eller 7 % av global omsättning
Bristande uppfyllelse av krav (Art. 6–49)€15M eller 3 % av global omsättning
Felaktig information till tillsynsmyndigheter€7,5M eller 1 % av global omsättning

Direkt jämförelse: GDPR har ett maximum på 4 % av den globala omsättningen. AI Act når 7 % — x1,75 strängare i värsta fall.

För SMF anger förordningen att det lägre beloppet av procentandelen av omsättningen och de absoluta beloppen ska tillämpas. Men även de absoluta beloppen — 35 miljoner för förbjudna metoder — är förödande för alla medelstora företag.

Det finns ytterligare en viktig nyans: böter under AI Act kan ackumuleras med böter under GDPR när en överträdelse även berör personuppgifter. Ett personalurvalsystem som diskriminerar och kränker privatlivet kan sanktioneras under båda förordningarna.


Handlingsplan i 5 steg inför augusti 2026

Fyra månader räcker om processen startar den här veckan. Här är sekvensen:

Steg 1 — Inventering av AI-system i bruk

Kartlägg alla verktyg som använder AI i ditt företag: från HR:s ATS till CRM med prediktiv poängsättning, analytics-dashboards, kundtjänstchatbottar och alla SaaS som behandlar personuppgifter med AI. Inte bara system du utvecklat internt — även de du köper som tjänst. AI Act gäller de som driftsätter AI-system, inte bara de som utvecklar dem.

Steg 2 — Riskklassificering per system

För varje identifierat system, bestäm dess kategori enligt Bilaga III. Nyckelfrågan: Påverkar detta system beslut som materiellt påverkar människor — deras anställning, kreditvärdighet, tillgång till tjänster, utbildning, rättigheter? Om svaret är ja, är det sannolikt högrisk. Vid tveksamhet är den konservativa tolkningen den rätta: behandla systemet som högrisk.

Steg 3 — Gap-analys mot kraven i Art. 9–15

För varje högrisk-system, utvärdera nuläget mot de nio skyldigheterna: Finns teknisk dokumentation? Finns aktivitetsloggar? Finns operativ mänsklig tillsyn eller bara formell? Är träningsdata dokumenterad och granskningsbar? Gap-analysen bestämmer det faktiska arbete som återstår.

Steg 4 — Implementering: dokumentation, loggar, mänsklig tillsyn

Det här är huvuddelen av arbetet. Det handlar inte bara om att fylla i formulär: verkliga processer måste implementeras. Human-in-the-loop kan inte vara en kryssruta i ett arbetsflöde — det måste vara en granskning med reell förmåga att upphäva AI:ns beslut. Loggarna måste vara konfigurerade. Den tekniska dokumentationen måste hållas uppdaterad. I många organisationer kräver detta förändringar i de operativa processerna, inte bara i systemen.

Steg 5 — Registrering hos behörig myndighet

I Spanien är den nationella myndigheten utsedd att övervaka AI Act AESIA (Agencia Española de Supervisión de la Inteligencia Artificial). Högrisk-system i reglerade sektorer måste registreras i den europeiska databasen innan de tas i bruk. Registreringsprocessen kräver fullständig teknisk dokumentation — det är därför de tidigare stegen måste genomföras först.

Skillnaden mellan företag som kommer att vara regelefterlevande i augusti och de som inte kommer att vara det är en enda: de förstnämnda påbörjade inventeringen under första kvartalet 2026. De sistnämnda skjuter fortfarande upp det.


Vad gör AI Office?

EU AI Act skapade ett nytt europeiskt organ: AI Office, knutet till Europeiska kommissionen. Det är inte en oberoende byrå som ENISA, utan en enhet inom kommissionen med befogenheter för direkt tillsyn över GPAI-modeller.

Dess huvudsakliga funktioner:

  • Tillsyn av modeller för allmänna ändamål — den enda samtalspartnern för OpenAI, Anthropic, Google, Meta i frågor som rör AI Act
  • Samordning med nationella myndigheter — varje medlemsstat har sin egen myndighet (AESIA i Spanien), men AI Office samordnar tolkningskonsekvensen
  • Publicering av riktlinjer — definierar vad det i praktiken innebär att uppfylla varje artikel
  • Utredning av allvarliga incidenter rapporterade av leverantörer av systemiska modeller
  • Frivillig uppförandekod för GPAI-modeller som inte når tröskeln för systemisk påverkan

AI Office publicerade i februari 2025 sina första tolkningsriktlinjer. För företag som använder tredjepartsmodeller klargör dessa riktlinjer hur långt leverantörens ansvar sträcker sig och var operatörens ansvar börjar.


Vad kan jag göra?

  • Om du är CISO eller DPO: AI Act överlappar med GDPR för varje AI-system som behandlar personuppgifter. Lägg till AI Act som ett lager till den DPIA du redan genomför. Om din organisation har mognad inom GDPR-efterlevnad finns infrastrukturen för dokumentation och loggar redan — den behöver bara anpassas.

  • Om du leder ett företag: Den juridiska risken från augusti 2026 vilar på operatörerna — de företag som driftsätter AI-system, inte bara de som utvecklar dem. Att köpa en SaaS med AI befriar dig inte. Kräv av dina leverantörer avtalsklausuler som anger om deras system är högrisk.

  • Om du arbetar inom HR: Se över din stack: ATS, plattformar för videoscreening, kompetensbedömning, alla verktyg som genererar en kandidatpoäng. Om det finns en automatiserad rangordning innan en människa ser profilen har du ett högrisk-system som måste uppfylla de nio kraven i Bilaga III.

  • Om du är utvecklare av system med AI: Om du bygger för sektorer i Bilaga III måste efterlevnaden designas in från start — teknisk dokumentation, loggar och mänsklig tillsyn är inte tillägg i sista minuten. Om du använder GPAI-modeller från tredje part, granska deras användarvillkor: alla har lagt till AI Act-klausuler under 2025.


EU AI Act är inte ett byråkratiskt hinder för innovation. Det är det första seriösa försöket att etablera globala spelregler för en teknologi som redan påverkar miljontals vardagliga beslut. Företag som behandlar det som en möjlighet till differentiering — “vi uppfyller AI Act” som en förtroendesignal — kommer att ha ett försprång jämfört med de som behandlar det som en efterlevnadskostnad.

Augusti 2026 är inte slutet på något. Det är starten på scenariot där företag som inte gjorde sina läxor börjar få sina första utredningar. Det är fyra månader kvar. Inventeringen kan börja idag.

Källor

Relaterade

Fortsätt utforska AISHA

Nästa steg

Missa inga nyheter.

Prenumerera på AISHAs redaktionella nyhetsbrev för att hålla dig uppdaterad om nya artiklar, rapporter och verktyg.

Gå till nyhetsbrev