Feb 2025
Förbjudna metoder i kraft (Art. 5)
Reglering
Världens första AI-förordning är redan i kraft. Det här behöver du veta och göra innan böterna kommer
Böterna under EU AI Act kan uppgå till 7 % av den globala årsomsättningen — mer än dubbelt så höga som GDPR:s maximala böter.
EU AI Act är redan i kraft och augusti 2026 är den verkliga tidsfristen för merparten av företagen. Varje AI-system som påverkar anställning, kreditgivning, försäkringar eller utbildning är sannolikt högrisk. Böterna överstiger GDPR:s: upp till 7 % av den globala omsättningen. Du har fyra månader på dig att inventera, klassificera riskerna och dokumentera. Den här artikeln förklarar exakt vad du behöver göra.
Feb 2025
Förbjudna metoder i kraft (Art. 5)
Aug 2025
GPAI-skyldigheter (GPT-4, Claude, Gemini…)
Aug 2026
Högrisk — den verkliga tidsfristen för företag
Aug 2027
Produkter reglerade av andra direktiv
35 %
Företag som använder AI vid rekrytering (hög risk)
7 %
Maximal bot baserad på global omsättning
€ 35 M
Maximal absolut bot för förbjudna metoder
Aug 2026
Tidsfrist för högrisk-system
GDPR kom 2018 och det tog företagen år att ta det på allvar. De första böterna minns man som en sen varning. EU AI Act kommer inte att bli annorlunda — förutom i en detalj: de maximala böterna är nästan dubbelt så höga som GDPR:s. Där GDPR nådde upp till 4 % av den globala årsomsättningen når AI Act upp till 7 %. Och klockan tickar redan.
Augusti 2026 är det datum då AI-system med hög risk blir fullt sanktionerbara i EU:s 27 medlemsländer. Det är fyra månader kvar. Den här artikeln förklarar vad förordningen innebär, vad som berör dig och vad du måste göra innan det datumet.
Förordning (EU) 2024/1689, känd som EU AI Act, är världens första AI-förordning med lagkraft. Det är inte ett direktiv: det är en förordning, vilket i EU-rätten innebär att den tillämpas direkt i alla 27 medlemsstater utan behov av nationell införlivning. Från det ögonblick den träder i kraft är den lag i Spanien, Frankrike, Tyskland och resten av Europa, utan mellansteg.
Den publicerades i Europeiska unionens officiella tidning den 12 juni 2024 och trädde i kraft den 1 augusti 2024. Dess arkitektur är stegvis tillämpning: olika delar av förordningen aktiveras vid olika datum mellan 2025 och 2027.
Den bärande principen är det riskbaserade tillvägagångssättet: ju mer ett AI-system kan skada människor, desto striktare skyldigheter. All AI regleras inte lika. Ett spamfilter och ett system för personalurval behandlas inte likadant.
AI Act delar in AI-system i fyra nivåer. Att veta i vilken kategori varje verktyg som ditt företag använder hamnar är det första obligatoriska steget.
| Kategori | Vad som ingår | Regim |
|---|---|---|
| Oacceptabel risk | Statlig social poängsättning, subliminal manipulation, utnyttjande av sårbarheter, biometrisk identifiering i realtid på offentliga platser | Förbjudet — I kraft sedan feb. 2025 |
| Hög risk | Kritisk infrastruktur, anställning och HR, kreditgivning, försäkringar, utbildning, rättsväsende, migration | Reglerat — Sanktionerbart från aug. 2026 |
| Begränsad risk | Chatbottar som verkar mänskliga, deepfakes | Obligatorisk transparens |
| Minimal risk | Spam, rekommendationsmotorer, AI i datorspel | Fritt — Inga specifika skyldigheter |
Dessa metoder är helt förbjudna i EU sedan den 2 februari 2025. Om ditt företag eller någon leverantör du anlitar använder dem, bryter du mot förordningen just nu:
Bilaga III i förordningen listar de sektorer där AI-system automatiskt klassas som hög risk. Det inkluderar:
Chatbottar som interagerar med människor måste uppge att de är AI när det finns rimlig möjlighet att användaren tror att den talar med en människa. Samma sak gäller deepfakes: innehåll som genererats eller manipulerats av AI och som föreställer verkliga personer måste märkas som sådant. Skyldigheten gäller redan nu.
Spamfilter, rekommendationsmotorer utan påverkan på rättigheter, AI i datorspel, skrivassistenter utan konsekvenser för beslut: inga specifika skyldigheter under AI Act. De kan fortsätta fungera som hittills.
Om ett av dina system faller i kategorin hög risk ställer förordningen nio konkreta krav innan det lanseras — och under hela dess operativa livstid:
Att uppfylla dessa nio skyldigheter är inte ett veckoprojekt. För de flesta företag är det en process på tre till sex månader om man börjar från noll.
Det vanligaste misstaget är inte att använda förbjuden AI. Det är att inte veta att systemet man använder är högrisk. Här är de fall som oftast underskattas:
CV-screening och personalurval med AI — Om du använder ett verktyg som automatiskt filtrerar, poängsätter eller klassificerar kandidater innan en människa ser dem, är det hög risk enligt Bilaga III. LinkedIn Recruiter med AI-filter, Workday med kandidatpoängsättning, vilket ATS som helst med automatisk gallring. 35 % av europeiska företag använder redan AI i någon del av rekryteringsprocessen.
Kreditvärdering — Varje modell som tilldelar en kreditvärdighetspoäng eller sannolikhet för betalningsinställelse faller under kategorin väsentliga tjänster i Bilaga III. Det är hög risk oavsett om du utvecklade den själv eller köper den som SaaS från en leverantör.
Försäkringschatbottar som beslutar om täckning — Om chatbotten inte bara informerar utan avgör om en täckning gäller eller vilken premie som ska tillämpas, är det hög risk. Nyckeln är om systemet påverkar ett beslut som materiellt påverkar en person.
AI för att bedöma studenter — System för plagiatkontroll som automatiserar sanktioner, e-learningplattformar som anpassar utbildningsvägar baserat på automatisk bedömning, verktyg som genererar betyg utan mänsklig granskning: hög risk inom utbildningsblocket.
Prediktiva underhållssystem för kritisk infrastruktur — Om AI:n förutsäger fel i vatten-, gas-, el- eller transportnätverk och den förutsägelsen påverkar operativa beslut, hög risk inom infrastrukturblocket.
Rätt fråga är inte “Använder vi högrisk-AI?” utan “Vilka beslut som påverkar människor fattar eller påverkar AI:n i vårt företag?”
AI-modeller för allmänna ändamål — det som branschen kallar grundmodeller — har sin egen regim under AI Act. GPT-4, Claude, Gemini, Llama, Mistral: alla är föremål för specifika skyldigheter som varit aktiva sedan augusti 2025.
För alla GPAI-modeller, oavsett storlek:
För modeller med systemisk påverkan — definierat som modeller tränade med mer än 10²⁵ FLOPs (för närvarande GPT-4 och motsvarande) — tillkommer:
Om ditt företag bygger produkter ovanpå API:er från dessa modeller, vilar GPAI-efterlevnaden på modellleverantören — men du är fortfarande ansvarig för hur du använder modellen i system som kan vara högrisk.
Datumen i AI Act är inte symboliska. Vart och ett aktiverar en annan regim med verkliga rättsliga konsekvenser.
Den 2 februari 2025 aktiverade de absoluta förbuden. Om ditt företag använder social poängsättning eller biometrisk identifiering i realtid utan rättsligt stöd, bryter det mot förordningen sedan mer än ett år tillbaka.
Den 2 augusti 2025 aktiverade skyldigheterna för GPAI-modeller. Leverantörer av grundmodeller står redan under tillsyn av AI Office.
Den 2 augusti 2026 är det datum som flest företag ignorerar — och det viktigaste. Från och med den dagen måste alla högrisk-AI-system som listas i Bilaga III fullt ut uppfylla artiklarna 6 till 49 i förordningen. Nationella myndigheter kan inleda utredningar och utdöma sanktioner.
Från idag till augusti 2026 återstår fyra månader. För ett företag som startar processen från noll är det precis tillräckligt med tid om man agerar nu.
Den 2 augusti 2027 införlivas högriskprodukter som regleras av andra EU-direktiv — medicinteknisk sektor, luftfart, fordonsindustri. Det blocket har ett års ytterligare marginal.
GDPR har genererat mer än 5 miljarder euro i böter sedan 2018. AI Act fördubblar den maximala skalan:
| Överträdelse | Maximal bot |
|---|---|
| Förbjudna metoder (Art. 5) | €35M eller 7 % av global omsättning |
| Bristande uppfyllelse av krav (Art. 6–49) | €15M eller 3 % av global omsättning |
| Felaktig information till tillsynsmyndigheter | €7,5M eller 1 % av global omsättning |
Direkt jämförelse: GDPR har ett maximum på 4 % av den globala omsättningen. AI Act når 7 % — x1,75 strängare i värsta fall.
För SMF anger förordningen att det lägre beloppet av procentandelen av omsättningen och de absoluta beloppen ska tillämpas. Men även de absoluta beloppen — 35 miljoner för förbjudna metoder — är förödande för alla medelstora företag.
Det finns ytterligare en viktig nyans: böter under AI Act kan ackumuleras med böter under GDPR när en överträdelse även berör personuppgifter. Ett personalurvalsystem som diskriminerar och kränker privatlivet kan sanktioneras under båda förordningarna.
Fyra månader räcker om processen startar den här veckan. Här är sekvensen:
Steg 1 — Inventering av AI-system i bruk
Kartlägg alla verktyg som använder AI i ditt företag: från HR:s ATS till CRM med prediktiv poängsättning, analytics-dashboards, kundtjänstchatbottar och alla SaaS som behandlar personuppgifter med AI. Inte bara system du utvecklat internt — även de du köper som tjänst. AI Act gäller de som driftsätter AI-system, inte bara de som utvecklar dem.
Steg 2 — Riskklassificering per system
För varje identifierat system, bestäm dess kategori enligt Bilaga III. Nyckelfrågan: Påverkar detta system beslut som materiellt påverkar människor — deras anställning, kreditvärdighet, tillgång till tjänster, utbildning, rättigheter? Om svaret är ja, är det sannolikt högrisk. Vid tveksamhet är den konservativa tolkningen den rätta: behandla systemet som högrisk.
Steg 3 — Gap-analys mot kraven i Art. 9–15
För varje högrisk-system, utvärdera nuläget mot de nio skyldigheterna: Finns teknisk dokumentation? Finns aktivitetsloggar? Finns operativ mänsklig tillsyn eller bara formell? Är träningsdata dokumenterad och granskningsbar? Gap-analysen bestämmer det faktiska arbete som återstår.
Steg 4 — Implementering: dokumentation, loggar, mänsklig tillsyn
Det här är huvuddelen av arbetet. Det handlar inte bara om att fylla i formulär: verkliga processer måste implementeras. Human-in-the-loop kan inte vara en kryssruta i ett arbetsflöde — det måste vara en granskning med reell förmåga att upphäva AI:ns beslut. Loggarna måste vara konfigurerade. Den tekniska dokumentationen måste hållas uppdaterad. I många organisationer kräver detta förändringar i de operativa processerna, inte bara i systemen.
Steg 5 — Registrering hos behörig myndighet
I Spanien är den nationella myndigheten utsedd att övervaka AI Act AESIA (Agencia Española de Supervisión de la Inteligencia Artificial). Högrisk-system i reglerade sektorer måste registreras i den europeiska databasen innan de tas i bruk. Registreringsprocessen kräver fullständig teknisk dokumentation — det är därför de tidigare stegen måste genomföras först.
Skillnaden mellan företag som kommer att vara regelefterlevande i augusti och de som inte kommer att vara det är en enda: de förstnämnda påbörjade inventeringen under första kvartalet 2026. De sistnämnda skjuter fortfarande upp det.
EU AI Act skapade ett nytt europeiskt organ: AI Office, knutet till Europeiska kommissionen. Det är inte en oberoende byrå som ENISA, utan en enhet inom kommissionen med befogenheter för direkt tillsyn över GPAI-modeller.
Dess huvudsakliga funktioner:
AI Office publicerade i februari 2025 sina första tolkningsriktlinjer. För företag som använder tredjepartsmodeller klargör dessa riktlinjer hur långt leverantörens ansvar sträcker sig och var operatörens ansvar börjar.
Om du är CISO eller DPO: AI Act överlappar med GDPR för varje AI-system som behandlar personuppgifter. Lägg till AI Act som ett lager till den DPIA du redan genomför. Om din organisation har mognad inom GDPR-efterlevnad finns infrastrukturen för dokumentation och loggar redan — den behöver bara anpassas.
Om du leder ett företag: Den juridiska risken från augusti 2026 vilar på operatörerna — de företag som driftsätter AI-system, inte bara de som utvecklar dem. Att köpa en SaaS med AI befriar dig inte. Kräv av dina leverantörer avtalsklausuler som anger om deras system är högrisk.
Om du arbetar inom HR: Se över din stack: ATS, plattformar för videoscreening, kompetensbedömning, alla verktyg som genererar en kandidatpoäng. Om det finns en automatiserad rangordning innan en människa ser profilen har du ett högrisk-system som måste uppfylla de nio kraven i Bilaga III.
Om du är utvecklare av system med AI: Om du bygger för sektorer i Bilaga III måste efterlevnaden designas in från start — teknisk dokumentation, loggar och mänsklig tillsyn är inte tillägg i sista minuten. Om du använder GPAI-modeller från tredje part, granska deras användarvillkor: alla har lagt till AI Act-klausuler under 2025.
EU AI Act är inte ett byråkratiskt hinder för innovation. Det är det första seriösa försöket att etablera globala spelregler för en teknologi som redan påverkar miljontals vardagliga beslut. Företag som behandlar det som en möjlighet till differentiering — “vi uppfyller AI Act” som en förtroendesignal — kommer att ha ett försprång jämfört med de som behandlar det som en efterlevnadskostnad.
Augusti 2026 är inte slutet på något. Det är starten på scenariot där företag som inte gjorde sina läxor börjar få sina första utredningar. Det är fyra månader kvar. Inventeringen kan börja idag.
Relaterade
660.000 millones en infraestructura, solo el 5% de las empresas con ROI real y un historial de expectativas que siempre corren más rápido que la realidad
La brecha entre la inversión en IA y el valor real que genera — y qué pueden hacer las empresas para estar en el 5% que sí funciona
Prenumerera på AISHAs redaktionella nyhetsbrev för att hålla dig uppdaterad om nya artiklar, rapporter och verktyg.
Gå till nyhetsbrev