AI-förordningens ordlista
En omfattande ordlista över viktiga termer i AI-förordningen. Slå upp definitioner, krav och artikelreferenser organiserade alfabetiskt.
Senast uppdaterad: 7 april 2026
A
AI-system
Ett maskinbaserat system utformat för att fungera med viss grad av autonomi och som kan generera resultat såsom förutsägelser, rekommendationer eller beslut som påverkar fysiska eller virtuella miljöer, för explicita eller implicita ändamål.
Artikel 3(1)
EU:s AI-förordning
Europeiska unionens förordning om konstgjord intelligens (förordning (EU) 2024/1689), som fastställer en harmoniserad ram för AI-utveckling och distribution i EU, med efterlevnadsfrister som börjar 2025 och fullständig tillämpning senast 2 augusti 2026.
Fullständig förordningstext
Bilaga I
Bilaga I till AI-förordningen listar AI-praxis och användningsfall som klassificeras som högrisk eller förbjudna, inklusive biometrisk kategorisering, diskriminering och sociala poäng.
Artikel 6(2), Artikel 5
Bilaga III
Bilaga III specificerar de 8 kategorier av högrisk AI-system enligt AI-förordningen, inklusive rekrytering, utbildning, biometrisk data, infrastruktur och tillämpningar för brottsbekämpning.
Artikel 6(2), Artikel 7
Bilaga IV
Bilaga IV specificerar de 9 obligatoriska avsnitten i teknisk dokumentation som leverantörer av högrisk AI-system måste förbereda, inklusive systemändamål, träningsdata, testresultat, riskbedömningar och planer för övervakning efter marknadsplacering.
Artikel 11, Bilaga IV
B
Biometrisk identifiering
En process för att identifiera en fysisk person baserat på biometrisk data (t.ex. fingeravtryck, ansiktets geometri, iris-mönster) genom jämförelse med en databas med kända individer.
Artikel 3(13), Artikel 5(1)(d)
Biometrisk kategorisering
Användning av biometrisk data för att dra slutsatser om och klassificera individer i kategorier baserat på känsliga attribut såsom ras, etnicitet, politiska åsikter, religiösa övertygelser eller sexuell läggning. Denna praxis är förbjuden enligt AI-förordningen.
Artikel 5(1)(a)
C
CE-märkning
En markering som indikerar överensstämmelse med EU:s harmoniserade normer och förordningar. Leverantörer av högrisk AI-system måste fästa en CE-märkning på systemen och inkludera den i överensstämmelsebeskrivningar.
Artikel 49
Överensstämmelsebedömning
Processen för att verifiera att ett AI-system överensstämmer med kraven i AI-förordningen. Högrisk-system måste genomgå överensstämmelsebedömning av ett anmält organ eller av leverantören (beroende på kategori).
Artikel 43, Artikel 44
Gemensam specifikation
EU-harmoniserade normer eller specifikationer som beskriver tekniska medel för att uppnå överensstämmelse med AI-förordningen. Överensstämmelse med gemensamma specifikationer skapar en presumtion för överensstämmelse.
Artikel 40
D
Användare
Varje fysisk eller juridisk person (förutom leverantören) som använder ett AI-system för sitt avsedda ändamål eller för ett väsentligt annat ändamål som leverantören rimligt kunde förutse.
Artikel 3(4)
DPIA (dataskyddskonsekvensbedömning)
Ett krav enligt GDPR och AI-förordningen att bedöma effekten av AI-systemets databehandling på dataskyddsrättigheter före distribution. Obligatorisk för högrisk-system och system som behandlar personuppgifter.
GDPR Artikel 35, AI-förordning Artikel 27
F
FRIA (konsekvensbedömning för grundläggande rättigheter)
En bedömning av effekten av ett högrisk AI-system på grundläggande rättigheter (integritet, icke-diskriminering, yttrandefrihet, etc.). Obligatorisk för användare av högrisk AI-system.
Artikel 27
Grundläggande modell
En storskalig AI-modell tränad på omfattande data och anpassad för ett brett spektrum av tillämpningar. Grundläggande modeller kan vara högrisk i sig själva eller bli högrisk när de integreras i specifika system.
Artikel 3(63)
G
Generell AI (GPAI)
Ett AI-system som kan tränas på ett brett spektrum av data och anpassas för en mängd olika efterföljande ändamål utan specialiserad träning för varje ändamål (t.ex. stora språkmodeller).
Artikel 3(60)
Generell AI-modell
En storskalig modell (vanligtvis en grundläggande modell) tränad på omfattande data som kan anpassas för flera efterföljande tillämpningar. Omfattas av transparens- och dokumentationskrav.
Artikel 6(3), Artikel 13
H
Harmoniserad norm
En teknisk norm utvecklad av EU:s standardiseringsorgan (CEN, CENELEC, ETSI) som specificerar hur man uppnår överensstämmelse med AI-förordningens krav. Normer listas i Europeiska unionens officiella tidning.
Artikel 40
Högrisk AI-system
Ett AI-system som utgör betydande risker för hälsa, säkerhet, grundläggande rättigheter eller lag, enligt AI-förordningen. Högrisk-system måste uppfylla strikta krav inklusive riskhantering, teknisk dokumentation (Bilaga IV), mänsklig övervakning och överensstämmelsebedömning.
Artikel 6(2), Bilaga III
I
Avsett ändamål
Den användning för vilken ett AI-system är utformat och marknadsförts av leverantören. Det avsedda ändamålet bestämmer systemets risknivå och vilka krav som gäller. Användare som använder system för ej avsedda ändamål kan få ytterligare skyldigheter.
Artikel 3(10)
L
Begränsad risk
AI-system som inte faller in i högrisk- eller förbjudna kategorier men kan ha vissa risker. System med begränsad risk måste uppfylla transparenskrav och kan omfattas av specifika styrningsåtgärder.
Artikel 6(2)(c), Artikel 50
M
Minimal risk
AI-system som inte utgör någon betydande risk för grundläggande rättigheter, säkerhet eller laglighet. Dessa system har minimala efterlevnadsskyldigheter enligt AI-förordningen utöver allmänna transparenskrav.
Artikel 6(2)(a)
Marknadskontrollmyndighet
Nationella myndigheter ansvariga för att övervaka AI-system på marknaden, tillämpa regelefterlevnad, utreda incidenter och vidta korrigerande åtgärder. I Sverige inkluderar detta Swedac.
Artikel 63, Artikel 71
N
Anmält organ
En oberoende tredjepartsorganisation utsedd av EU-medlemsstater för att utföra överensstämmelsebedömningar av högrisk AI-system. Anmälda organ verifierar att system överensstämmer med teknisk dokumentation och riskhanteringskrav.
Artikel 33, Artikel 48
P
Övervakning efter marknadsplacering
Kontinuerlig insamling och analys av data om hur ett AI-system fungerar efter marknadsplacering, inklusive verklig prestation, incidenter och nya risker. Leverantörer måste övervaka sina system och rapportera allvarliga incidenter till marknadskontrollmyndigheter.
Artikel 61, Bilaga IV
Leverantör
En fysisk eller juridisk person som utvecklar ett AI-system, oavsett om systemet placeras på marknaden under deras namn eller ett annat företags namn, eller används för deras egna ändamål.
Artikel 3(2)
Förbjuden AI-praxis
AI-praxis som uttryckligen förbjuds enligt AI-förordningen, inklusive subliminal manipulation, utnyttjande av sårbarheter, sociala poäng, biometrisk kategorisering, realtids remote biometrisk identifiering i offentliga utrymmen och riskbedömning för brottslighet baserad enbart på profilering.
Artikel 5
R
Realtids remote biometrisk identifiering
Identifiering av en person i realtid baserat på biometrisk data insamlad på avstånd (t.ex. ansiktsigenkänning på distans). Denna praxis är allmänt förbjuden, med begränsade undantag för brottsbekämpning under strikt definierade omständigheter.
Artikel 5(1)(d)
Riskhanteringssystem
En systematisk process som leverantörer av högrisk AI-system måste implementera för att identifiera, analysera, utvärdera och minska risker under systemets hela livscykel, inklusive före och efter distribution.
Artikel 9
Regulatorisk sandlåda
En kontrollerad miljö etablerad av tillsynsmyndigheter där leverantörer kan testa och utveckla innovativ AI med reducerade efterlevnadsbördor, under övervakning och observation.
Artikel 53
S
Säkerhetskritisk komponent
En komponent i ett icke-AI-system vars fel rimligen kan resultera i allvarlig skada. När ett AI-system styr en säkerhetskritisk komponent blir hela systemet högrisk.
Artikel 6(2)(b)
Sociala poäng
Klassificering eller tilldelning av en poäng till fysiska personer eller deras beteende baserat på deras personuppgifter, såsom kreditvärdighet, beteendemönster eller efterlevnad av samhällsnormer. Sociala poäng av offentliga myndigheter är förbjudna.
Artikel 5(1)(e)
Väsentlig ändring
En förändring av ett högrisk AI-system som väsentligt förändrar dess avsedda ändamål, prestanda eller säkertsegenskaper. Väsentligt ändrade system måste genomgå ny överensstämmelsebedömning och riskhantering.
Artikel 4(23)
T
Teknisk dokumentation (Bilaga IV)
Omfattande dokumentation som leverantörer av högrisk AI-system måste förbereda och som täcker systemets ändamål, utvecklingsprocess, träningsdata, testresultat, kända begränsningar, riskbedömningar, datastyrning, mänsklig övervakning och övervakning efter marknadsplacering.
Artikel 11, Bilaga IV
Transparenskrav
Krav för AI-systemleverantörer och användare att avslöja information om systemets möjligheter, begränsningar och drift. Alla AI-system måste uppfylla minimala transparenskrav, med förstärkta krav för högrisk-system.
Artikel 13, Artikel 50
U
Oacceptabel risk
AI-system som utgör en oacceptabel risk för grundläggande rättigheter eller säkerhet är förbjudna från att placeras på marknaden i EU. Dessa inkluderar system för subliminal manipulation och system som möjliggör systematisk diskriminering.
Artikel 5
Förstå dina krav
Klassificera ditt AI-system för att få en personlig efterlevnads-checklista och ta reda på vilka krav som gäller för dig.
Klassificera ditt systemVanliga frågor
Vad är ett AI-system enligt AI-förordningen?
Ett AI-system är ett maskinbaserat system som kan generera resultat såsom förutsägelser, rekommendationer eller beslut som påverkar fysiska eller virtuella miljöer. Detta inkluderar maskininlärningsmodeller, neurala nätverk, kunskapsbaserade system och statistiska metoder. Rent mjukvarubaserade system utformade med viss grad av autonomi faller under definitionen.
Vad är skillnaden mellan en leverantör och en användare?
Leverantörer utvecklar och placerar AI-system på marknaden eller använder dem för sina egna ändamål. Användare använder AI-system utvecklade av andra för det avsedda ändamålet eller för ett väsentligt annat ändamål. Vissa organisationer är både leverantörer och användare. Högrisk-system innebär krav på båda rollerna.
Vad är högrisk AI-system?
Högrisk AI-system är system med betydande potential att skada hälsa, säkerhet, grundläggande rättigheter eller laglighet. AI-förordningen identifierar 8 kategorier i Bilaga III: biometrisk identifiering, kritisk infrastruktur, utbildning, sysselsättning, brottsbekämpning, väsentliga tjänster, migration/asyl och rättsliga system. Högrisk-system måste genomgå överensstämmelsebedömning, ha teknisk dokumentation (Bilaga IV), implementera riskhantering och möjliggöra mänsklig övervakning.
Vad är teknisk dokumentation enligt Bilaga IV?
Bilaga IV specificerar 9 obligatoriska avsnitt i teknisk dokumentation för högrisk AI-system: (1) systemets ändamål och avsedd användning, (2) utvecklingsprocess och metodologi, (3) information om träningsdata, (4) test- och valideringsresultat, (5) kända begränsningar och fellägen, (6) riskhantering och minskning, (7) datastyrningspraxis, (8) mekanismer för mänsklig övervakning och (9) procedurer för övervakning efter marknadsplacering.
Vad är en FRIA och när är den obligatorisk?
En FRIA (konsekvensbedömning för grundläggande rättigheter) är en obligatorisk bedömning för användare av högrisk AI-system. Den utvärderar den potentiella effekten av systemet på grundläggande rättigheter såsom integritet, icke-diskriminering, yttrandefrihet och mänsklig värdighet. FRIA måste genomförås före distribution av systemet och måste informera strategierna för riskminskning.