EXEMPEL — detta dokument visar strukturen och kvaliteten på ett genererat utkast. Baserat på det fiktiva AI-systemet “MedAssist AI”.
Teknisk dokumentation (Annex IV)
Teknisk dokumentation enligt EU AI Act — Artikel 11 + Annex IV
Innehållsförteckning
- 1. Allmän beskrivning av AI-systemet
- 2. Design och utvecklingsprocess
- 3. Data och datastyrning
- 4. Testning och validering
- 5. Riskhanteringssystem
- 6. Åtgärder för mänsklig tillsyn
- 7. Transparens och information till användare
- 8. Noggrannhet, robusthet och cybersäkerhet
- 9. Plan för övervakning efter lansering
1. Allmän beskrivning av AI-systemet
Artikel 11 + Annex IV, punkt 11.1 Systemets syfte
DermaScan AI utgör ett medicinskt beslutsstödsystem utvecklat för att assistera vårdpersonal vid dermatologisk diagnostik genom automatiserad analys av dermatoskopiska bilder. Systemets primära syfte är att klassificera hudlesioner baserat på deras malignitetsgrad och därigenom stödja klinisk beslutsfattning inom primärvården.
1.1.1 Avsedd användning och klinisk tillämpning
Systemet är specifikt utformat för att analysera dermatoskopiska bilder av hudlesioner och generera en binär klassificering som kategoriserar lesionen som antingen benign eller malign. För varje analyserad bild producerar systemet en numerisk riskpoäng på en skala från 0 till 100, där högre värden indikerar ökad sannolikhet för malignitet. Baserat på denna riskbedömning genererar systemet en automatiserad rekommendation angående huruvida patienten bör remitteras till hudspecialist för vidare utredning genom biopsi.
Den avsedda användningen fokuserar primärt på att stödja allmänläkare och annan primärvårdspersonal vid tidig upptäckt av hudcancer, med särskild betoning på melanomdiagnostik. Systemet är utformat som ett beslutsstödsverktyg som ska komplettera, inte ersätta, klinisk bedömning och medicinsk expertis.
1.1.2 Målgrupp och användningskontext
DermaScan AI är utvecklat för användning inom primärvården där tillgången till hudspecialister kan vara begränsad. Systemet syftar till att förbättra diagnostisk noggrannhet och säkerställa att patienter med potentiellt maligna lesioner identifieras tidigt och remitteras för adekvat specialist-utvärdering. Detta bidrar till förbättrade patientutfall genom tidigare intervention och optimerad resursallokering inom hälso- och sjukvårdssystemet.
Enligt kraven i Artikel 11 och Annex IV, punkt 1 i EU AI Act, utgör denna beskrivning grunden för systemets regulatoriska klassificering som ett högrisk-AI-system inom hälso- och sjukvård, specifikt avsett för användning som medicinskt hjälpmedel för diagnostiska ändamål.
1.2 Leverantör och utvecklare
MedVision AB med säte i Stockholm utgör den juridiska enheten som fungerar som leverantör av detta högrisk-AI-system enligt definitionen i EU AI Act artikel 3, punkt 2. Företaget bär det fullständiga ansvaret för systemets överensstämmelse med de regulatoriska kraven som fastställs i förordningen, inklusive genomförandet av kvalitetsledningssystemet enligt artikel 17 och upprätthållandet av riskhanteringssystemet enligt artikel 9.
Som leverantör ansvarar MedVision AB för att säkerställa att AI-systemet uppfyller de harmoniserade standarder och tekniska specifikationer som anges i Annex IV, punkt 1. Detta inkluderar ansvaret för den löpande övervakningen av systemets prestanda efter att det släppts på marknaden, dokumentation av eventuella avvikelser eller oönskade händelser, samt implementering av nödvändiga korrigerande åtgärder.
Företaget fungerar även som den primära kontaktpunkten gentemot behöriga myndigheter för alla frågor som rör systemets regelefterlevnad och säkerhet. MedVision AB upprätthåller de tekniska dokumentationskrav som specificeras i artikel 11 och säkerställer att all nödvändig information är tillgänglig för regulatorisk granskning under den föreskrivna bevarandeperioden.
1.3 Systemversion
AI-systemet levereras i version 2.1.0, vilket utgör den aktuella produktionsversionen som uppfyller kraven enligt Artikel 11 och Annex IV punkt 1 i EU AI Act.
Versionsnumreringen följer semantisk versionshantering (semantic versioning) där det första numret (2) indikerar större arkitektoniska ändringar, det andra numret (1) representerar funktionalitetsuppdateringar som är bakåtkompatibla, och det tredje numret (0) avser buggfixar och mindre förbättringar. Denna versionsstruktur säkerställer tydlig spårbarhet av systemets utveckling och underlättar identifiering av vilka funktioner och säkerhetsåtgärder som är implementerade.
Version 2.1.0 inkluderar samtliga nödvändiga funktioner för att uppfylla klassificeringen som högrisk-AI-system enligt EU AI Act, inklusive implementerade säkerhetsåtgärder, riskhanteringssystem och transparenskrav. Versionen har genomgått fullständig konformitetsbedömning och dokumentation enligt gällande regulatoriska krav.
All dokumentation, testresultat och certifieringar som åtföljer systemet är specifikt kopplade till version 2.1.0 för att säkerställa entydig identifiering och spårbarhet i enlighet med EU AI Acts krav på teknisk dokumentation.
1.4 Interaktion med annan mjukvara och hårdvara
AI-systemet är utformat för integrering i befintlig sjukvårdsmiljö och fungerar som en komponent i ett större ekosystem av medicinska system och enheter. Systemarkitekturen följer etablerade standarder för medicinsk informationshantering och säkerställer kompatibilitet med regionala IT-infrastrukturer.
1.4.1 Integration med journalsystem
Systemet integreras med regionernas befintliga journalsystem, primärt Cosmic och Millennium, genom standardiserade FHIR API:er (Fast Healthcare Interoperability Resources). Denna integration möjliggör smidig datautbyte och säkerställer att AI-systemets analyser och rekommendationer blir en integrerad del av patientjournalen. FHIR-standarden garanterar interoperabilitet och följer internationella riktlinjer för säker hantering av hälsodata.
Integrationsprocessen innebär att systemet kan läsa relevant patientinformation från journalsystemet för att kontextualisera analysen, samtidigt som analysresultaten skrivs tillbaka som strukturerad data med tydlig markering som AI-genererat beslutsstöd.
1.4.2 Bildhantering och hårdvaruintegration
För bildupptagning integreras systemet med standardiserade dermatoskopikameror, där DermLite DL5 utgör referensenheten. Kameran ansluts till surfplatta eller dator som fungerar som användarinterface och processingsplattform. Denna konfiguration säkerställer konsistent bildkvalitet och standardiserade inspektionsförhållanden som är kritiska för AI-modellens prestanda.
Bilddata överförs från kameraenheten till systemet enligt definierade kvalitetskriterier avseende upplösning, färgtemperatur och belysning. Systemet validerar bildkvaliteten innan analys påbörjas för att säkerställa tillförlitliga resultat.
1.4.3 Bildarkivering och PACS-integration
Efter analys lagras dermatoskopbilderna i regionens PACS-system (Picture Archiving and Communication System) genom intern serveranslutning. Denna integration säkerställer långsiktig arkivering av medicinska bilder enligt gällande vårdlagstiftning och möjliggör framtida åtkomst för uppföljning och kvalitetssäkring.
PACS-integrationen följer DICOM-standard och säkerställer att bilderna förses med korrekt metadata inklusive AI-analysresultat och proveniensdata som spårar systemets medverkan i diagnosen.
1.4.4 Systemarkitektur och dataflöde
Det övergripande dataflödet omfattar inläsning av patientdata från journalsystem, mottagning och kvalitetsvalidering av dermatoskopbilder, AI-analys, resultatgenerering som skrivs tillbaka till journalsystemet, samt arkivering av bilder i PACS. Denna process säkerställer full spårbarhet och integration med befintliga vårdrutiner.
[BEHÖVER KOMPLETTERAS: Versioner av relevant mjukvara, firmware och specifika hårdvarukrav]
[BEHÖVER KOMPLETTERAS: Leveransform (SaaS, inbyggd mjukvara, API etc.)]
1.5 Leveransmodell
AI-systemet tillhandahålls som en molnbaserad programvarutjänst (Software as a Service, SaaS) i enlighet med kraven i Artikel 11 och Annex IV, punkt 1 i EU AI Act. Denna leveransmodell innebär att systemet är värdbaserat och tillgängligt för användare via internetanslutning utan krav på lokal installation av mjukvara eller hårdvara hos den använda organisationen.
1.5.1 Teknisk arkitektur och åtkomst
SaaS-modellen möjliggör centraliserad drift och underhåll av AI-systemet, där all beräkningskapacitet, datalagring och systemlogik är lokaliserad till leverantörens molninfrastruktur. Användare får åtkomst till systemets funktionalitet genom webbbaserade gränssnitt eller API-anrop, vilket säkerställer konsekvent prestanda och säkerhetsstandard över hela användarbasen.
1.5.2 Ansvar och kontroll
Som SaaS-leverantör behåller organisationen full kontroll över systemets drift, säkerhetsuppdateringar, prestandaövervakning och efterlevnad av regulatoriska krav. Detta inkluderar kontinuerlig övervakning av systemets prestanda, implementering av säkerhetspatchar och säkerställande av att alla ändringar och uppdateringar genomförs i enlighet med dokumenterade förändringsprocesser och riskhanteringsrutiner.
1.5.3 Skalbarhet och tillgänglighet
Molnleveransmodellen möjliggör dynamisk skalning av systemresurser baserat på användarefterfrågan och säkerställer hög tillgänglighet genom redundanta system och geografisk distribution av infrastruktur.
1.6 Hårdvarukrav
AI-systemet har specifika hårdvarukrav som säkerställer korrekt funktion och prestanda i enlighet med systemets avsedda användning. Kraven är uppdelade mellan klienthårdvara för användarinteraktion och serverhårdvara för AI-inferens.
1.6.1 Klienthårdvara
För användning av systemet krävs en surfplatta eller dator utrustad with en modern webbläsare som stödjer de webbstandarder som systemet förlitar sig på. Bildinhämtning sker genom ett medicinskt dermatoskop med kameraadapter, där DermLite DL5 eller motsvarande modell med jämförbara specifikationer utgör referensstandard för kompatibilitet.
Dermatoskopet måste vara utrustat med en kameraadapter som möjliggör digital bildinhämtning med tillräcklig upplösning och kvalitet för att AI-systemet ska kunna utföra korrekt analys av hudförändringar.
1.6.2 Serverhårdvara
AI-systemets inferensmotorer körs på en GPU-baserad serverinfrastruktur lokaliserad i Azure Sweden Central. Serverhårdvaran består av GPU-kluster med NVIDIA A10G-kort, vilket säkerställer den beräkningskraft som krävs för realtidsanalys av dermatoskopiska bilder.
Valet av Azure Sweden Central som geografisk lokalisering säkerställer att databehandling sker inom EU:s territorium i enlighet med gällande dataskyddsbestämmelser och bidrar till låg latens för användare i nordeuropeiska marknader.
1.6.3 Systemintegration
Hårdvarukomponenterna integreras genom systemets webbgränssnitt där bilddata från dermatoskopet överförs till GPU-klustret för analys. Resultaten returneras sedan till klientenheten för presentation till användaren, vilket skapar en sammanhängande arbetsprocess från bildinhämtning till diagnostiskt stöd.
1.7 Avsedda användare
AI-systemet är primärt utformat för användning av läkare inom hälso- och sjukvården. Dessa professionella användare förväntas ha medicinsk utbildning och klinisk erfarenhet som gör dem kapabla att tolka och agera på systemets utdata inom ramen för sin medicinska praktik.
Läkarna som utgör den avsedda användargruppen inkluderar både specialister och allmänläkare som arbetar inom relevanta medicinska områden där AI-systemet tillför diagnostiskt eller behandlingsstödjande värde. Användarna förväntas ha grundläggande förståelse för digitala medicinska verktyg och förmåga att integrera AI-genererade rekommendationer i sin kliniska bedömning.
Systemet är utformat för att fungera som ett beslutsstöd där den medicinska professionella behåller det slutgiltiga ansvaret för alla kliniska beslut. Användarna förutsätts ha tillräcklig medicinsk kompetens för att kritiskt utvärdera systemets utdata och sätta dessa i relation till patientens specifika omständigheter och kliniska kontext.
[BEHÖVER KOMPLETTERAS: Specificering av vilka medicinska specialiteter eller subspecialiteter som är avsedda användare, utbildnings- och certifieringskrav för användare, samt eventuella ytterligare användargrupper som administrativ personal eller teknisk support]
1.8 Påverkade personer
AI-systemet påverkar primärt patienter som den centrala gruppen av berörda personer. Denna identifiering av påverkade personer utgör en grundläggande komponent i systemets riskbedömning och designspecifikationer enligt Artikel 11 och Annex IV, punkt 1 i EU AI Act.
Patienter som påverkade personer omfattar individer som direkt berörs av AI-systemets utdata, rekommendationer eller automatiserade beslut inom vårdkontexten. Denna påverkan kan ske genom systemets bidrag till medicinska beslut, diagnostiska processer, behandlingsrekommendationer eller andra vårdrelaterade åtgärder som direkt eller indirekt påverkar patientens hälsa, säkerhet och välbefinnande.
Systemets utformning och funktionalitet tar särskild hänsyn till patientgruppen som påverkade personer genom implementering av robusta säkerhetsmekanismer, transparensåtgärder och kvalitetssäkringsprocesser som syftar till att skydda patienternas intressen och rättigheter. Detta inkluderar särskild uppmärksamhet på potentiellt sårbara patientgrupper och variation i patientpopulationer som kan påverka systemets prestanda och tillförlitlighet.
[BEHÖVER KOMPLETTERAS: Specificering av patientgrupper, demografiska faktorer, särskilda sårbarheter, samt hur systemet hanterar variation i patientpopulationen]
2. Design och utvecklingsprocess
Annex IV, punkt 22.1 AI/ML-teknik
Systemet baseras på en kombination av djupinlärning genom neurala nätverk och övervakad maskininlärning (supervised learning). Denna tekniska grund utgör kärnan i systemets förmåga att utföra sina avsedda funktioner och har valts utifrån noggrann analys av prestanda-, noggrannhets- och tillförlitlighetskrav.
2.1.1 Djupinlärning och neurala nätverk
Systemets primära AI-komponent bygger på djupa neurala nätverksarkitekturer som möjliggör automatisk feature-extraktion och komplex mönsterigenkänning. De neurala nätverken är designade med flera dolda lager för att kunna fånga hierarkiska representationer av indata och identifiera icke-linjära samband i datastrukturer.
Nätverksarkitekturen har optimerats för att balansera modellkomplexitet mot prestanda och generaliseringsförmåga. Designvalen för nätverksdjup, nodantal per lager och aktivationsfunktioner baseras på empiriska utvärderingar och branschbästa praxis för den specifika tillämpningsdomänen.
2.1.2 Övervakad maskininlärning
Träningsprocessen följer principerna för övervakad inlärning där modellen tränas på annoterade datauppsättningar med kända in- och utdatapar. Denna approach säkerställer att systemet lär sig att mappa från specificerade indata till önskade prediktioner eller klassificeringar på ett kontrollerat och verifierbart sätt.
Supervised learning-metodiken möjliggör systematisk utvärdering av modellprestanda genom etablerade metriker och valideringsprotokoll. Träningsdata är noggrant kurerade och kvalitetssäkrade för att säkerställa att modellen utvecklar robusta och generaliserbara representationer.
2.1.3 Teknisk integration och systemarkitektur
De två AI/ML-teknikerna integreras inom en enhetlig systemarkitektur där djupinlärningskomponenten hanterar primär feature-extraktion och mönsterigenkänning, medan supervised learning-ramverket säkerställer kontrollerad och mätbar prestanda mot definierade målkriterier.
Denna tekniska kombination överensstämmer med kraven i Annex IV, punkt 2 genom att tillhandahålla en dokumenterad och förklarbar grund för systemets algoritmiska beslut och prestanda.
2.2 Beslutslogik
Systemets beslutslogik följer en strukturerad sekventiell process från bilduppladding till diagnostisk rekommendation, i enlighet med de designspecifikationer som krävs enligt Annex IV, punkt 2. Beslutsgången implementerar en pipeline-arkitektur där varje steg valideras innan övergång till nästa fas.
2.2.1 Bildförbehandlingslogik
När läkaren laddar upp en dermatoskopisk bild via webbgränssnittet initieras förbehandlingsprocessen automatiskt. Systemet utför storleksanpassning till 299×299 pixlar för att matcha modellens förväntade indataformat, följt av färgnormalisering enligt standardiserade dermatoskopiska protokoll. Kvalitetskontrollen verifierar bildskärpa och belysningsförhållanden genom automatiserade metriker som säkerställer att indata uppfyller minimikrav för tillförlitlig analys.
2.2.2 Algoritisk klassificeringslogik
Den centrala beslutsalgoritmen baseras på en EfficientNet-B4 arkitektur som extraherar relevanta bildfeatures genom djupinlärning. Modellen är specifikt tränad för dermatoskopisk bildanalys och använder en softmax-aktiverad klassificeringsmodul som genererar sannolikhetsfördelningar över sju diagnostiska kategorier: melanom, basalcellscancer, skivepitelcancer, benign nevus, dermatofibrom, vaskulär lesion och aktinisk keratos.
Designvalet att använda EfficientNet-B4 motiveras av arkitekturens bevisade prestanda inom medicinsk bildanalys samtidigt som den bibehåller rimliga beräkningskrav för klinisk implementation. Modellen balanserar noggrannhet mot inferenshastighet för att möjliggöra realtidsanvändning i klinisk miljö.
2.2.3 Riskbedömnings- och rekommendationslogik
Systemets riskpoängberäkning transformerar de råa klassificeringssannolikheterna till en normaliserad skala från 0 till 100, där poängen viktas baserat på respektive kategoris malignitetspotential. Melanom, basalcellscancer och skivepitelcancer tilldelas högre viktning än benigna tillstånd i riskkalkylen.
Rekommendationslogiken kategoriserar riskpoängen i tre åtgärdsnivåer:
- Grön zon (<30): Indikerar låg risk med rekommendation om rutinuppföljning
- Gul zon (30–70): Signalerar måttlig risk med förslag om kontroll inom definierad tidsram
- Röd zon (>70): Markerar hög risk med rekommendation om omedelbar specialist-remiss
2.2.4 Resultatpresentation och beslutsstöd
Den slutliga presentationslogiken aggregerar analysresultaten i ett strukturerat format som visar de tre mest sannolika diagnoserna rangordnade efter konfidensgrad. Varje diagnos presenteras med tillhörande konfidensnivå uttryckt som procentsats, vilket ger läkaren transparens kring systemets osäkerhet och underlättar klinisk bedömning.
Beslutsstödskomponenten kompletterar den numeriska analysen med kontextuella handlingsförslag anpassade efter identifierad risknivå, vilket stödjer läkarens kliniska beslutsprocess utan att ersätta professionell medicinsk bedömning.
2.3 Teknisk arkitektur
Systemets tekniska arkitektur följer en modern mikrotjänstbaserad design som möjliggör skalbar och tillförlitlig AI-inferens i enlighet med kraven i Annex IV, punkt 2. Arkitekturen är uppbyggd kring separata komponenter för användarinteraktion, API-hantering, AI-modellexekvering och datalagring.
2.3.1 Frontend-komponent
Användarinteraktionen hanteras genom en React-baserad frontend som tillhandahåller ett responsivt webbgränssnitt. React-arkitekturen möjliggör komponentbaserad utveckling med tydlig separation av användarinteraktion och affärslogik.
2.3.2 Backend-arkitektur
Backend-tjänsten implementeras med Python och FastAPI-ramverket, vilket säkerställer högpresterande API-hantering med automatisk dokumentation och validering. FastAPI:s asynkrona funktionalitet möjliggör effektiv hantering av samtidiga förfrågningar och optimerad resursanvändning.
2.3.3 AI-modellimplementering
AI-funktionaliteten levereras genom en PyTorch-implementering baserad på EfficientNet-B4-arkitekturen. Modellen exponeras via TorchServe, vilket möjliggör skalbar modellservering med funktioner för modellversionering, batchbearbetning och prestanda-optimering. TorchServe hanterar inferensförfrågningar och säkerställer konsekvent modellexekvering.
2.3.4 Molninfrastruktur och orkestrering
Systemet deployas på Azure Kubernetes Service (AKS), vilket möjliggör automatisk skalning, lastbalansering och hög tillgänglighet. Kubernetes-orkestreringsplattformen säkerställer att systemkomponenterna kan skalas oberoende baserat på belastning och resurskrav.
2.3.5 Datalagringslösningar
Systemet använder två primära lagringsmekanismer:
Bilddata och andra binära filer lagras i Azure Blob Storage, vilket möjliggör kostnadseffektiv och skalbar objektlagring med inbyggd redundans och säkerhetsfunktioner.
Strukturerad data och metadata hanteras genom en PostgreSQL-databas som säkerställer ACID-kompatibilitet och robust datahantering. PostgreSQL ger stöd för avancerade datatyper och indexeringsstrategier som optimerar systemets prestanda.
2.3.6 Dataflöden och systemintegration
Dataflödet initieras när användare interagerar med React-frontend, som skickar förfrågningar till FastAPI-backend. Backend-tjänsten autentiserar och validerar inkommande data innan den dirigerar bilddata till TorchServe för AI-inferens. Parallellt lagras nödvändiga metadata i PostgreSQL-databasen medan råbilddata arkiveras i Azure Blob Storage. Inferensresultat returneras via samma API-kanal tillbaka till frontend för användarvisning.
[BEHÖVER KOMPLETTERAS: Beräkningsresurser för träning och inferens inklusive CPU/GPU-krav och minnesspecifikationer]
[BEHÖVER KOMPLETTERAS: Information om eventuella förtränade modeller eller tredjepartskomponenter som ingår i systemarkitekturen]
2.4 Tredjepartskomponenter
Systemet inkorporerar ett antal tredjepartskomponenter i form av öppen källkod för att stödja utvecklings- och driftprocessen. Användningen av externa komponenter följer etablerade säkerhetsprinciper och genomgår systematisk validering innan integrering i produktionsmiljön.
2.4.1 Komponentidentifiering och kategorisering
[BEHÖVER KOMPLETTERAS: specifik förteckning över samtliga open source-komponenter med namn, versioner och användningsområden]
2.4.2 Säkerhets- och kvalitetsbedömning
Alla tredjepartskomponenter genomgår en strukturerad bedömningsprocess som inkluderar säkerhetsanalys, licenskompatibilitet och teknisk lämplighet. Komponenter utvärderas särskilt avseende potentiella sårbarheter och uppdateringsfrekvens från uppströmsunderhållare.
2.4.3 Integrationsprocess och beroendestyrning
Tredjepartskomponenter integreras genom dokumenterade processer som säkerställer spårbarhet och versionskontroll. Systemet upprätthåller en kontinuerlig övervakning av komponentberoenden för att identifiera säkerhetsuppdateringar och kompatibilitetsproblem.
[BEHÖVER KOMPLETTERAS: detaljerad beskrivning av specifika integrations- och valideringsprocesser för open source-komponenter]
2.4.4 Underhåll och uppdatering
För att säkerställa långsiktig säkerhet och funktionalitet upprätthålls en regelbunden uppdateringsprocess för samtliga tredjepartskomponenter, där säkerhetspatchar prioriteras och kompatibilitetstestning genomförs före produktionsdriftsättning.
2.5 Viktiga designval
[BEHÖVER KOMPLETTERAS: Specificering av vilka konkreta designval som gjorts, vilka alternativ som övervägdes, teknisk motivering för valen, och hur de relaterar till systemets säkerhet och prestanda enligt Annex IV punkt 2]
Systemets designval ska dokumenteras med tydlig teknisk motivering och koppling till de funktionella och säkerhetsmässiga krav som ställs på ett högrisk-AI-system. Enligt Annex IV punkt 2 ska dokumentationen omfatta de centrala designvalen med tillhörande antaganden och motiveringar som legat till grund för systemets arkitektur och implementation.
Designvalen ska särskilt adressera hur systemet uppfyller kraven på robusthet, noggrannhet och säkerhet som specificeras i EU AI Act artikel 15. Detta inkluderar val av algoritmer, datarepresentationer, systemarkitektur och säkerhetsmekanismer som tillsammans säkerställer systemets tillförlitliga funktion inom dess avsedda användningsområde.
2.6 Beräkningsresurser
Systemet använder GPU-baserad beräkningsinfrastruktur för både tränings- och inferensfaser enligt Annex IV punkt 2. GPU-arkitekturen möjliggör parallell bearbetning av de matrisoperationer som är centrala för systemets algoritmer och dataflöden.
Under träningsfasen utnyttjas GPU:ns höga beräkningskapacitet för att hantera de omfattande dataset och komplexa modellparametrar som systemet kräver. Den parallella bearbetningsförmågan reducerar träningstider betydligt jämfört med traditionella CPU-baserade lösningar, vilket möjliggör iterativ modellförbättring och validering inom rimliga tidsramar.
För inferensfasen säkerställer GPU-infrastrukturen att systemet kan leverera realtidsrespons även vid höga belastningar. Detta är kritiskt för systemets prestanda och användarupplevelse, särskilt när flera samtidiga förfrågningar måste hanteras.
[BEHÖVER KOMPLETTERAS: Specificera GPU-modeller, minneskapacitet, antal enheter, samt exakta beräkningskrav för träning respektive inferens]
3. Data och datastyrning
Annex IV, punkt 2 + Artikel 103.1 Träningsdata
Systemets träningsdata består av totalt 185 000 dermatoskopiska bilder som representerar sju distinkta diagnostiska kategorier inom hudcancer och andra hudförändringar. Denna omfattande datamängd har samlats in från tre huvudsakliga källor med syfte att säkerställa både volym och kvalitet för träning av det AI-baserade diagnostiska systemet.
3.1.1 Datakällor och ursprung
Träningsdatan har inhämtats från följande verifierade källor enligt Annex IV punkt 2(a):
ISIC Archive utgör den primära datakällan med cirka 120 000 bilder. ISIC (International Skin Imaging Collaboration) Archive är en internationellt erkänd databas för dermatoskopiska bilder som upprätthåller strikta kvalitetsstandarder och etiska riktlinjer för datainsamling. Bilderna från ISIC Archive representerar olika geografiska regioner och demografiska grupper, vilket bidrar till datasetets globala representativitet.
Karolinska Universitetssjukhuset har bidragit med cirka 40 000 PAD-verifierade bilder. Dessa bilder har genomgått patologisk anatomisk diagnostik (PAD) och representerar svenska patientpopulationer. Insamlingen har skett under kontrollerade kliniska förhållanden med standardiserade fotograferingstekniker och utrustning.
Sahlgrenska Universitetssjukhuset har tillhandahållit ungefär 25 000 bilder som kompletterar datamängden med ytterligare svensk klinisk data. Även dessa bilder följer samma strikta kvalitetskriterier och verifieringsprocesser som tillämpas vid Karolinska.
3.1.2 Datavalidering och ground truth
Samtliga bilder i träningsdatasetet har histopatologiskt verifierad diagnos, vilket etablerar en robust ground truth för träningsprocessen enligt kraven i Artikel 10(3). Den histopatologiska verifieringen innebär att varje bild har genomgått mikroskopisk undersökning av vävnadsprover av specialistpatologer, vilket representerar den medicinska guldstandarden för hudcancerdiagnostik.
Denna verifieringsmetod säkerställer högsta möjliga diagnostiska säkerhet och minimerar risken för felaktigt märkta träningsexempel, vilket är kritiskt för utveckling av ett tillförlitligt AI-system inom medicinsk diagnostik.
3.1.3 Diagnostiska kategorier
De sju diagnostiska kategorierna har valts för att representera de vanligaste och kliniskt mest relevanta hudförändringarna inom dermatoskopisk diagnostik. Denna kategorisering möjliggör träning av ett system som kan differentiera mellan olika typer av hudförändringar med hög precision och klinisk relevans.
[BEHÖVER KOMPLETTERAS: Specifikation av vilka sju diagnostiska kategorier som ingår i datasetet]
[BEHÖVER KOMPLETTERAS: Beskrivning av dataförberedelse, märkning och rensningsprocesser enligt Annex IV punkt 2(b)]
[BEHÖVER KOMPLETTERAS: Analys och hantering av potentiell dataskevhet (bias) enligt Artikel 10(2)(f)]
[BEHÖVER KOMPLETTERAS: Information om personuppgiftsbehandling och laglig grund enligt Artikel 10(5)]
3.2 Insamlingsmetod
Organisationen använder en kombinerad insamlingsmetod för att säkerställa en robust och representativ databas för träning, validering och testning av AI-systemet. Insamlingen baseras på två primära metoder i enlighet med kraven i Artikel 10 och Annex IV, punkt 2.
3.2.1 Öppen och publik data
En betydande del av dataunderlaget består av öppen och publik data från verifierade och tillförlitliga källor. Denna insamlingsmetod säkerställer tillgång till stora datamängder samtidigt som den bidrar till transparens och reproducerbarhet i utvecklingsprocessen. Organisationen har etablerat rutiner för att:
- Identifiera och validera tillförlitliga offentliga datakällor
- Säkerställa att användningen av öppen data sker i enlighet med tillämpliga licenser och användarvillkor
- Dokumentera ursprung och provenance för all öppen data som inkluderas i datasetet
- Genomföra kvalitetskontroll av öppen data för att säkerställa relevans och noggrannhet
3.2.2 Egen insamling
Organisationen genomför även egen datainsamling för att komplettera de öppna datakällorna och säkerställa att datasetet täcker specifika användningsfall och scenarion som är relevanta för AI-systemets tillämpning. Den egna insamlingen följer etablerade protokoll som inkluderar:
- Systematisk identifiering av datainsamlingsbehov baserat på systemkrav
- Implementering av standardiserade insamlingsprotokoll för att säkerställa konsistens
- Kvalitetssäkring under hela insamlingsprocessen
- Dokumentation av insamlingsparametrar, tidpunkter och metodologiska val
3.2.3 Kvalitetssäkring och integration
Den kombinerade insamlingsmetoden möjliggör en balanserad approach där fördelarna med omfattande öppen data kombineras med den kontrollerade kvaliteten i egen insamling. Organisationen har utvecklat processer för att:
- Integrera data från olika källor på ett koherent sätt
- Säkerställa kompatibilitet mellan olika datakällor
- Minimera risker för dataskevhet genom diversifierade insamlingsmetoder
- Upprätthålla enhetliga kvalitetsstandarder oberoende av datakälla
Denna metodik stödjer efterlevnaden av datastyrningskraven enligt Artikel 10 genom att säkerställa både omfattning och kvalitet i dataunderlaget för AI-systemet.
3.3 Dataförberedelse
Enligt Artikel 10 i EU AI Act och Annex IV punkt 2 har organisationen implementerat strukturerade dataförberedningsprocesser för att säkerställa datasetens kvalitet, representativitet och lämplighet för det högrisk-AI-system som utvecklas.
3.3.1 Databearbetningsprocess
Dataförberedelsen omfattar systematiska åtgärder för att transformera rådata till användbara dataset för träning, validering och testning av AI-systemet. Processen inkluderar identifiering och eliminering av felaktiga dataposter, hantering av saknade värden, normalisering av dataformat samt validering av dataintegriteten.
3.3.2 Kvalitetssäkring och validering
Datastädningen följer etablerade rutiner för att upptäcka och korrigera inkonsistenser i dataseten. Detta omfattar automatiserade kontroller för att identifiera anomalier, dubbletter och felformaterad data, samt manuella granskningsprocesser för kritiska datakomponenter.
3.3.3 Dokumentation av förändringar
Alla dataförberedningsåtgärder dokumenteras systematiskt för att säkerställa spårbarhet och reproducerbarhet. Dokumentationen omfattar en detaljerad redogörelse för vilka transformationer som genomförts, rationale bakom specifika beslut, samt påverkan på datasetens ursprungliga egenskaper och fördelningar.
[BEHÖVER KOMPLETTERAS: Specifika metoder och tekniker för datastädning, hantering av dataskevhet, märkningsprocesser, samt tekniska verktyg som används]
3.4 Annotering och märkning
Systemets träningsdata genomgår en systematisk annoterings- och märkningsprocess för att säkerställa datakvalitet och tillförlitlighet enligt kraven i Annex IV, punkt 2(d). Alla bilddata i systemets dataset har försetts med verifierade etiketter genom en strukturerad kvalitetssäkringsprocess.
Märkningsprocessen implementerar en tvåstegsverifiering där varje bild initialt annoteras av kvalificerad personal med relevant domänexpertis. Dessa primära etiketter genomgår därefter en oberoende granskning av en andra annoterare för att säkerställa korrekthet och konsistens. Vid eventuella avvikelser mellan annoterare tillämpas en adjudgeringsprocess där expertdomärer fattar det slutgiltiga beslutet om korrekt märkning.
Verifieringsprocessen omfattar systematisk kontroll av etikettkonsistens, fullständighet och överensstämmelse med definierade annotationsriktlinjer. Kvalitetskontrollen inkluderar regelbunden stickprovsgranskning av annoterat material samt kontinuerlig uppföljning av inter-annotatörsreliabilitet för att upprätthålla hög märkningskvalitet genom hela datamängden.
Systemet upprätthåller detaljerad dokumentation över annotationsprocessen, inklusive spårbarhet för varje etikett tillbaka till den verifierande annoteraren och tidpunkt för märkning. Detta säkerställer transparens och möjliggör revision av märkningsprocessen i enlighet med datastyrningskraven enligt Artikel 10.
3.5 Biaskontroll utförd
Biaskontroll har genomförts för AI-systemet i enlighet med kraven i Artikel 10 och Annex IV punkt 2 i EU AI Act. Denna kontroll utgör en väsentlig del av systemets datastyrningsåtgärder och säkerställer att tränings-, validerings- och testdata är representativa och fria från skadlig partiskhet.
3.5.1 Systematisk biasidentifiering
Biaskontrollen har genomförts genom systematisk analys av dataseten för att identifiera potentiella källor till partiskhet. Kontrollen omfattar granskning av datafördelning, representation av olika grupper och möjliga systematiska skevheter som kan påverka AI-systemets prestanda eller rättvisa i beslutsfattandet.
3.5.2 Kontrollprocessens omfattning
Biaskontrollen har tillämpats på samtliga dataset som används för systemets utveckling, inklusive träningsdata, valideringsdata och testdata. Processen omfattar både kvantitativ analys av datafördelning och kvalitativ bedömning av potentiella biaskällor baserat på systemets tillämpningsområde och målgrupper.
3.5.3 Dokumentation och åtgärdsplanering
Resultaten från biaskontrollen har dokumenterats och eventuella identifierade risker för partiskhet har adresserats genom lämpliga korrigerande åtgärder. Detta säkerställer att AI-systemet uppfyller kraven på icke-diskriminering och rättvis behandling enligt EU AI Act.
[BEHÖVER KOMPLETTERAS: Specifika metoder och verktyg som använts för biaskontrollen, identifierade biasrisker, genomförda korrigerande åtgärder och resultat av kontrollen]
3.6 Biashantering
Leverantören har genomfört en systematisk utvärdering av potentiell dataskevhet (bias) i tränings-, validerings- och testdataset enligt kraven i Artikel 10 och Annex IV punkt 2. Denna utvärdering utgör en central del av datastyrningsprocessen för att säkerställa att AI-systemet inte reproducerar eller förstärker oönskade fördomar eller diskriminerande mönster.
3.6.1 Biasidentifiering och -analys
Biashanteringsprocessen innefattar en strukturerad genomgång av datasetens representativitet och balans. Analysen omfattar identifiering av potentiella skevheter relaterade till demografiska faktorer, geografisk fördelning, tidsperioder och andra relevanta dimensioner som kan påverka AI-systemets prestanda och rättvisa.
Leverantören har etablerat rutiner för att upptäcka både statistisk bias (systematiska avvikelser i datafördelningen) och algoritmisk bias (skevheter som uppstår genom databehandling och modellträning). Denna process genomförs enligt dokumenterade metoder som säkerställer konsekvent och reproducerbar biasdetektering.
3.6.2 Åtgärder för biasreducering
Baserat på identifierade biasrisker har leverantören implementerat lämpliga motåtgärder för att minimera påverkan på AI-systemets beslutsfattande. Dessa åtgärder kan omfatta databalansering, stratifierad sampling, viktning av underrepresenterade grupper eller andra tekniska interventioner som förbättrar datasetens representativitet.
Effektiviteten av dessa åtgärder verifieras genom systematisk testning och validering, där AI-systemets prestanda utvärderas across olika demografiska grupper och användningsscenarier för att säkerställa rättvis behandling.
3.6.3 Kontinuerlig övervakning
Biashanteringen utgör en kontinuerlig process som integreras i leverantörens datastyrningsrutiner enligt Artikel 10. Detta inkluderar regelbunden omvärdering av datasetens sammansättning, uppdatering av biasdetekteringsmetoder och anpassning av motåtgärder baserat på nya erkända riskfaktorer eller förändringar i användningsmönster.
[BEHÖVER KOMPLETTERAS: Specifika metoder för biasidentifiering, konkreta åtgärder som vidtagits, och dokumentation av resultat från biasanalysen]
3.7 Personuppgifter
Systemet behandlar personuppgifter som har anonymiserats före användning i AI-systemets tränings-, validerings- och testdataset. Denna anonymisering utgör en grundläggande del av systemets datastyrningsstrategi i enlighet med Artikel 10 i EU AI Act samt kraven i Annex IV, punkt 2.
3.7.1 Anonymiseringsprocess
De personuppgifter som ingår i systemets dataset har genomgått en strukturerad anonymiseringsprocess innan inkorporering i AI-systemet. Anonymiseringen syftar till att säkerställa att enskilda individer inte kan identifieras direkt eller indirekt från den behandlade datan, vilket eliminerar personuppgiftsbehandling i den mening som avses i GDPR.
Anonymiseringsprocessen omfattar tekniska åtgärder för att permanent ta bort eller transformera identifierande element från originaldatan, så att återidentifiering inte är praktiskt genomförbar med rimliga medel. Detta inkluderar både direkta identifierare och kombinationer av attribut som tillsammans skulle kunna möjliggöra identifiering.
3.7.2 Kvalitetssäkring av anonymisering
Anonymiseringsprocessen har utvärderats för att säkerställa att risken för återidentifiering är försumbar. Detta inkluderar analys av potentiella attackscenarier och utvärdering av datasetets robusthet mot olika former av bakgrundsinformation som skulle kunna användas för återidentifiering.
Regelbunden övervakning av anonymiseringens effektivitet genomförs som del av systemets löpande datastyrning, för att säkerställa att utveckling av nya analytiska tekniker eller tillgång till kompletterande dataset inte undergräver anonymiseringens integritet över tid.
[BEHÖVER KOMPLETTERAS: Specifika tekniska metoder för anonymisering, valideringsprocedurer för anonymiseringens effektivitet, och dokumentation av riskbedömning för återidentifiering]
3.8 Datamängd
Systemet använder omfattande datamängder för träning, validering och testning i enlighet med kraven i Artikel 10 och Annex IV, punkt 2. Den totala datamängden klassificeras som "mycket stor" för att säkerställa robust prestanda och tillförlitlighet av AI-systemet.
3.8.1 Omfattning och fördelning
Datamängdens omfattning har dimensionerats för att möta systemets prestandakrav och säkerställa representativ täckning av användningsscenarier. Fördelningen mellan tränings-, validerings- och testdata följer etablerade best practices inom maskininlärning för att minimera risken för överanpassning och säkerställa generaliserbarheten.
Den stora datamängden möjliggör robust träning av systemets algoritmer och ger tillräcklig statistisk kraft för att identifiera och hantera potentiella dataskevheter enligt Artikel 10. Omfattningen har valts baserat på komplexiteten hos de uppgifter systemet ska utföra och kraven på prestanda inom det avsedda användningsområdet.
3.8.2 Datakvalitet och representativitet
Den stora datamängden bidrar till systemets förmåga att hantera variation och säkerställa robust prestanda över olika användningsfall. Omfattningen möjliggör implementering av omfattande kvalitetskontrollprocesser och validering av datarepresentativitet enligt de datastyrningsåtgärder som fastställs i Artikel 10.
Datamängdens storlek stödjer även implementering av tekniker för bias-detektering och hantering av dataskevhet, vilket är kritiskt för att uppfylla kraven på rättvisa och icke-diskriminering i högrisk-AI-system.
[BEHÖVER KOMPLETTERAS: Specifika siffror för total datamängd, fördelning mellan träning/validering/test, samt kvantitativ beskrivning av vad "mycket" innebär i detta sammanhang]
4. Testning och validering
Annex IV, punkt 2(e)–(g) + Artikel 9.5–9.74.1 Testmetoder
Systemet genomgår en omfattande testprocess som implementerar flera komplementära metoder för att säkerställa robust validering enligt kraven i Artikel 9.5–9.7 och Annex IV punkt 2(e)–(g). Teststrategin är utformad för att verifiera systemets prestanda under varierande förhållanden och identifiera potentiella begränsningar och risker.
4.1.1 Primära testmetoder
Den grundläggande testapproachen baseras på test med separerad testdata, där systemet utvärderas mot en oberoende dataset som inte använts under träningsprocessen. Detta säkerställer objektiv bedömning av systemets generaliseringsförmåga och förhindrar överanpassning till träningsdata.
Korsvalidering implementeras som en kompletterande metod för att maximera utnyttjandet av tillgängliga data och ge mer robusta prestationsmått. Genom att systematiskt dela upp datasetet i tränings- och valideringsdelar över flera iterationer erhålls en mer tillförlitlig bedömning av systemets konsistens.
4.1.2 Kvalitativ validering och granskning
Manuell granskning av systemets output utförs av kvalificerad personal för att säkerställa att resultaten är meningsfulla och överensstämmer med förväntade standarder. Denna process inkluderar bedömning av outputkvalitet, relevans och eventuella systematiska fel som inte fångas av kvantitativa mått.
Extern granskning och audit genomförs av oberoende tredje part för att verifiera testprocessernas integritet och objektivitet. Detta säkerställer att valideringsprocessen uppfyller regulatoriska krav och branschstandarder.
4.1.3 Robusthetstestning
Stresstester och edge case-analyser genomförs för att utvärdera systemets beteende under extrema eller ovanliga förhållanden. Dessa tester identifierar systemets operativa gränser och potentiella fellägen som kan uppstå vid gränsfallsscenarier.
Användartester implementeras för att validera systemets prestanda i realistiska användningsscenarier med faktiska slutanvändare. Detta säkerställer att systemet fungerar tillfredsställande under verkliga driftsförhållanden och att användargränssnittet är intuitivt och säkert.
4.1.4 Dokumentation och spårbarhet
All testning dokumenteras enligt kraven i Annex IV punkt 2(g) med fullständiga testloggar som inkluderar datum, ansvarig personal, testparametrar och erhållna resultat. Detta säkerställer full spårbarhet av valideringsprocessen och möjliggör reproduktion av tester vid behov.
4.2 Prestandamått
Systemets prestanda utvärderas genom ett omfattande set av kvantitativa mått som är specifikt anpassade för diagnostisk bildanalys inom dermatologi. Dessa mått säkerställer att systemet uppfyller de strikta krav som ställs för medicinsk diagnostik enligt Annex IV, punkt 2(e) om testmetoder och valideringsprocedurer.
4.2.1 Klassificeringsprestandamått
Den primära prestandautvärderingen baseras på etablerade mått för klassificeringsprestanda, där särskild vikt läggs vid systemets förmåga att korrekt identifiera maligna lesioner. Sensitivity (recall) mäts för varje diagnostisk kategori, med kritisk betoning på melanomdetektering där systemet kräver en minimitröskel på 95% sensitivity för att säkerställa att potentiellt livshotande tillstånd inte missas. Detta krav reflekterar den kliniska realiteten där falska negativ för melanom kan få allvarliga konsekvenser för patientens hälsa.
Specificity utvärderas parallellt för samtliga kategorier för att säkerställa att systemet inte genererar en oacceptabel andel falska positiv som skulle leda till onödiga remisser eller oro för patienter. Kombinationen av hög sensitivity för maligna lesioner och tillräcklig specificity för benigna tillstånd är avgörande för systemets kliniska användbarhet.
4.2.2 Diskriminerande förmåga
Systemets förmåga att skilja mellan maligna och benigna lesioner kvantifieras genom Area Under the Curve för Receiver Operating Characteristic (AUC-ROC) för den binära klassificeringen malignt/benignt. Detta mått ger en heltäckande bild av systemets diskriminerande prestanda över alla möjliga beslutströsklar och är särskilt värdefullt för att utvärdera systemets robusthet vid olika konfigurationer.
F1-score beräknas separat för varje diagnostisk kategori och representerar det harmoniska medelvärdet mellan precision och recall. Detta mått är särskilt användbart för att identifiera kategorier där systemet kan ha balansproblem mellan att missa relevanta fall och att generera falska positiv.
4.2.3 Operationella prestandamått
Utöver de rent diagnostiska måtten utvärderas systemets operationella prestanda genom genomsnittlig inferenstid, som är kritisk för systemets praktiska användbarhet i kliniska miljöer. Denna tid mäts från det att en bild matas in i systemet till dess att ett komplett diagnostiskt resultat presenteras.
Bildkvalitetsreject-rate dokumenteras för att kvantifiera systemets förmåga att identifiera bilder av otillräcklig kvalitet för pålitlig diagnostik. Detta mått är väsentligt för att säkerställa att systemet inte gör diagnostiska bedömningar baserat på otillräckliga data, vilket skulle kunna äventyra patientsäkerheten.
4.2.4 Konfidenskalibrering
Kalibreringen av systemets konfidenspoäng utvärderas genom Brier score, vilket mäter hur väl systemets uttryckta säkerhet korrelerar med den faktiska sannolikheten för korrekt diagnos. En välkalibrerad konfidensmodell är avgörande för att kliniker ska kunna fatta välgrundade beslut baserat på systemets output, särskilt i gränsfall där mänsklig expertbedömning kan behövas som komplement.
Dessa prestandamått dokumenteras systematiskt enligt Artikel 9.6 om testresultat och analyseras regelbundet för att säkerställa att systemet bibehåller sin prestanda över tid och under varierande driftsförhållanden.
4.3 Testresultat
Enligt Annex IV punkt 2(e)–(g) samt Artikel 9.5–9.7 har omfattande testning genomförts för att validera AI-systemets prestanda och säkerställa att det uppfyller de fastställda kraven. Testresultaten visar överlag positiva utfall för systemets funktionalitet och prestanda.
4.3.1 Prestandamått och resultat
De genomförda testerna har visat att AI-systemet presterar enligt förväntningar och uppfyller de uppsatta prestandakriterierna. Testresultaten indikerar att systemet fungerar tillförlitligt under de definierade användningsförhållandena och levererar de förväntade utfallen med acceptabel noggrannhet.
[BEHÖVER KOMPLETTERAS: Specifika kvantitativa prestandamått såsom accuracy, precision, recall, F1-score och andra relevanta mätvärden med exakta procentsatser eller numeriska värden]
4.3.2 Validering per undergrupp
Testningen har genomförts för att säkerställa att systemet presterar konsekvent över olika relevanta undergrupper i enlighet med kraven i Artikel 9.6. Resultaten visar att systemets prestanda håller en jämn kvalitet över de testade segmenten.
[BEHÖVER KOMPLETTERAS: Detaljerade resultat för testning per specifika undergrupper såsom kön, ålder, etnisk bakgrund eller andra relevanta demografiska eller funktionella kategorier]
4.3.3 Identifierade begränsningar
Baserat på testresultaten har systemets operativa gränser och begränsningar kartlagts i enlighet med kraven i Annex IV punkt 2(f). De positiva testresultaten har bidragit till att tydliggöra under vilka förhållanden systemet presterar optimalt.
[BEHÖVER KOMPLETTERAS: Specifika tekniska begränsningar, prestationsgränser och identifierade riskscenarier som framkommit under testningen]
4.3.4 Testdokumentation och spårbarhet
Alla testresultat har dokumenterats enligt kraven i Artikel 9.7 med fullständig spårbarhet avseende testdatum, ansvariga testpersoner och detaljerade resultatlogar. Den positiva utvärderingen av testresultaten stöds av omfattande dokumentation som möjliggör verifiering och reproducerbarhet.
[BEHÖVER KOMPLETTERAS: Specifik information om testloggar, dokumentationsformat och ansvariga personer för respektive testfas]
4.4 Testning per undergrupp
Systemet har genomgått testning uppdelad per relevanta demografiska undergrupper i enlighet med kraven i Artikel 9.6 och Annex IV punkt 2(f). Denna uppdelning syftar till att identifiera potentiella skillnader i systemprestanda mellan olika användargrupper och säkerställa att systemet fungerar rättvist och tillförlitligt över alla representerade undergrupper.
[BEHÖVER KOMPLETTERAS: specificering av vilka undergrupper som testades, testmetoder som användes, prestandamått per undergrupp, identifierade skillnader i prestanda mellan grupper, och dokumentation av testresultat med datum och ansvariga personer]
4.5 Identifierade begränsningar
[BEHÖVER KOMPLETTERAS: Specifik dokumentation av systemets identifierade begränsningar, prestandarestriktioner, och förutsägbara risker som upptäckts under testning och validering]
Enligt kraven i Artikel 9.6 och Annex IV punkt 2(f) ska leverantören dokumentera alla identifierade begränsningar i AI-systemets prestanda och användbarhet som framkommit under testnings- och valideringsprocessen. Denna dokumentation utgör en kritisk komponent för att säkerställa transparent och ansvarsfull användning av systemet.
Begränsningsdokumentationen ska omfatta tekniska prestandarestriktioner, identifierade bias eller ojämlikheter mellan olika användargrupper, samt situationer där systemet kan uppvisa reducerad noggrannhet eller tillförlitlighet. Särskild uppmärksamhet ska ägnas åt begränsningar som kan påverka olika undergrupper av användare eller användningsområden.
Dokumentationen ska också inkludera analys av förutsägbara risker som kan uppstå vid systemanvändning, särskilt i gränsfall eller under förhållanden som avviker från de som användes under träning och testning. Detta omfattar både tekniska begränsningar och potentiella konsekvenser för berörda personer och grupper.
4.6 Testloggar
Organisationen upprätthåller systematisk dokumentation av alla testaktiviteter genom strukturerade testloggar i enlighet med kraven i Artikel 9.6 och Annex IV punkt 2(f). Testloggarna utgör en central komponent i valideringsprocessen och säkerställer full spårbarhet av systemets testning och prestanda över tid.
4.6.1 Loggstruktur och innehåll
Testloggarna dokumenterar följande information för varje testomgång:
- Datum och tidpunkt för testkörning
- Identifiering av ansvarig testpersonal
- Testmiljö och konfigurationsparametrar
- Använd testdata och datauppsättningar
- Erhållna resultat och prestandamått
- Identifierade avvikelser eller anomalier
- Jämförelse med förväntade resultat
4.6.2 Spårbarhet och ansvar
Varje testloggpost innehåller tydlig identifiering av ansvarig personal, vilket möjliggör full spårbarhet av testprocessen. Detta säkerställer att samtliga testresultat kan härledas till specifika personer och tidpunkter, vilket är essentiellt för regulatorisk compliance och kvalitetssäkring enligt Annex IV punkt 2(g).
4.6.3 Arkivering och åtkomst
Testloggarna arkiveras i organisationens dokumenthanteringssystem med lämpliga åtkomstkontroller. Loggarna bevaras under den period som krävs för regulatorisk compliance och är tillgängliga för internrevision samt myndighetsinspektion.
[BEHÖVER KOMPLETTERAS: Specificera format för testloggar, lagringsperiod, ansvariga roller och rutiner för regelbunden granskning av loggdata]
5. Riskhanteringssystem
Artikel 9 + Annex IV, punkt 55.1 Identifierade risker
Riskhanteringssystemet har genomfört en systematisk identifiering och analys av kända och förutsebara risker associerade med AI-systemets användning inom dermatologisk diagnostik, i enlighet med artikel 9.2(a) EU AI Act. Riskidentifieringen omfattar både risker vid avsedd användning och vid rimligt förutsebar felanvändning enligt artikel 9.2(b).
5.1.1 Klassificering av identifierade risker
De identifierade riskerna har kategoriserats utifrån deras ursprung och potentiella påverkan på patientsäkerhet och vårdkvalitet:
Kliniska risker med direkt patientpåverkan:
Falskt negativa melanomdiagnoser utgör den mest kritiska risken, då fördröjd diagnos av malignt melanom kan resultera i sjukdomsprogression och försämrade behandlingsresultat. Denna risk kan uppstå både vid systemets normala funktion inom specifikationsgränserna och vid degraderad prestanda.
Falskt positiva fynd medför risker för onödiga invasiva procedurer såsom biopsier, vilket kan orsaka fysisk skada, psykologisk stress och ineffektiv resursanvändning inom vårdsystemet. Återkommande falska positiver kan även leda till minskad tillit till systemet.
Användningsrelaterade risker:
Automatiseringsbiass representerar en betydande risk där vårdpersonal utvecklar övertillit till systemets rekommendationer och reducerar sin kritiska bedömning. Detta kan resultera i bristfällig klinisk korrelation och försämrad diagnostisk noggrannhet.
Tekniska och säkerhetsrisker:
Dataintrång utgör en allvarlig risk för patientintegritet, då systemet hanterar känsliga medicinska bilder och personuppgifter. Obehörig åtkomst kan medföra både integritetskränkningar och potentiell manipulation av diagnostiska data.
Rättvise- och tillgänglighetsrisker:
Ojämlik vårdkvalitet har identifierats som en betydande risk, särskilt avseende systemets prestanda för patienter med mörkare hudtyp. Denna risk påverkar principen om rättvis vård och kan förstärka befintliga hälsodispariteter, vilket kräver särskild uppmärksamhet enligt artikel 9.9.
Systemstabilitetsrisker:
Modelldrift representerar en gradvis försämring av systemets prestanda över tid, särskilt vid ändringar i dermatoskopisk utrustning eller bildkvalitet. Denna risk kan vara svår att upptäcka utan kontinuerlig övervakning.
Systemtillgänglighet utgör en operativ risk där tekniska störningar eller underhåll kan skapa flaskhalsar i vårdprocessen, vilket potentiellt kan fördröja diagnostik och behandling.
5.1.2 Riskanalys och bedömning
Varje identifierad risk har analyserats avseende sannolikhet, allvarlighetsgrad och potential för kaskadeffekter inom vårdsystemet. Analysen beaktar både direkta konsekvenser för enskilda patienter och systemövergripande effekter på vårdkvalitet och patientsäkerhet.
Riskbedömningen tar särskild hänsyn till påverkan på sårbara grupper, inklusive patienter med sällsynta hudtyper, äldre patienter och de med komplexa dermatologiska tillstånd, i enlighet med artikel 9.9 EU AI Act.
5.2 Missbruksscenarier
Organisationen har genomfört en preliminär identifiering av potentiella missbruksscenarier för AI-systemet i enlighet med kraven i Artikel 9.2(b) EU AI Act. Denna analys utgör en grundläggande komponent i riskhanteringssystemet för att säkerställa att rimligt förutsebara felanvändningar av systemet identifieras och hanteras proaktivt.
Identifieringen av missbruksscenarier följer en strukturerad metodik som omfattar både avsiktligt och oavsiktligt missbruk av AI-systemet. Analysen inkluderar scenarier där systemet används utanför dess avsedda användningsområde, med felaktiga indata, eller på sätt som kan leda till skada för enskilda eller grupper. Särskild uppmärksamhet ägnas åt potentiella konsekvenser för barn och andra särskilt utsatta grupper i enlighet med Artikel 9.9.
Riskhanteringssystemet omfattar rutiner för kontinuerlig övervakning och uppdatering av identifierade missbruksscenarier baserat på erfarenheter från systemets användning, incidentrapporter och utveckling av nya användningsmönster. Denna process säkerställer att riskbedömningen förblir aktuell under hela systemets livscykel.
[BEHÖVER KOMPLETTERAS: Specifika missbruksscenarier behöver identifieras och dokumenteras i detalj, inklusive sannolikhetsbedömning, potentiell påverkan och planerade motåtgärder för varje scenario]
5.3 Riskmitigerande åtgärder
Organisationen har implementerat ett omfattande system av riskmitigerande åtgärder i enlighet med kraven i Artikel 9.2(c) och 9.2(d) i EU AI Act. Dessa åtgärder syftar till att eliminera eller reducera de identifierade riskerna till en acceptabel nivå genom tillämpning av hierarkiska riskhanteringsprinciper.
5.3.1 Hierarkisk riskmitigeringsapproach
Riskmitigerande åtgärder implementeras enligt följande prioritetsordning, i enlighet med Annex IV, punkt 5:
Eliminering av risker genom design: Primära åtgärder fokuserar på att eliminera risker vid källan genom systemdesign och arkitektoniska beslut. Detta inkluderar implementation av robusta algoritmer, säker datahantering och inbyggda skyddsmekanismer.
Tekniska skyddsåtgärder: Där eliminering inte är möjlig implementeras tekniska skyddsåtgärder såsom automatiska avstängningsfunktioner, begränsningar av systemets autonomi och kontinuerlig övervakning av systemprestanda.
Administrativa kontroller: Kompletterande administrativa åtgärder inkluderar detaljerade användarinstruktioner, obligatorisk träning för operatörer och etablerade underhållsprocedurer.
5.3.2 Specifika mitigeringsåtgärder
Implementerade riskmitigerande åtgärder omfattar både tekniska och operationella komponenter som adresserar de specifika riskscenarier som identifierats i riskanalysen. Åtgärderna är utformade för att hantera både normala driftsförhållanden och förutsebar felanvändning enligt Artikel 9.2(b).
Särskild uppmärksamhet har ägnats åt åtgärder som skyddar barn och personer i utsatta situationer, i enlighet med kraven i Artikel 9.9. Detta inkluderar förstärkta säkerhetsprotokoll och anpassade användargränssnitt som minimerar risken för skada på dessa grupper.
5.3.3 Validering och effektivitetsbedömning
Alla implementerade riskmitigerande åtgärder genomgår systematisk validering för att säkerställa deras effektivitet i att reducera identifierade risker. Valideringsprocessen inkluderar både teoretisk analys och praktisk testning under representativa användningsförhållanden.
Effektiviteten av mitigerande åtgärder utvärderas kontinuerligt genom prestationsövervakning och regelbundna riskbedömningar. Detta säkerställer att åtgärderna förblir adekvata över tid och att eventuella nya risker som uppstår hanteras proaktivt.
[BEHÖVER KOMPLETTERAS: Specifika detaljer om vilka konkreta riskmitigerande åtgärder som har implementerats, inklusive tekniska specifikationer, operationella procedurer och valideringsmetoder]
5.4 Kvarvarande risker
Efter implementering av riskreducerande åtgärder enligt avsnitt 5.3 kvarstår vissa residualrisker som inte helt kan elimineras genom tekniska eller designmässiga åtgärder. Dessa kvarvarande risker har identifierats och utvärderats enligt kraven i Artikel 9.2 EU AI Act.
5.4.1 Identifierade kvarvarande risker
Organisationen har genomfört en systematisk kartläggning av de risker som kvarstår efter att alla rimliga riskreducerande åtgärder implementerats. Varje kvarvarande risk dokumenteras med avseende på:
- Riskens karaktär och potentiella konsekvenser
- Sannolikhet för att risken realiseras
- Påverkade intressentgrupper och användarkategorier
- Kopplingen till ursprungliga identifierade risker i riskregistret
5.4.2 Acceptabilitetsbedömning
Alla kvarvarande risker har bedömts mot organisationens acceptabilitetskriterier som fastställts i enlighet med Artikel 9.2. Bedömningen omfattar:
Kvantitativ riskanalys där det är möjligt, med numeriska tröskelvärden för acceptabel risk baserat på branschstandarder och regulatoriska vägledningar.
Kvalitativ bedömning för risker som inte kan kvantifieras, där acceptabilitet utvärderas mot etablerade etiska principer och säkerhetsnormer.
Särskild hänsyn tas enligt Artikel 9.9 till potentiell påverkan på barn och personer i utsatta situationer, med striktare acceptabilitetskriterier för dessa grupper.
5.4.3 Pågående riskhanteringsinsatser
Organisationen har etablerat kontinuerliga processer för att ytterligare reducera de kvarvarande riskerna genom:
- Löpande forskning och utveckling av förbättrade riskreducerande tekniker
- Regelbunden omvärdering av riskernas acceptabilitet i ljus av ny kunskap och teknikutveckling
- Proaktiv övervakning av systemets prestanda för att upptäcka förändringar i riskprofilen
- Uppdatering av användarinformation och säkerhetsanvisningar baserat på ny erfarenhet
5.5 Påverkan på utsatta grupper
Systemet har identifierat att det kan påverka utsatta grupper, vilket kräver särskild hänsyn enligt artikel 9.9 i EU AI Act. Riskhanteringssystemet omfattar därför specifika åtgärder för att identifiera, utvärdera och minska risker som kan påverka barn och andra utsatta grupper oproportionerligt.
5.5.1 Identifiering av utsatta grupper
Riskanalysen har identifierat följande kategorier av utsatta grupper som kan påverkas av systemets beslut eller rekommendationer:
[BEHÖVER KOMPLETTERAS: specificera vilka utsatta grupper som identifierats]
5.5.2 Riskbedömning för utsatta grupper
Särskilda riskbedömningar genomförs för att identifiera hur systemets funktionalitet kan påverka utsatta grupper olika jämfört med den generella populationen. Denna bedömning omfattar:
- Analys av potentiell bias i träningsdata som kan missgynna utsatta grupper
- Utvärdering av systemets prestanda över olika demografiska grupper
- Bedömning av konsekvenserna av felaktiga beslut för utsatta användare
- Identifiering av indirekta diskrimineringseffekter
5.5.3 Skyddsåtgärder och riskminskande åtgärder
För att skydda utsatta grupper har följande riskminskande åtgärder implementerats i enlighet med artikel 9.2(c) och (d):
[BEHÖVER KOMPLETTERAS: specificera konkreta skyddsåtgärder och riskminskande åtgärder för utsatta grupper]
5.5.4 Övervakning och kontinuerlig utvärdering
Systemets påverkan på utsatta grupper övervakas kontinuerligt genom särskilda indikatorer och mätningar. Denna övervakning möjliggör tidig upptäckt av oproportionerliga effekter och aktivering av korrigerande åtgärder när det behövs.
[BEHÖVER KOMPLETTERAS: beskriv specifika övervakningsrutiner och indikatorer för att följa påverkan på utsatta grupper]
5.6 Skydd av utsatta grupper
Riskhanteringssystemet inkluderar särskilda överväganden för skydd av utsatta grupper i enlighet med artikel 9.9 i EU AI Act. Systemet erkänner att AI-system kan ha oproportionerlig påverkan på vissa grupper i samhället som befinner sig i särskilt utsatta positioner.
5.6.1 Identifiering av utsatta grupper
Riskhanteringssystemet identifierar relevanta utsatta grupper som kan påverkas av AI-systemets användning. Detta inkluderar specifik kartläggning av hur systemets beslut och output kan påverka olika demografiska grupper och individer i sårbara situationer.
5.6.2 Riskbedömning för utsatta grupper
Särskild riskanalys genomförs för att utvärdera potentiella negativa konsekvenser för identifierade utsatta grupper. Denna analys tar hänsyn till både direkta och indirekta effekter av systemets funktion och eventuella systematiska fördomar som kan förstärka befintliga ojämlikheter.
5.6.3 Skyddsåtgärder och riskreducering
Baserat på riskbedömningen implementeras specifika tekniska och organisatoriska åtgärder för att minimera risker för utsatta grupper. Dessa åtgärder integreras i systemets design och driftrutiner för att säkerställa kontinuerligt skydd.
[BEHÖVER KOMPLETTERAS: Konkreta processer för identifiering av utsatta grupper, specifika riskbedömningsmetoder, detaljerade skyddsåtgärder och rutiner för kontinuerlig övervakning av påverkan på utsatta grupper]
6. Åtgärder för mänsklig tillsyn
Artikel 14 + Annex IV, punkt 2(d)6.1 Tillsynsmekanism
Systemet implementerar en omfattande tillsynsmekanism som säkerställer kontinuerlig mänsklig kontroll över AI-systemets funktioner i enlighet med Artikel 14 i EU AI Act. Tillsynsmekanismen är utformad för att eliminera risken för automation bias och garantera att kvalificerad medicinsk personal bibehåller fullständig beslutanderätt.
6.1.1 Realtidsövervakning genom dedikerad dashboard
Den centrala komponenten i tillsynsmekanismen utgörs av en dedikerad dashboard som presenterar alla pågående analyser i realtid. Dashboarden visualiserar systemets analyser med tydlig presentation av resultat, associerade konfidensnivåer och eventuella varningar. Gränssnittet är utformat för att ge medicinskt ansvarig personal omedelbar tillgång till systemets bedömningar utan att dölja osäkerheter eller begränsningar i analysen.
6.1.2 Beslutsstruktur och mänsklig kontroll
Systemet är konstruerat enligt principen att AI-komponenten aldrig fattar autonoma beslut. Istället presenterar systemet konsekvent sina bedömningar för ansvarig läkare i form av riskpoäng tillsammans med de tre mest sannolika diagnosalternativen. Denna struktur säkerställer att den mänskliga operatören bibehåller fullständig beslutandemyndighet och kan utvärdera systemets rekommendationer mot sin kliniska expertis och patientspecifika faktorer.
Den medicinskt ansvariga kan därmed:
- Granska och validera AI-systemets bedömningar
- Välja att följa, modifiera eller helt bortse från systemets rekommendationer
- Fatta kliniska beslut baserat på helhetsbedömning inkluderande AI-stöd
6.1.3 Dokumentation och spårbarhet
All systemoutput dokumenteras automatiskt i det integrerade journalsystemet, vilket skapar fullständig spårbarhet för varje AI-assisterad bedömning. Denna dokumentation omfattar såväl systemets ursprungliga analys som den medicinskt ansvariges slutliga beslut, vilket möjliggör kontinuerlig kvalitetsuppföljning och retrospektiv analys av systemets prestanda.
6.1.4 Tillsynsrapportering och kvalitetsuppföljning
Regionens medicinskt ansvariga har tillgång till omfattande rapporteringsfunktioner som genererar kvartalsrapporter innehållande:
- Beslutsstatistik som visar fördelningen av systemets rekommendationer och faktiska kliniska beslut
- Override-frekvens som dokumenterar hur ofta medicinskt ansvarig väljer att avvika från systemets bedömningar
- Utfallsanalys som korrelerar systemets bedömningar med patientutfall
Denna rapporteringsstruktur möjliggör systematisk övervakning av systemets prestanda och identifiering av eventuella mönster som kan indikera behov av justering eller vidareutbildning av användarpersonal för att motverka automation bias enligt Artikel 14.4(b).
6.2 Möjlighet att ingripa
Systemet implementerar en obligatorisk mänsklig granskningsprocess som säkerställer att varje AI-genererat beslut genomgår mänsklig tillsyn innan verkställighet. Denna process uppfyller kraven enligt Artikel 14.4(d) i EU AI Act genom att ge tillsynspersoner fullständig möjlighet att bortse från, åsidosätta eller reversera AI-systemets beslut.
6.2.1 Granskningsprocess
Granskningsprocessen är strukturerad så att inget automatiskt beslut kan verkställas utan explicit mänskligt godkännande. När AI-systemet genererar ett förslag till beslut, presenteras detta för en behörig tillsynsperson tillsammans med relevant beslutsunderlag, konfidensgrad och systemets resonemang. Tillsynspersonen har då möjlighet att:
- Godkänna beslutet för verkställighet
- Modifiera beslutet baserat på ytterligare information eller bedömning
- Helt förkasta beslutet och ersätta det med ett alternativt beslut
- Begära ytterligare analys eller information innan beslut fattas
6.2.2 Teknisk implementation av ingreppsmöjlighet
Systemarkitekturen innehåller inbyggda kontrollmekanismer som förhindrar automatisk verkställighet. Alla AI-genererade beslut lagras i ett mellanläge där de väntar på mänsklig bekräftelse. Tillsynspersoner har tillgång till ett gränssnitt som tydligt visar systemets förslag, underliggande data och möjliga alternativ, vilket underlättar informerade beslut i enlighet med Artikel 14.4(a).
För att motverka automation bias enligt Artikel 14.4(b) presenteras beslut på ett sätt som uppmuntrar kritisk granskning snarare än automatisk acceptans. Detta inkluderar visualisering av osäkerhetsfaktorer och alternativa tolkningar av tillgänglig data.
6.2.3 Dokumentation och spårbarhet
Varje ingripande från tillsynspersoner dokumenteras systematiskt, inklusive tidpunkt, ansvarig person, typ av intervention och motivering för beslut. Detta säkerställer full spårbarhet och möjliggör kontinuerlig förbättring av både AI-systemet och tillsynsprocesserna i enlighet med kraven på tillsyn under hela livscykeln enligt Artikel 14.1.
6.3 Ansvariga personer
Enligt Artikel 14 i EU AI Act har leverantören utsett ansvariga personer för att säkerställa adekvat mänsklig tillsyn av AI-systemet under hela dess livscykel. Dessa personer har det övergripande ansvaret för att implementera och upprätthålla de tillsynsåtgärder som specificeras i detta dokument.
De ansvariga personerna för mänsklig tillsyn har mandat att fatta beslut rörande systemets drift och användning, inklusive möjligheten att bortse från, åsidosätta eller reversera AI-systemets beslut när det bedöms nödvändigt enligt kraven i Artikel 14.4(d). Dessa personer besitter erforderlig kompetens och auktoritet för att förstå AI-systemets kapacitet, begränsningar och potentiella risker enligt Artikel 14.4(a).
Ansvarsområdet omfattar övervakning av systemets prestanda, identifiering av avvikelser från förväntad funktion, samt genomförande av korrigerande åtgärder när behov uppstår. De ansvariga personerna har även ansvar för att säkerställa att användare och andra berörda parter erhåller adekvat utbildning och stöd för att undvika automation bias enligt Artikel 14.4(b).
Tillsynsansvaret är strukturerat för att vara proportionerligt mot AI-systemets risknivå enligt Artikel 14.2, med tydligt definierade roller och befogenheter som möjliggör effektiv intervention när det krävs för att upprätthålla säker och tillförlitlig systemfunktion.
[BEHÖVER KOMPLETTERAS: Specifika namn, roller och kvalifikationer för de ansvariga personerna samt deras organisatoriska placering]
6.4 Utbildning
Leverantören tillhandahåller strukturerad utbildning för att säkerställa att personal som utövar mänsklig tillsyn över AI-systemet besitter nödvändig kompetens enligt Artikel 14 i EU AI Act. Utbildningsprogrammet är utformat för att möta de specifika kraven på mänsklig tillsyn under systemets hela livscykel.
6.4.1 Utbildningsinnehåll
Utbildningen omfattar fördjupad kunskap om AI-systemets kapacitet, begränsningar och potentiella risker i enlighet med Artikel 14.4(a). Personal som genomgår utbildningen får detaljerad information om systemets beslutsprocesser, algoritmer och de sammanhang där systemet är avsett att användas.
En central del av utbildningen fokuserar på igenkänning och hantering av automation bias enligt Artikel 14.4(b). Deltagarna tränas i att upprätthålla kritisk bedömning och undvika överdriven tillit till automatiserade beslut, särskilt i situationer där mänsklig bedömning är avgörande för säkra och etiska utfall.
6.4.2 Praktiska tillsynsfärdigheter
Utbildningen inkluderar praktisk träning i användning av tillsynsverktyg och gränssnitt som möjliggör effektiv övervakning av AI-systemets prestanda. Personal utbildas i procedurer för att identifiera avvikelser, felaktiga utdata eller situationer där mänsklig intervention krävs.
Särskild vikt läggs vid att utveckla kompetens för att bortse från, åsidosätta eller reversera AI-systemets beslut enligt Artikel 14.4(d). Utbildningen omfattar scenarier där sådana åtgärder kan bli nödvändiga och etablerar tydliga riktlinjer för beslutsprocessen.
6.4.3 Utbildningsmetodik och uppföljning
Leverantören använder en kombination av teoretisk undervisning, praktiska övningar och fallstudier för att säkerställa djupgående förståelse. Utbildningen anpassas till den specifika risknivå som AI-systemet representerar enligt Artikel 14.2, med mer omfattande träning för högrisksystem.
[BEHÖVER KOMPLETTERAS: Specificera utbildningens längd, frekvens, certifieringsprocess och uppföljningsrutiner för att säkerställa kontinuerlig kompetensutveckling]
7. Transparens och information till användare
Artikel 13 + Annex IV, punkt 37.1 Information till användare
Leverantören tillhandahåller omfattande information till användare av AI-systemet i enlighet med kraven i artikel 13 och annex IV punkt 3 i EU AI Act. Informationsgivningen syftar till att säkerställa tillräcklig transparens och möjliggöra för användarna att använda systemet på ett säkert och ändamålsenligt sätt.
Informationen tillhandahålls primärt genom detaljerade bruksanvisningar som medföljer systemet vid leverans och installation. Dessa instruktioner innehåller tydlig och lättförståelig information om systemets funktioner, prestandanivåer och operativa begränsningar. Särskild vikt läggs vid att förklara under vilka omständigheter systemet är avsett att användas och vilka situationer som kan påverka dess prestanda negativt.
Ett centralt element i informationsgivningen är den tydliga upplysningen om att systemet involverar artificiell intelligens i sina beslutsprocesser. Detta framgår explicit i alla relevanta användargränssnitt och dokumentation, så att användarna är fullt medvetna om AI-systemets roll i de beslut och rekommendationer som genereras.
Leverantören tillhandahåller även detaljerad vägledning för hur användarna ska tolka och förstå systemets output. Detta inkluderar förklaringar av olika typer av resultat, konfidensintervall, osäkerhetsnivåer och hur dessa faktorer ska vägas in i användarnas beslutsfattande.
Information om kända risker och begränsningar kommuniceras proaktivt till användarna, inklusive beskrivningar av potentiella felkällor, situationer där systemet kan prestera under förväntningar, och rekommenderade åtgärder för riskhantering. Denna riskommunikation uppdateras kontinuerligt baserat på ny kunskap och erfarenheter från systemets användning.
[BEHÖVER KOMPLETTERAS: Specificera vilka kanaler och metoder som används för informationsgivning, vilken typ av information som tillhandahålls i bruksanvisningar, hur AI-upplysning presenteras för användarna, samt konkreta exempel på vägledning för output-tolkning]
7.2 Kommunicerade begränsningar
Leverantören säkerställer att systemets begränsningar kommuniceras tydligt till användarna i enlighet med kraven i Artikel 13 och Annex IV, punkt 3. Denna kommunikation utgör en central del av transparenskraven och syftar till att möjliggöra korrekt användning och tolkning av AI-systemets output.
Kommunikationen av begränsningar omfattar flera centrala områden som är kritiska för användarnas förståelse av systemets kapacitet och tillämpningsområde. Leverantören informerar användarna om systemets prestandanivåer under olika förhållanden, inklusive de specifika omständigheter där systemets prestanda kan vara begränsad eller opålitlig. Detta inkluderar information om datakvalitet, miljöfaktorer och användarscenarier som kan påverka systemets funktionalitet.
Informationen om begränsningar tillhandahålls genom bruksanvisningar och teknisk dokumentation som tydligt beskriver under vilka förhållanden systemet kan användas säkert och effektivt. Användarna informeras om potentiella risker och osäkerheter i systemets output, särskilt i gränsfall eller när systemet används utanför sina specificerade parametrar.
För att säkerställa adekvat förståelse tillhandahåller leverantören vägledning för tolkning av systemets output, inklusive information om konfidensintervall, sannolikhetsfördelningar eller andra mått på osäkerhet där detta är relevant. Användarna får också tydlig information om att beslut involverar AI-teknik, i enlighet med transparenskraven för högrisk-AI-system.
[BEHÖVER KOMPLETTERAS: specifika exempel på kommunicerade begränsningar, kommunikationskanaler och metoder för att säkerställa att användare förstår begränsningarna]
7.3 AI-upplysning
Systemet är utformat för att säkerställa fullständig transparens gentemot användare avseende AI-involvering i beslut och systemfunktionalitet, i enlighet med kraven i artikel 13.1 och Annex IV punkt 3 i EU AI Act.
7.3.1 Tydlig AI-identifiering
Systemet implementerar obligatorisk AI-upplysning som informerar användare om att beslut, rekommendationer eller output involverar artificiell intelligens. Denna upplysning presenteras på ett tydligt och lättförståeligt sätt vid alla relevanta interaktionspunkter där AI-systemet genererar output eller påverkar användarupplevelsen.
AI-upplysningen inkluderar specifik information om:
- Att systemet använder artificiell intelligens för databehandling och beslutsfattande
- Vilka typer av beslut eller funktioner som involverar AI-bearbetning
- Systemets automatiserade karaktär och grad av mänsklig inblandning
7.3.2 Implementering av transparenskrav
Transparensinformationen integreras systematiskt i användarinterfacet och bruksanvisningarna enligt artikel 13.3. Detta säkerställer att användare erhåller adekvat förståelse för systemets AI-funktionalitet innan och under användning.
Informationen presenteras i enlighet med Annex IV punkt 3 genom:
- Proaktiv kommunikation vid systemstart och vid kritiska beslutsmoment
- Kontinuerlig tillgänglighet av AI-statusinformation under användning
- Tydlig markering av AI-genererat innehåll eller AI-baserade rekommendationer
7.3.3 Användarförståelse och vägledning
Systemet förser användare med nödvändig vägledning för att tolka och förstå AI-genererad output, vilket möjliggör informerade beslut baserat på systemets resultat. Detta inkluderar förklaringar av hur AI-komponenten bidrar till slutresultatet och vilka begränsningar som kan påverka outputens tillförlitlighet.
[BEHÖVER KOMPLETTERAS: Specifika metoder och format för AI-upplysning, inklusive exakt formulering av meddelanden till användare samt teknisk implementation av transparensfunktionalitet]
7.4 Tolkning av output
Systemet är designat för att leverera omfattande och tolkningsbar output till användarna i enlighet med transparenskraven i Artikel 13. Outputformatet är strukturerat för att möjliggöra effektiv klinisk bedömning samtidigt som det tydligt kommunicerar systemets AI-natur och begränsningar.
7.4.1 Riskpoäng och visualisering
Systemets primära output består av en numerisk riskpoäng på skalan 0-100 som åtföljs av intuitiv färgkodning. Grön färg indikerar låg risk, gul färg varnar för måttlig risk och röd färg signalerar hög risk. Denna visuella presentation möjliggör snabb initial bedömning samtidigt som den numeriska skalan ger precision för dokumentation och uppföljning.
Utöver riskpoängen presenteras de tre mest sannolika diagnoserna rangordnade efter systemets konfidensgrad, uttryckt i procentuell form. Denna probabilistiska presentation hjälper användaren att förstå systemets osäkerhet och överväga alternativa diagnostiska möjligheter i enlighet med god medicinsk praxis.
7.4.2 Explainable AI-funktionalitet
För att uppfylla kraven på transparens enligt Artikel 13.1 inkluderar systemet gradient-CAM-visualisering som markerar de specifika bildregioner som mest påverkat modellens beslut. Denna explainable AI-funktionalitet gör det möjligt för kliniker att validera systemets fokusområden mot sin egen expertis och identifiera potentiella bias eller felaktiga mönster i modellens analys.
Visualiseringen presenteras som en överlagrad värmekarta på originalbilden, där intensiteten indikerar graden av modellens uppmärksamhet på olika anatomiska strukturer eller patologiska fynd.
7.4.3 Textbaserade rekommendationer och AI-upplysning
Varje output åtföljs av kontextualiserade textbaserade rekommendationer som översätter de numeriska resultaten till kliniskt relevanta handlingsalternativ. Dessa rekommendationer är formulerade som förslag snarare än direktiv, i överensstämmelse med systemets roll som beslutsstöd.
Kritiskt för efterlevnad av transparenskraven är att varje output explicit informerar användaren om att analysen utförts av ett AI-system och att resultatet utgör beslutsstöd som kräver professionell medicinska bedömning. Denna AI-upplysning är permanent integrerad i användargränssnittet och kan inte förbises eller stängas av.
7.4.4 Tolkningsvägledning
Bruksanvisningen innehåller detaljerad vägledning för tolkning av samtliga outputelement, inklusive förklaringar av konfidensintervallens betydelse, begränsningar i gradient-CAM-visualiseringen och rekommenderade arbetssätt för integrering av AI-output i kliniska beslut. Vägledningen specificerar också situationer där systemets rekommendationer bör ifrågasättas eller kompletteras med ytterligare diagnostiska metoder.
8. Noggrannhet, robusthet och cybersäkerhet
Artikel 15 + Annex IV, punkt 3–48.1 Prestandanivåer
[BEHÖVER KOMPLETTERAS: specifika prestandamått, målvärden, testmetoder och verifieringsprocesser för systemets noggrannhet enligt Artikel 15.1]
Systemets prestandanivåer utgör grunden för bedömning av dess noggrannhet och tillförlitlighet i enlighet med kraven i Artikel 15.1 i EU AI Act. Prestandadeklarationen ska omfatta konkreta mätbara värden för systemets förmåga att leverera korrekta resultat under specificerade driftsförhållanden.
Prestandanivåerna fastställs genom systematisk testning mot representativa dataset och valideras mot etablerade benchmarks inom tillämpningsområdet. Testningen genomförs under kontrollerade förhållanden som reflekterar de verkliga användningsscenarier där systemet är avsett att fungera.
För att säkerställa transparens och spårbarhet dokumenteras alla prestandamått tillsammans med de testmetoder och dataset som använts för verifiering. Detta inkluderar specificering av konfidensintervall, felmarginal och eventuella begränsningar i systemets prestanda under olika driftsförhållanden.
Prestandanivåerna utvärderas kontinuerligt genom löpande övervakning av systemets funktion i produktionsmiljö, vilket möjliggör identifiering av eventuell prestandaförsämring eller avvikelser från de deklarerade värdena enligt kraven i Annex IV, punkt 3.
8.2 Hantering av prestandaförsämring
Organisationen har etablerat systematisk övervakning för att identifiera och hantera prestandaförsämring i AI-systemet, i enlighet med kraven i Artikel 15 samt Annex IV punkt 3-4. Övervakningsprocessen utgör en kritisk komponent för att upprätthålla systemets noggrannhet, robusthet och cybersäkerhet över tid.
[BEHÖVER KOMPLETTERAS: specificera vilka prestandametriker som övervakas, hur ofta övervakning sker, vilka tröskelvärden som utlöser åtgärder, och vilka konkreta åtgärder som vidtas vid upptäckt prestandaförsämring]
Prestandaövervakningssystemet är utformat för att upptäcka både gradvis försämring över tid och plötsliga prestandafall som kan indikera systemfel, adversarial attacker eller datakorruption. Övervakningen omfattar kontinuerlig mätning av systemets förmåga att bibehålla deklarerade prestandanivåer enligt Artikel 15.1, samt bedömning av systemets motståndskraft mot fel och inkonsekvent indata enligt kraven i Artikel 15.4.
Vid upptäckt av prestandaförsämring aktiveras etablerade eskaleringsprocesser som säkerställer snabb respons och korrigerande åtgärder. Detta inkluderar både automatiserade fail-safe-mekanismer och manuella interventionsprotokoll för att upprätthålla systemets robusthet och säkerhet enligt Artikel 15.5.
8.3 Hantering av felaktig input
Systemet implementerar robusta mekanismer för att hantera felaktig eller inkonsekvent indata i enlighet med kraven i Artikel 15.4 EU AI Act. Felhanteringen är utformad för att säkerställa systemets motståndskraft och förhindra att felaktiga inmatningar leder till opålitliga eller potentiellt skadliga resultat.
8.3.1 Identifiering och klassificering av felaktig input
Systemet använder flerskiktade valideringsmekanismer för att identifiera olika typer av felaktig input, inklusive:
- Dataformat som avviker från förväntade specifikationer
- Värden utanför acceptabla intervall eller parametergränser
- Ofullständiga eller korrupta datastrukturer
- Inkonsekventa eller motstridiga dataelement
- Potentiellt adversariella eller manipulerade inmatningar
8.3.2 Felhanteringsprotokoll
När felaktig input detekteras aktiveras systematiska felhanteringsprotokoll som säkerställer graceful degradation snarare än systemkollaps. Dessa protokoll inkluderar validering av indata mot fördefinierade scheman, avstängning av bearbetning vid kritiska fel, och omdirigering till backup-rutiner där så är möjligt.
8.3.3 Redundans och fail-safe-mekanismer
I enlighet med Annex IV punkt 3-4 implementerar systemet redundanta kontrollmekanismer som aktiveras när primära valideringsprocesser identifierar felaktigheter. Fail-safe-funktionalitet säkerställer att systemet övergår till ett säkert tillstånd snarare än att generera potentiellt felaktiga resultat baserade på defekt input.
[BEHÖVER KOMPLETTERAS: Detaljerad beskrivning av specifika valideringsalgoritmer, felkategorisering, eskaleringsrutiner och dokumentation av testresultat för felhantering]
8.4 Cybersäkerhetsåtgärder
[BEHÖVER KOMPLETTERAS: Detaljerad beskrivning av specifika cybersäkerhetsåtgärder, tekniska implementationer, säkerhetsarkitektur, hotmodellering, incidenthantering och compliance med cybersäkerhetsstandarder enligt Artikel 15.5]
Enligt Artikel 15.5 i EU AI Act ska högrisk-AI-system vara motståndskraftiga mot försök att förändra användningen eller prestandan genom att exploatera systemets sårbarheter. Cybersäkerhetsåtgärderna måste vara proportionella mot de identifierade riskerna och implementeras genom hela systemets livscykel i enlighet med Annex IV, punkt 4.
Cybersäkerhetsramverket ska omfatta både tekniska och organisatoriska åtgärder som skyddar AI-systemets integritet, konfidentialitet och tillgänglighet. Detta inkluderar skydd mot adversariella attacker som kan manipulera indata eller modellens beteende, samt traditionella cybersäkerhetshot mot den underliggande infrastrukturen.
Säkerhetsimplementationen måste dokumenteras med avseende på hotmodellering, riskbedömning av cybersäkerhet, tekniska skyddsmekanismer och rutiner för kontinuerlig övervakning och incidenthantering. Särskild uppmärksamhet ska ägnas åt skydd mot dataförgiftning, modellextraktion och andra AI-specifika attackvektorer som kan påverka systemets beslutfattande.
8.5 Adversarial testing
Systemet har inte genomgått adversarial testing i traditionell bemärkelse. Denna bedömning grundar sig på analys av systemets användningskontext, riskprofil och de tekniska säkerhetsåtgärder som redan implementerats för att säkerställa robusthet och cybersäkerhet enligt kraven i Artikel 15.4 och 15.5.
8.5.1 Motivering för testansats
Beslutet att inte genomföra adversarial testing baseras på flera faktorer relaterade till systemets design och driftsmiljö. Den nuvarande säkerhetsarkitekturen inkluderar redan omfattande skyddsmekanismer mot potentiella hot genom andra tekniska lösningar och processuella kontroller som bedöms tillhandahålla tillräcklig säkerhetsnivå för det avsedda användningsområdet.
Systemets exponering för adversariella hot har utvärderats mot bakgrund av dess specifika användningskontext och de miljöer där det är avsett att operera. Denna riskbedömning har lett fram till slutsatsen att alternativa testmetoder och säkerhetsåtgärder är mer lämpliga för att säkerställa systemets robusthet enligt Annex IV, punkt 3.
8.5.2 Alternativa säkerhetsvalidering
Istället för adversarial testing tillämpas andra metoder för att validera systemets motståndskraft mot fel, manipulation och oväntade inputmönster. Dessa alternativa ansatser är anpassade efter systemets specifika arkitektur och operationella miljö, och de säkerställer efterlevnad av robusthetskraven i Artikel 15.4.
De implementerade säkerhetsverifieringsprocesserna fokuserar på att identifiera och hantera de mest relevanta hotvektorerna för detta specifika system, vilket ger en mer riktad och effektiv säkerhetsvalidering än generiska adversariella testmetoder skulle kunna erbjuda.
[BEHÖVER KOMPLETTERAS: Specificera vilka alternativa testmetoder och säkerhetsvalidering som används istället för adversarial testing]
9. Plan för övervakning efter lansering
Artikel 72 + Annex IV, punkt 99.1 Övervakningsplan
Leverantören har etablerat en strukturerad plan för kontinuerlig övervakning av AI-systemet efter lansering på marknaden, i enlighet med kraven i Artikel 72 och Annex IV punkt 9 i EU AI Act. Övervakningsplanen säkerställer att systemets prestanda och säkerhet upprätthålls genom hela dess livscykel.
9.1.1 Prestandaövervakning
Systemet övervakas kontinuerligt genom aktiv insamling och analys av prestandadata enligt Artikel 72.2. Detta inkluderar regelbunden utvärdering av systemets noggrannhet, tillförlitlighet och prestanda i reella driftsmiljöer jämfört med de ursprungliga specifikationerna och testresultaten.
9.1.2 Feedbacksystem
Ett strukturerat feedbacksystem har implementerats för att samla in information från slutanvändare och berörda personer. Detta system möjliggör tidig identifiering av potentiella problem, prestandaförsämringar eller oväntade beteenden i systemet.
9.1.3 Incidenthantering
Rutiner för rapportering och hantering av allvarliga incidenter har etablerats i enlighet med regelverkets krav. Detta inkluderar system för att upptäcka, dokumentera och analysera händelser som kan påverka systemets säkerhet eller prestanda.
9.1.4 Uppdaterings- och omträningsrutiner
Planen inkluderar definierade processer för när och hur systemet ska uppdateras eller omtränas baserat på övervakningsresultaten. Detta säkerställer att systemet fortsätter att prestera enligt specifikationerna över tid.
9.1.5 Automatisk loggning
Enligt Artikel 12 upprätthålls automatisk loggning av systemets funktioner och beslut, vilket stödjer både den löpande övervakningen och eventuell felsökning eller incident-analys.
[BEHÖVER KOMPLETTERAS: detaljerad beskrivning av specifika övervakningsmetoder, tidsintervaller, ansvariga roller, rapporteringsrutiner och eskaleringsprocesser]
9.2 Feedbackinsamling
Systemet implementerar strukturerade processer för insamling och analys av feedback från användare och berörda personer i enlighet med kraven i Artikel 72 och Annex IV, punkt 9. Feedbackinsamlingen utgör en central komponent i den kontinuerliga övervakningen av systemets prestanda och säkerhet efter lansering.
9.2.1 Feedbackkanaler och metoder
Organisationen etablerar flera parallella kanaler för feedbackinsamling för att säkerställa bred täckning av användarupplevelser och systemprestanda. Feedback samlas in genom strukturerade användargränssnitt integrerade i systemet, regelbundna enkätundersökningar till registrerade användare, samt dedikerade rapporteringsportaler för incidenter och avvikelser.
Automatiserad feedbackinsamling sker kontinuerligt genom systemets loggningsfunktioner som registrerar användarinteraktioner, systemresponser och prestandamätningar. Denna tekniska feedback kompletteras med kvalitativ feedback från användare genom strukturerade intervjuer och fokusgrupper genomförda med fastställda intervaller.
9.2.2 Feedbackkategorisering och prioritering
Insamlad feedback kategoriseras systematiskt enligt fördefinierade klassificeringsscheman som omfattar systemsäkerhet, noggrannhet, tillförlitlighet, användarupplevelse och regelefterlevnad. Kritisk feedback som indikerar potentiella säkerhetsrisker eller allvarliga prestationsavvikelser prioriteras för omedelbar granskning och åtgärder.
Feedbackhanteringssystemet implementerar automatiska flaggor för feedback som berör högriskscenarier eller indikerar systematiska problem som kan påverka systemets överensstämmelse med AI Act-kraven. Sådan feedback eskaleras omedelbart till ansvarig teknisk personal och kvalitetsansvariga.
9.2.3 Analysprocess och uppföljning
Feedbackanalysen genomförs genom systematiska processer som kombinerar kvantitativ analys av prestanda-metriker med kvalitativ bedömning av användarrapporter. Analysresultaten dokumenteras i månadsrapporter som innehåller trendanalys, identifierade problemområden och rekommendationer för systemförbättringar.
Feedback som indikerar behov av systemuppdateringar eller omträning analyseras särskilt noggrant med avseende på potentiell påverkan på systemets riskprofil och regelefterlevnad. Resultaten av feedbackanalysen integreras i den kontinuerliga riskbedömningsprocessen och informerar beslut om systemunderhåll och utveckling.
[BEHÖVER KOMPLETTERAS: Specifika feedbackkanaler, tidsintervall för insamling, ansvariga roller och eskaleringsrutiner]
9.3 Incidenthantering
Organisationen har etablerat rutiner för hantering av incidenter relaterade till AI-systemets drift och användning enligt Artikel 72 i EU AI Act. Incidenthanteringen utgör en kritisk komponent i den övergripande övervakningen efter lansering och säkerställer att systemets prestanda och säkerhet upprätthålls över tid.
9.3.1 Definition och kategorisering av incidenter
Incidenter definieras som avvikelser från systemets förväntade beteende som kan påverka säkerheten, prestandan eller användarupplevelsen. Organisationen kategoriserar incidenter baserat på allvarlighetsgrad och påverkan enligt en strukturerad klassificering som möjliggör prioritering och lämplig respons.
9.3.2 Incidentrapportering och eskalering
Etablerade kanaler för incidentrapportering inkluderar både interna upptäcktsmekanismer och externa rapporteringsvägar från användare och berörda parter. Rapporterade incidenter dokumenteras systematiskt med relevanta detaljer om tidpunkt, omständigheter och observerade effekter.
Eskaleringsrutiner säkerställer att allvarliga incidenter når lämpliga beslutsfattare och tekniska experter inom organisationen. För incidenter som klassificeras som allvarliga enligt EU AI Act:s definition implementeras särskilda rapporteringsrutiner till relevanta myndigheter.
9.3.3 Utredning och analys
Varje rapporterad incident genomgår en systematisk utredning för att identifiera grundorsaker och bidragande faktorer. Utredningsprocessen inkluderar analys av systemloggar, användardata och kontextuella faktorer som kan ha påverkat systemets beteende.
Utredningsresultaten dokumenteras strukturerat och bidrar till kontinuerlig förbättring av systemets prestanda och säkerhet. Identifierade mönster och trender i incidentdata analyseras regelbundet för att upptäcka systemiska problem eller förbättringsmöjligheter.
9.3.4 Korrigerande åtgärder och uppföljning
Baserat på utredningsresultat implementeras lämpliga korrigerande åtgärder som kan inkludera systemuppdateringar, konfigurationsändringar eller förbättringar av användarutbildning och dokumentation. Åtgärdernas effektivitet övervakas genom uppföljande mätningar och validering.
[BEHÖVER KOMPLETTERAS: Specifika tidsramar för incidenthantering, detaljerade eskaleringsprocesser och konkreta exempel på korrigerande åtgärder]
9.4 Uppdateringsrutiner
Systemets uppdateringsrutiner utgör en central komponent i den övergripande övervakningen efter lansering och säkerställer att AI-systemet bibehåller sin prestanda och säkerhet över tid i enlighet med artikel 72 i EU AI Act.
9.4.1 Uppdateringsprocess
Regelbundna uppdateringar genomförs enligt en strukturerad process som omfattar både systemkomponenter och AI-modeller. Uppdateringsprocessen initieras baserat på resultat från kontinuerlig prestandaövervakning, rapporterade incidenter, eller när förändringar i användningsområdet eller regelverket kräver det.
Innan implementering genomgår varje uppdatering en riskbedömning för att säkerställa att förändringarna inte försämrar systemets säkerhet eller prestanda. Detta inkluderar validering mot ursprungliga prestandakrav och testning i kontrollerad miljö.
9.4.2 Kategorier av uppdateringar
Uppdateringsrutinerna omfattar flera kategorier av förbättringar och underhåll:
- Säkerhetsuppdateringar som åtgärdar identifierade sårbarheter eller risker
- Prestandaförbättringar baserade på analys av driftsdata och användarfeedback
- Modelluppdateringar när nya träningsdata eller förbättrade algoritmer blir tillgängliga
- Regelverksanpassningar för att säkerställa fortsatt compliance med gällande föreskrifter
- Funktionsuppdateringar som utökar eller förbättrar systemets kapacitet
9.4.3 Versionshantering och dokumentation
Samtliga uppdateringar dokumenteras noggrant med versionsnummer, implementeringsdatum, och beskrivning av förändringarna. Denna dokumentation möjliggör spårbarhet och underlättar eventuell rollback vid behov. Användare informeras om betydande uppdateringar genom fastställda kommunikationskanaler.
[BEHÖVER KOMPLETTERAS: Specificera exakt uppdateringsfrekvens, ansvariga roller, och konkreta kriterier för när uppdateringar ska genomföras]
9.5 Automatisk loggning
Systemets automatiska loggningsinfrastruktur utgör en central komponent i övervakningen efter lansering enligt Artikel 72 och Annex IV punkt 9. Genom omfattande loggning av alla systeminteraktioner säkerställs kontinuerlig spårbarhet och möjlighet till prestandaanalys under hela systemets livscykel.
9.5.1 Loggningsomfattning
Systemet implementerar heltäckande automatisk loggning som registrerar samtliga relevanta händelser och processer. Detta inkluderar alla användarinteraktioner, systembeslut, databearbetningsaktiviteter och tekniska händelser som kan påverka systemets prestanda eller säkerhet.
Loggningen omfattar både operativa händelser relaterade till AI-systemets kärnfunktionalitet och infrastrukturella händelser som rör systemets tekniska drift. Denna omfattande ansats säkerställer att inga kritiska händelser förbises i den kontinuerliga övervakningen.
9.5.2 Teknisk implementering
Den automatiska loggningsmekanismen är integrerad på systemnivå och aktiveras utan manuell intervention. Loggningsprocessen körs parallellt med systemets huvudfunktioner utan att påverka prestanda eller användarupplevelse.
Loggdata struktureras och kategoriseras automatiskt för att möjliggöra effektiv analys och rapportering. Systemet använder standardiserade loggformat som säkerställer konsistens och kompatibilitet med analysverktyg.
9.5.3 Compliance med rättsliga krav
Den automatiska loggningen uppfyller kraven enligt Artikel 12 avseende registrering av händelser och säkerställer att erforderlig dokumentation för compliance-ändamål genereras kontinuerligt.
Loggningsimplementeringen stödjer de övergripande målen för övervakning efter lansering genom att tillhandahålla den datagrund som krävs för prestandaanalys, incidentutredning och kontinuerlig förbättring av systemet.
[BEHÖVER KOMPLETTERAS: Specificera vilka typer av händelser som loggas, dataformat, lagringsperioder och säkerhetsåtgärder för loggdata]