EU AI Act (på dansk ofte kaldet AI-forordningen eller EU's forordning om kunstig intelligens) er verdens første omfattende juridiske rammeværk for kunstig intelligens, vedtaget for at sikre sikker og etisk brug af AI.
Hvad er AI Act?
Formål: At sikre, at AI-systemer på det europæiske marked er sikre, gennemsigtige og overholder grundlæggende rettigheder.
Risikobaseret tilgang: Forordningen opdeler AI-systemer i risikokategorier (uacceptabel, høj, begrænset og minimal), hvor kravene afhænger af risikoens omfang.
Omfang: Den gælder for alle, der udvikler eller bruger AI-systemer i EU, uanset om de er baseret i EU eller ej.
Nøgledatoer for implementering (Dansk kontekst)
2. februar 2025: Forbud mod visse AI-praksisser (f.eks. uacceptabel social scoring) træder i kraft.
2. august 2026: Hovedparten af forordningen træder i kraft, herunder regler for højrisiko-AI-systemer.
2027: Krav for specifikke AI-modeller træder i kraft.
Risikokategorier i AI Act
Uacceptabel risiko (Forbudt): Systemer, der manipulerer menneskelig adfærd, social scoring, eller biometrisk identifikation i realtid på offentlige steder.
Høj risiko (Strenge krav): AI, der bruges i kritisk infrastruktur, rekruttering (CV-scanning), uddannelse, retshåndhævelse eller sundhedsvæsen.
Begrænset risiko (Transparens): Systemer som chatbots (f.eks. ChatGPT), hvor brugeren skal vide, at de interagerer med en maskine.
Minimal risiko: AI-spil eller spamfiltre, som stort set er uregulerede.
Konsekvenser for Danske Virksomheder
Compliance: Virksomheder skal dokumentere deres AI-systemer, sikre menneskelig overvågning og oplyse om brug.
Bøder: Overtrædelser kan straffes med bøder på op til 35 millioner euro eller 7% af den globale omsætning.
Rettigheder: Der indføres nye rettigheder for borgere, herunder retten til at få fjernet AI-genereret indhold, der misbruger ansigt, stemme eller krop.
nlaw.dk rådgiver virksomheder om, hvordan de kan anvende og udvikle AI-løsninger i overensstemmelse med EU’s AI-forordning. Det indebærer bl.a.:
juridisk vurdering af AI-systemer ud fra den risikobaserede model i AI-forordningen
klassificering af AI-systemer (fx højrisiko-AI)
etablering af governance, dokumentation og compliance-processer
rådgivning om ansvar, etik og brug af data i AI-systemer.
AI-forordningen indfører netop et risikobaseret regelsæt for udvikling og anvendelse af AI i EU for at beskytte sikkerhed, sundhed og grundlæggende rettigheder.