Jurainfo logo
LUK
Juridiske nyheder Kurser Find juridisk specialist Jobbørs Domme
Om Jurainfo Podcasts Juridiske links Privatlivspolitik Kontakt
Ansøg om en profil Bliv kursusudbyder Bliv jobannoncør
Artikel

Hvad betyder den ”risikobaserede tilgang” i AI-forordningen i virkelighedens verden?

Bird & Bird
11/07/2024
Hvad betyder den ”risikobaserede tilgang” i AI-forordningen i virkelighedens verden?
Bird & Bird logo
AI-forordningen står foran offentliggørelse i EU-Tidende. Som beskrevet i artiklen om compliancekrav, indebærer forordningen komplekse krav vedrørende reguleringen af AI-systemer. Det er derfor vigtigt at have styr på sin compliance, da manglende overholdelse kan udløse store bøder.

Denne artikel er den seneste i artikelserien om AI-forordningen.


Udgivne artikler: 



Den risikobaserede tilgang blev fremhævet gang på gang fra politisk hold, da AI-forordningen blev vedtaget som garant for rimelighed i reguleringen, for at AI-forordningen ikke ville bremse Europas AI-udvikling, og for, at opstartsvirksomheder ikke ville drukne i dokumentations- og compliancekrav.


Risikobaseret tilgang er EU-speak for proportionalitet, og det indlysende logiske er, at et ”farligt” produkt med potentielt store konsekvenser, skal undergives strengere krav end et ufarligt eller mindre farligt produkt.


Den risikobaserede tilgang er indlejret direkte i AI-forordningens struktur med kategoriseringen af systemer fra decideret uacceptable og ulovlige til systemer med lav risiko og derfor få forpligtigelser. Derudover kommer den risikobaserede tilgang til udtryk i de enkelte bestemmelser, hvor lovgiver overlader et skøn til pligtsubjekterne, der selv skal foretage en proportionalitetsvurdering (som kan efterprøves).  


Princippet om risikobaseret tilgang introducerer AI-forordningen blandt andet i betragtning 26 og 27, men det er ikke en ny øvelse at tænke risikobaseret i sin tilgang til compliance. Tilgangen kendes bl.a. fra GDPR om risikovurderinger i forhold til behandlingssikkerhed samt sikkerhedsstandarder som ISO 27001. Som et nyere eksempel, der påvirker hele den finansielle sektor, kan nævnes DORA (Digital Operational Resilience Act), der tilsvarende også forpligter f.eks. en bank til at anvende en risikobaseret tilgang.


Denne artikel gennemgår, hvordan den risikobaserede tilgang skal forstås, og hvilken virkning princippet får for pligtsubjekter, der skal overholde forordningens compliancekrav.


Hvad udgør en risiko i AI-forordningens forstand?

Før man anvender en risikobaseret tilgang, er det vigtigt at forstå, hvad en risiko er – ellers kan man ikke vurdere, hvad man skal mitigere og hvordan. En risiko defineres i AI-forordningens som: “the combination of the probability of an occurrence of harm and the severity of that harm”, d.v.s. den sædvanlige formel: Sandsynlighed gange konsekvens.


Definitionen giver dog ikke i sig selv en klarere definition på, hvornår der foreligger en sådan risiko ved udviklingen og brugen af AI-systemer. Forordningen beskriver heller ikke nærmere, hvad der skal foreligge en risiko for, men sammenholder man med hensynene bag AI-systemer f.eks. for forbudte praksisser og højrisikosystemer, må det antages, at det drejer sig om risiko for bl.a. skade på fysiske personers sundhed, sikkerhed eller grundlæggende rettigheder, herunder som følge af bias i resultaterne af brugen af AI.


Hvordan fungerer en risikobaseret tilgang under AI-forordningen?

Den risikobaserede tilgang er sjældent nævnt eksplicit i AI-forordningen, men kommer til udtryk i compliancekravene, særligt for højrisikosystemer. En mere indgribende risiko kræver en højere grad af årvågenhed og strammere iagttagelse af forpligtelserne. Det kan eksemplificeres med forpligtelsen til menneskeligt tilsyn i artikel 14. Kravene og forventningerne til det menneskelige tilsyn vil variere baseret på et systems konkrete risici, også selvom forskellige systemer nominelt tilhører samme kategori. Artikel 14 angiver ”High-risk AI systems shall be designed and developed in such a way, including with appropriate human-machine interface tools, that they can be effectively overseen by natural persons during the period in which they are in use.” Det er her værd at hæfte sig ved ordet “effectively”, da det heri ligger, at effektivt menneskeligt tilsyn med et AI system, der bliver brugt patientrettet på en hjertekirurgisk afdeling, ret sikkert kræver mere end AI i et lokalt vandværk, der bruges til ressourceoptimering, selv om vandværket efter lovgivningen i øvrigt er kritisk infrastruktur.


Det betyder således, at der er et varierende niveau af compliancekrav, som afhænger af konkrete forhold, der skal vurderes fra system til system. Man kan for eksempel spørge, om der altid vil være større krav til højrisikosystemer, der bruges til kritisk infrastruktur, end højrisikosystemer, der bruges til medarbejderrekruttering, da der som udgangspunkt kan være flere og større risici forbundet med brugen af højrisikosystemer til kritisk infrastruktur end ”bare” en rekruttering. En sådan generel regel kan ikke antages. I stedet vil vurderingen afhænge af konkrete faktorer, såsom typen af kritisk infrastruktur, ligesom vurderingen af kravene til HR AI-systemer vil afhænge af, hvilken sektor et rekrutteringssystem anvendes i og af, om systemet er beslutningsunderstøttende eller blot et system til grovsortering. 


Man må forvente yderligere klarhed, men – med erfaringerne fra GDPR in mente – næppe en indskrænkende tolkning af kravene i takt med, at EU-kommissionen og de nationale myndigheder fastlægger de nødvendige vejledninger og retningslinjer, hvor forordningen åbner mulighed for et skøn.


Hvilke muligheder og faldgruber åbner en risikobaseret tilgang op for?

En risikobaseret tilgang kræver på den ene side et skræddersyet skøn til den enkelte udviklers eller brugers vurdering af risici ved det pågældende AI-system, og åbner dermed for flere korrekte måder at sikre, overvåge og drive sit AI-system på. På den anden side stiller skønnet skarpt på, om pligtsubjektet risikovurderer korrekt, da en ikke-tilstrækkelig risikovurdering i værste fald kan ende med at udløse store bøder. 


I den konkrete vurdering kan det være et problem at følge en risikobaserede tilgang, når man ikke ved, hvilke risici man konkret skal vægte højest og dermed prioritere mitigeringen af. At forordningen sætter nogle overordnede rammer for, hvad der skal tages hensyn til, giver ikke et tilstrækkeligt facit for, hvilke risici, man skal iagttage – og hvordan.


Et andet problematisk område vedrører AI-forordningens mange undtagelser til sine hovedklassifikationer, f. eks. hvor et højrisikosystem alligevel ikke skal dokumenteres og løbende risikovurderes som et højrisikosystem. Udgangspunktet må være, at et sådant system går et trin ned i risikokategoriseringen, så systemet reguleres som et lavrisikosystem. I disse situationer vil en risikobaseret tilgang give myndighederne en vis elastik til at udvikle og genbesøge AI-forordningens krav, imens den samme elastik for virksomheder og organisationer vil give en uheldig usikkerhed og risiko for tilbagerulning af systemer.


En sidste central udfordring ved den risikobaserede tilgang er den tidsmæssige udstrækning i, at der ikke foreligger et facit for, hvordan man er compliant i forhold til sit AI-system. Retningslinjer og praksis vil udvikle sig, men det er en proces, der tager tid – både for pligtsubjekterne, der skal indrette sig efter forordningen, men også Digitaliseringsstyrelsen, der i Danmark skal håndhæve forordningen. 


Hvordan forbereder man sig på AI-forordningen og den risikobaserede tilgang?

Alt i alt vil den risikobaserede tilgang kræve en stejl læringskurve for virksomheder og organisationer, der anvender AI. Det vil være relevant allerede nu at orientere sig i det materiale, de vejledninger, best practices beskrivelser mv., som myndighederne i Danmark, EU og andre medlemslande gør tilgængeligt. 


Digitaliseringsstyrelsen, der er udpeget som tilsynsmyndighed for AI-forordningen, har f.eks. offentliggjort en vejledning, der er rettet mod borgeres brug af GPAI. Og Datatilsynet har tidligere offentliggjort en vejledning, der er møntet på myndigheders udvikling og drift af AI-systemer, der dog primært har et databeskyttelsesretligt fokus.


Vi hjælper allerede nu mange af vores klienter med at forberede sig på AI-forordningen, herunder ved risikovurdering af use cases, sikring af overholdelse af by design krav til AI-systemer, AI Governance samt opfyldelse af dokumentationskrav parallelt med, at udviklingen sker. 


Kontakt os, hvis du vil vide, hvordan AI-forordningen vil påvirke din virksomhed, og hvordan I kan forberede jer. 

Gå ikke glip af vigtig juridisk viden - Tilmeld dig vores gratis nyhedsservice her →
Har du spørgsmål til dette indlæg, er du mere end velkommen til at kontakte os.
Fagligt indhold, der kunne være relevante for dig
Force majeure - hvornår kan begrebet anvendes?
Jurainfo logo
EXCLUSIVE
VIDEO
Force majeure - hvornår kan begrebet anvendes?
Mange virksomheder er ikke opmærksomme på at udvide force majeure-begrebet i deres kontrakter og flere anvender begrebet helt forkert. Bliv klogere på hvornår noget er en force majeure-begivenhed og hvornår du kan benytte en force majeure-klausul ved manglende leveringer.
Hvad betyder de nye boligskatteregler for dit boligkøb? Skal du købe eller vente?
Jurainfo Exclusive logo
PODCAST
Hvad betyder de nye boligskatteregler for dit boligkøb? Skal du købe eller vente?
Der kan særligt være en fordel ved at handle ejendomme inden den 1. januar 2024. Det kommer vi bl.a. nærmere ind på i denne episode.
Juridiske kandidater er i høj kurs
Jurainfo logo
EXCLUSIVE
VIDEO
Juridiske kandidater er i høj kurs
Mange virksomheder oplever, at det er svært at tiltrække kompetent juridisk arbejdskraft. Men det behøver det ikke nødvendigvis være - Hvordan kommer vi ind på i denne video hvor vi fortæller om vores erfaringer med markedet og giver gode råd til hvordan du får fat i de rigtige kandidater.
Artikler, der kunne være relevante for dig
Ny vejledning om bæredygtighedsrapportering (CSRD) for koncerner
Ny vejledning om bæredygtighedsrapportering (CSRD) for koncerner
20/08/2024
Selskabsret, Compliance, Øvrige, EU-ret
EU’s forbrugermyndigheder går sammen mod Metas nye forretningsmodel
EU’s forbrugermyndigheder går sammen mod Metas nye forretningsmodel
20/08/2024
E-handel og markedsføring, Persondata, EU-ret
Ny EU-forordning skal beskytte virksomheder mod forsinkede betalinger
Ny EU-forordning skal beskytte virksomheder mod forsinkede betalinger
22/08/2024
E-handel og markedsføring, Kontraktret, Øvrige
Kunstig intelligens på arbejdspladsen – nye regler fra EU trådt i kraft
Kunstig intelligens på arbejdspladsen – nye regler fra EU trådt i kraft
26/08/2024
Persondata, Ansættelses- og arbejdsret, Øvrige
Nye regler om produktsikkerhed
Nye regler om produktsikkerhed
29/08/2024
Forsikring og erstatning, Øvrige
NIS 2 bliver om lidt til virkelighed i Danmark. Hvad skal din virksomhed være opmærksom på?
NIS 2 bliver om lidt til virkelighed i Danmark. Hvad skal din virksomhed være opmærksom på?
03/09/2024
Persondata, Compliance, EU-ret
Jurainfo logo

Jurainfo.dk er landets største juridiske nyhedsside. Her finder du juridiske nyheder, kurser samt ledige juridiske stillinger. Vi hjælper dagligt danske virksomheder med at tilegne sig juridisk viden samt at sætte virksomheder i forbindelse med den rigtige juridiske rådgiver, når de har brug for råd og vejledning.

Jurainfo.dk ApS
CVR-nr. 38375563
Vandtårnsvej 62B, DK-2860 Søborg
(+45) 71 99 01 11
kontakt@jurainfo.dk
Ønsker du hjælp til at finde en specialist?
2024 © Jurainfo.dk - Juridiske nyheder og arrangementer samlet ét sted