Væsentlige ændringsforslag til AI-forordningen
Sidste år satte Bird & Bird fokus på EU-Kommissionens udkast til den ny AI-forordning gennem en artikelserie i fire dele, der berører de vigtigste emner, herunder forbuddet mod at anvende visse AI-systemer, forordningens forhold til GDPR og krav til højrisikosystemer. De seneste resultater af det igangværende arbejde med udkastet til AI-forordningen er nu tilgængeligt og indeholder adskillige vidtrækkende ændringsforslag.
Den første rapport om udkastet til AI-forordningen er nu offentliggjort og er udarbejdet af Europa-Parlamentet Retsudvalg (JURI-udvalget). Rapporten indeholder i alt 306 ændringsforslag til udkastet til AI-forordningen. Blandt de 306 foreslåede ændringer, vil vi i denne artikel fremhæve de mest interessante.
For det første foreslås det i rapporten, at selve definitionen af kunstig intelligens ændres. I EU-Kommissionens udkast blev kunstig intelligens defineret som softwaresystemer, der er udviklet med en eller flere af de teknikker og tilgange, der er oplistet i et bilag til forslaget, og som kan generere output i form af indhold, forudsigelser, anbefalinger eller beslutninger, der påvirker de miljøer, systemerne interagerer med ud fra et givent sæt menneskeligt definerede mål.
I ændringsforslaget foreslås i stedet, at definitionen skal ligne andre internationale organisationers eksisterende definition, som f.eks. OECD’s definition der opererer med et ”maskinbaseret system” fremfor ”software”. Dette skaber dog umiddelbart ingen større klarhed over, hvad begrebet vil indebære.
For det andet foreslås, at de AI-teknikker, der er opført i bilag I begrænses. Det betyder at bl.a. ”logiske og vidensbaserede tilgange” og ”statistiske metoder” udgår fra forordningens anvendelsesområde. Anvendelsesområdet i litra a udvides derimod til også at omfatte "optimeringsmetoder, herunder, men ikke begrænset til evolutionær databehandling".
For det tredje foreslås en forpligtelse til at sikre, at AI-systemet er lovligt, etisk forsvarligt og robust, og i øvrigt respekterer EU's Charter om Grundlæggende Rettigheder. Et etisk AI-system indebærer, at AI-systemet udvikles under hensyntagen til de specifikke fordele ved AI-systemet, samtidig med at det respekterer menneskers frihed og autonomi, menneskets værdighed samt psykiske og fysiske integritet og skal være retfærdigt og forklarligt.
I praksis vil ændringen betyde, at et etisk krav bliver en del af det generelle lovlighedskrav.
For det fjerde foreslås en ny måde at identificere AI-systemer med høj risiko på. I stedet for at klassificere alle AI-systemer, der anvendes på de områder, der er opført i bilag III, som højrisikosystemer, tilføjes der et yderligere kriterium for den risiko som et sådant system kan medføre. Ifølge forslaget vil et AI-system blive betragtet som højrisikosystem, hvis dets planlagte formål betyder, at det vil blive anvendt på et kritisk område, der er nævnt i bilag III, og på en sådan måde, at der sandsynligvis vil opstå betydelig skade.
I alle tilfælde, hvor det påtænkte formål falder ind under et kritisk område som omhandlet i bilag III, vil der altid skulle foretages en vurdering af risiciene for de potentielt berørte personers sundhed og sikkerhed eller grundlæggende rettigheder.
For det femte foreslås at kravet til de datasæt der anvendes til træning, validering og afprøvning af AI-systemer, om at de skal være "fejlfrie og fuldstændige", erstattes af et krav, der kun gælder for højrisikosystemer og er begrænset i sit anvendelsesområde. Det nye forslag går ud på, at AI-systemer med høj risiko skal udformes og udvikles med den bedste indsats for at sikre, at træningsdatasæt, validerings- og testdatasæt, hvor det er relevant, er tilstrækkeligt relevante og repræsentative i lyset af AI-systemets tilsigtede formål.
Det forventes at også Europa-Kommissionens Udvalg om det Indre Marked og Forbrugerbeskyttelse vil offentliggøre sit ændringsforslag til AI-forordningen inden for det kommende stykke tid, men at disse vil være mindre vidtrækkende end JURI-udvalgets ændringsforslag.