Nye EU-regler om kunstig intelligens
Forslaget i korte træk
Europa-Kommissionens forslag til forordning om kunstig intelligens skal gennem fastsættelsen af høje standarder skabe nye globale normer for brugen af kunstig intelligens i EU. Reglerne har til formål at sikre borgernes tillid til kunstig intelligens gennem regler, der beskytter borgernes grundlæggende rettigheder og sikkerhed. Fleksible og forholdsmæssige rammer skal tage højde for de specifikke risici, der er forbundet med systemer med kunstig intelligens. Samtidig skal en teknologineutral definition af kunstig intelligens gøre de nye regler fremtidssikrede og styrke investeringer, innovation og udbredelse af kunstig intelligens i EU.
Forordningsforslaget berører ikke databeskyttelsesforordningen, som fuldt ud vil finde anvendelse for systemer, der understøtter kunstig intelligens, og hvor der sker behandling af personoplysninger.
Overtrædelse af reglerne i forordningen om kunstig intelligens vil kunne medføre administrative bøder på op til 6 % af virksomhedens samlede globale omsætning.
Hvad er kunstig intelligens?
Kunstig intelligens defineres i forslaget som:
"[…] software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with".
Kunstig intelligens omfatter blandt andet maskinlæring, logiske og videnbaserede tilgange, herunder logisk programmering og ekspertsystemer.
Hvilke aktører er omfattet af forslaget?
Leverandører, importører og distributører samt brugere (private virksomheder og offentlige institutioner) er alle underlagt forordningens anvendelsesområde, og de betegnes samlet som operatører. Private eller ikke-professionelle aktører er ikke omfattet af forslaget.
En risikobaseret tilgang
Systemer, der betragtes som en klar trussel mod EU-borgere, vil blive forbudt. Det omfatter blandt andet systemer, der gør det muligt for en regering at indføre sociale pointsystemer (såkaldt "social scoring", som f.eks. anvendes i Kina) og systemer eller applikationer med kunstig intelligens, der manipulerer menneskers adfærd, eksempelvis legetøj med indbyggede taleassistenter, der tilskynder børn til farlig adfærd.
Med udgangspunkt i en risikobaseret tilgang tillader forordningen højrisikosystemer på det europæiske marked under overholdelse af visse obligatoriske krav til systemernes indretning og design. Det omfatter blandt andet krav i relation til data og datastyring, dokumentation, logning, gennemsigtighed og formidling af information til brugere, samt robusthed, nøjagtighed og sikkerhed. Desuden pålægges brugere af højrisikosystemerne en række krav til menneskelig kontrol og overvågning.
Systemer, der udgør en høj risiko for fysiske personers helbred, sikkerhed eller fundamentale rettigheder, klassificeres som højrisikosystemer. Klassificeringen af et system som "højrisiko" er baseret på systemets tilsigtede formål i tråd med den eksisterende lovgivning om produktsikkerhed. Derfor afhænger klassificeringen højrisiko ikke kun af systemets funktion, men også af det specifikke formål og de metoder, som systemet bruges til.
Tilsyn
EU-Kommissionen foreslår, at de nationale kompetente markedsovervågningsmyndigheder fører tilsyn med de nye regler, mens oprettelsen af et europæisk udvalg for kunstig intelligens vil lette gennemførelsen heraf samt fremme udviklingen af standarder for kunstig intelligens. Desuden skal EU-Kommissionen og medlemslandene tilskynde og facilitere frivillige adfærdskodekser for systemer med kunstig intelligens, der ikke befinder sig i højrisikokategorien, samt "regulatoriske sandkasser", der skal fremme ansvarlig innovation.
Næste skridt
Europa-Parlamentet og medlemsstaterne skal vedtage Europa-Kommissionens forslag gennem den almindelige lovgivningsprocedure. Sideløbende samarbejder Kommissionen med EU-medlemslandene om at gennemføre en række koordinerede foranstaltninger.