Kopi af DIU alm. del - svar på spm. 82 om oversendelse af talepapir fra samrådet den 10. januar 2024 om forhandlingsmandatet i de nuværende forhandlinger om en forordning for kunstig intelligens

Tilhører sager:

Aktører:


Bilag 1 Talepapir fra DIU alm. del - samråd F.pdf

https://www.ft.dk/samling/20211/kommissionsforslag/kom(2021)0206/bilag/7/2811371.pdf

Digitaliseringsminister og ministerfor ligestilling Marie Bjerres talepapir
Anledning
Samråd om regeringens forhandlingsmandat
på kunstig intelligensforordningen
Dato / tid Onsdag d. 10. januar 2024 kl. 10-11
Sted DIU
Talens varighed 15-20 min.
Talens formål
At redegøre for regeringens
forhandlingsmandat samt at forklare,
hvordan forhandlingerne er landet og
hvordan det er gået med de danske
prioriteter i mandatet
Publikum og programpunkt DIU – eneste programpunkt
Det talte ord gælder
Offentligt
KOM (2021) 0206 - Bilag 7
Europaudvalget 2021
1
Introduktion
• Tak for muligheden for at besvare jeres spørgsmål og redegøre for
regeringens forhandlingsmandat til de nu afsluttede forhandlinger om
forordningen om kunstig intelligens – AI Act.
• Generelt er jeg begejstret for kunstig intelligens og de mange
muligheder teknologien fører med sig.
• Jeg ser et kæmpe potentiale for at gøre vores virksomheder mere
konkurrencedygtige og vores offentlige sektor mere effektiv. Der er
også store muligheder inden for grøn omstilling og inden for
sundhedssektoren.
• Det ville i min optik være en kæmpe fejl ikke at udnytte disse
muligheder. Og jeg er overbevist om, at etisk og sikker kunstig
intelligens kan blive en konkurrencefordel for danske og europæiske
virksomheder.
• Men udviklingen giver også anledning til at være eftertænksom. Og jeg
er meget opmærksom på de risici, som kunstig intelligens kan føre
med sig.
• Derfor synes jeg, at det er vigtigt at vi får sat de rigtige
lovgivningsmæssige rammer, så virksomheder og myndigheder ved
hvad de må og ikke må. Det skaber klarhed, så innovationen kan
udfolde sig. Og det sikrer, at vi som borgere kan føle os trygge ved den
nye teknologi.
• Derfor er jeg er også meget glad for, at forhandlingerne om AI Act –
verdens første bindende regler for kunstig intelligens – blev afsluttet i
december.
• Aftalen sikrer, at kunstig intelligens bliver udviklet og anvendt på en
mere sikker og etisk måde i EU. Dermed har vi sat verdens første
hegnspæle for den nye teknologi, så borgerne kan have tillid til, at den
bliver udviklet og brugt forsvarligt i EU.
• Fx sikrer vi, at der bliver taget højde for bias og diskrimination.
Samtidig skaber vi et indre marked for innovation og udvikling af
kunstig intelligens.
• Det er jeg meget tilfreds med.
Regeringens forhandlingsmandat på kunstig intelligensforordningen
• I har bedt mig redegøre for det mandat, regeringen har forhandlet på
baggrund af.
• Den 3. juni 2022 indhentede den daværende S-regering
forhandlingsoplæg i Folketingets Europaudvalg med følgende ordlyd:
2
• ”Det indstilles, at regeringen:
- Støtter ambitionen i forslaget om at skabe et velfungerende indre
marked for etisk, ansvarlig og sikker kunstig intelligens.
- Lægger stor vægt på, at der med forslaget opnås en ansvarlig og etisk
anvendelse af kunstig intelligens-løsninger og dataene bag disse.
- Lægger stor vægt på, at centrale begreber i forslaget klarlægges og
afgrænses, herunder definitionen for kunstig intelligens, samt
kategoriseringen af højrisiko kunstig intelligens.
- Lægger vægt på, at den europæiske lovgivningsramme følger en
risikobaseret, teknologineutral og proportionel tilgang, hvor graden af
forpligtelser følger graden af mulig skadevirkning.
- Lægger vægt på en klar, principbaseret og operationel
lovgivningsramme, der sikrer borgernes og forbrugernes tillid og øger
beskyttelsen i samfundet, uden at dette unødigt hæmmer
innovationsevnen eller forringer konkurrenceevnen.
- Lægger vægt på, at der findes den rette balance, hvor risici adresseres,
samtidig med at teknologien kan udvikles og anvendes til gavn for vores
samfund samt understøtte fremtidens arbejdspladser og offentlige
forvaltning.
- Lægger vægt på, at der stilles krav til datakvaliteten i udvikling af
højrisiko kunstig intelligens-systemer.
- Lægger vægt på, at kategorien for højrisiko kunstig intelligens klart
afgrænses til anvendelser, der reelt kan medføre betydelig og svært
genoprettelig skade, og at innovation ikke hæmmes unødigt i den
private og den offentlige sektor.
- Lægger vægt på, at en potentiel, fremtidig udbygning af
højrisikokategorien skal ske på grundlag af en konkret risikovurdering
samt klare og forudsigelige kriterier.
- I denne henseende lægger regeringen ligeledes vægt på, at
højrisikoanvendelserne afgrænses til de anvendelser, der kan være
ugunstige for de påvirkede aktører, herunder borgere og forbrugere, og
3
arbejder for, at efterlevelsesomkostninger, herunder de administrative
omkostninger, står mål med gevinsterne.
- Lægger stor vægt på, at forordningen ligger inden for rammerne af
eksisterende kompetencefordeling, herunder for så vidt angår national
sikkerhed.
- Lægger stor vægt på, at forordningen ligger inden for rammerne af
eksisterende lovgivning, herunder GDPR og produktlovgivningen, hvor
administrative og økonomiske omkostninger for virksomheder står mål
med gevinsterne ved regulering.
- Lægger vægt på, at forvaltningen og håndhævelsen foregår nationalt,
hvor der bygges på eksisterende, nationale strukturer, der sikrer en
effektiv databeskyttelse og forbrugerbeskyttelse. I den henseende
arbejder regeringen for, at medlemslandene bevarer retten til at
fastlægge den nationale organisering.
- Derudover lægges der vægt på, at forslaget ikke pålægger
medlemslandene unødige statsfinansielle omkostninger og at
gevinsterne ved forslaget står mål med de administrative omkostninger.
- Derudover vil regeringen lægge vægt på behovet for et europæisk tilsyn
til at håndtere sager af en vis størrelse eller grænseoverskridende
karakter.
- Regeringen lægger vægt på indførelsen af effektive og passende
sanktioner, herunder bøder. I samme ombæring lægger regeringen
vægt på, at det nuværende hensyn til medlemslandenes forskellige
juridiske systemer bevares
- Regeringen lægger vægt på forbud af den specifikke anvendelse af
kunstig intelligens, hvor det kan resultere i alvorlig, uoprettelig skade for
individer eller samfundet eller er uforenelig med gældende lovgivning
eller rettigheder, samt hvor dette ikke kan adresseres på anden vis.
Regeringen mener, at retshåndhævende myndigheders brug af
biometrisk fjernidentificering i realtid på offentlige steder i visse
situationer kan retfærdiggøres.
4
- Regeringen lægger vægt på udformningen af frivillige adfærdskodeks,
der kan blive et konkurrenceparameter for danske og europæiske
virksomheder. Frivillige adfærdskodeks kan være et indledende skridt
mod en europæisk frivillig mærkningsordning for kunstig intelligens,
som regeringen fortsat vil arbejde for.
- Slutteligt lægger regeringen vægt på etablering af initiativer, der kan
fremme innovationskraften inden for kunstig intelligens, herunder
effektive og fleksible rammer for regulatoriske sandkasser.”
• Regeringen fik bred opbakning til forhandlingsoplægget fra alle
daværende partier i Folketinget, undtagen Enhedslisten og Nye
Borgerlige.
• Som det fremgår af længden på forhandlingsoplægget er der tale om
en omfattende og kompleks sag, hvor der har været mange hensyn at
tage.
• Jeg vil derfor gerne forklare de mest centrale dele af regeringens
tilgang lidt nærmere, og i samme omgang komme ind på, hvordan det
er gået i forhandlingerne, nu hvor vi har indgået en aftale.
En risiko-baseret tilgang
• Et helt centralt pejlemærke i forhandlingerne for regeringen har været
at opnå en risiko-baseret forordning.
• En risiko-baseret tilgang betyder, at vi sætter ind med regulering –
eller endda forbud – der, hvor der er en høj eller ligefrem uacceptabel
risiko forbundet med en anvendelse af kunstig intelligens.
• Her vil jeg gerne understrege, at vi for så vidt muligt har gjort
forordningen teknologineutral og fremtidssikker ved at fokusere på
anvendelser af kunstig intelligens, fremfor på teknologien selv.
• Vi har altså udpeget områder, hvor der er en høj risiko for, at borgere
kan få krænket deres grundlæggende rettigheder eller komme fysisk til
skade på grund af kunstig intelligens.
• Hvis et kunstig intelligens system er tiltænkt at blive brugt inden for et
af de udvalgte områder, så stiller vi krav til udbyderen og brugeren om
bl.a. at teste systemet grundigt og at holde godt øje med det, når det
er i brug.
• På alle andre områder får teknologien derimod mulighed for at udvikle
sig, så vi ikke hæmmer innovationen unødigt.
5
• Det mener jeg er en balanceret og proportional tilgang, som sikrer at
omkostningerne står mål med fordelene.
• Konkret forsøgte Kommissionen i sit oprindelige forslag at opnå denne
balance, ved at inddele udvalgte anvendelser af kunstig intelligens i tre
kategorier:
• For det første uacceptable anvendelser, som bliver forbudt – fx social
scoring. For det andet høj-risiko anvendelser – fx rekruttering eller
tildeling af sociale ydelser, hvor der bliver stillet en række krav om bl.a.
risikomonitorering, datakvalitet og menneskeligt tilsyn. Og for det
tredje visse anvendelser – fx deep fakes, hvor der stilles krav om, at
slutbrugerne bliver gjort opmærksom på, at de interagerer med
kunstig intelligens. Alle øvrige anvendelser af kunstig intelligens
reguleres ikke i Kommissionens oprindelige forslag.
• Regeringen er enig i Kommissionens tilgang med opdeling i kategorier,
da det skaber klarhed. I forhandlingerne har vi dog arbejdet meget
hårdt for en tydeligere afgrænsning af de forskellige anvendelser, for
at gøre det helt tydeligt for virksomheder og myndigheder, om de skal
leve op til høj-risiko kravene eller ej.
• Det er vi i høj grad kommet i mål med, og jeg er tilfreds med
resultatet, hvor der bl.a. er blevet indført en såkaldt horisontal
risikovurdering.
• Det betyder for eksempel at et kunstig intelligenssystem, der anvendes
på en skole til at fordele klasselokaler, ikke klassificeres som høj-risiko
bare fordi det anvendes på en uddannelsesinstitution. Men et system
til at give karakterer eller til at tildele studiepladser vil fortsat være
omfattet.
• Med til den risiko-baserede tilgang hører også definitionen af kunstig
intelligens. Det har i sagens natur været en central del af
forhandlingerne.
• Kommissionen foreslog en meget bred definition. I forhandlingerne er
det lykkes at indsnævre den, så det er tydeligt at reglerne ikke gælder
helt almindeligt software som fx Excel.
• Det mener jeg er langt mere proportionalt.
• Samlet set er jeg derfor meget tilfreds med den måde aftalen er landet
på, i forhold til at sikre en risiko-baseret tilgang.
6
Forbud
• Et andet område, som jeg ved interesserer udvalget er forbuddene.
• Kommissionen lagde i deres oprindelige forslag op til at forbyde fire
typer af kunstig intelligenssystemer, som de mener udgør en
uacceptabel risiko for borgernes grundlæggende rettigheder.
• Det gjaldt
a. for det første systemer med såkaldte subliminale teknikker til
betydeligt at forvrænge en persons opførsel på en sådan måde,
at det forvolder skade;
b. for det andet systemer der udnytter sårbarheder hos udsatte
grupper;
c. for det tredje systemer til social scoring til ugunst for borgerne;
og
d. for det fjerde biometrisk fjernidentifikation – fx
ansigtsgenkendelse – i realtid i det offentlige rum med henblik
på retshåndhævelse.
• Regeringen har i forhandlingerne lagt vægt på, at forbud kan være
nødvendige. Der hvor anvendelse af kunstig intelligens kan resultere i
alvorlig, uoprettelig skade. Eller der hvor det er uforeneligt med
gældende lovgivning eller rettigheder.
• Samtidig er forbud en meget hård restriktion. Jeg mener derfor, at
forbud skal anvendes med omtanke, og kun bruges, der hvor risikoen
ikke kan adresseres på anden vis – i tråd med den risiko-baserede
tilgang.
• Derfor har vi udvist tilbageholdenhed i forhandlingerne i forhold til
Europa Parlamentets mange ønsker om yderligere og mere
vidtrækkende forbud.
• Særligt ansigtsgenkendelse har været en stor knast i forhandlingerne.
• Fra dansk side mener vi, at det som udgangspunkt skal være forbudt at
bruge ansigtsgenkendelse til overvågning på offentlige steder i realtid
med henblik på retshåndhævelse.
• Dog mener vi også, at det i et retssamfund skal være muligt for de
retshåndhævende myndigheder at bruge den mest effektive teknologi
til at beskytte befolkningen og bekæmpe alvorlig kriminalitet, når der
er en overhængende trussel. Og når der bliver taget de nødvendige
forholdsregler.
• Vi har derfor arbejdet for afgrænsede undtagelser til forbuddet.
• Vi er stadig ved at analysere den endelige tekst, men vores foreløbige
vurdering er, at aftalen er landet et balanceret sted.
7
• Det er værd at bemærke, at Danmark har retsforbehold på netop
denne del af forordningen, og den del vil derfor ikke blive gældende i
Danmark.
Grundlæggende modeller og kunstig intelligenssystemer til generelle formål
(herunder ChatGPT)
• Et andet emne, som jeg gerne vil uddybe er tilgangen til kunstig
intelligenssystemer og modeller til generelle formål – dvs. fx ChatGPT
og GPT-4 som er den model, ChatGPT bygger på.
• ChatGPT blev lanceret mens forhandlingerne var godt undervejs. Det
har haft betydning for det lange forhandlingsforløb, da Kommissionen
ikke direkte havde taget højde for disse former for kunstig intelligens i
det oprindelige forslag.
• Som nævnt tog den daværende regering forhandlingsoplæg i juni
2022, altså ca. et halvt år inden ChatGPT fik sit folkelige gennembrud.
• Det er derfor heller ikke direkte adresseret i forhandlingsoplægget,
men regeringen har i forhandlingerne taget en risiko-baseret tilgang til
emnet og lagt stor vægt på, at der blev opnået en ansvarlig og etisk
anvendelse af kunstig intelligens, som udlagt i forhandlingsoplægget.
• Økosystemet for kunstig intelligens er komplekst. Det samme gælder
værdikæden for udvikling af et kunstig intelligenssystem.
• Fra dansk side har vi derfor set et behov for at sikre, at udbydere af
høj-risiko systemer, der bygger videre på systemer eller modeller til
generelle formål, får adgang til bl.a. den tekniske dokumentation om
systemet eller modellen.
• Jeg vil gerne give et eksempel, for jeg medgiver, at det her er lidt
teknisk.
• Lad os forestille os, at en dansk SMV tilpasser et generelt kunstig
intelligens billede-genkendelsessystem, sådan at det bliver særligt
godt til at opdage brystkræft.
• Den danske SMVs system vil nu være et høj-risiko kunstig intelligens
system, da det skal bruges til at træffe beslutninger, der kan have
konsekvenser for liv eller død på hospitalerne. Derfor skal systemet
leve op til høj-risiko kravene og SMVen skal bl.a. stille teknisk
dokumentation til rådighed for myndighederne.
• Det er en nærmest umulig opgave for den danske SMV, hvis de ikke
kan få adgang til den nødvendige information om det underliggende
billede-genkendelsessystem, for eksempel om hvordan det er testet.
• Derfor har vi i forhandlingerne, arbejdet for at sætte krav om
transparens til udbydere af kunstig intelligenssystemer til generelle
formål – altså i eksemplet oven for billede-genkendelsessystemet. Det
er lykkedes.
8
• I forhold til modeller har vi også arbejdet for en risiko-baseret tilgang,
hvor der stilles transparenskrav til alle modeller til generelle formål.
Og mere omfattende krav om bl.a. risikomonitorering til de mest
kraftfulde kunstig intelligens modeller til generelle formål, som kan
medføre en systemisk risiko i det indre marked. Det er også lykkedes.
• Det synes jeg er et godt og balanceret resultat, hvor vi adresserer den
risiko der er, uden at hæmme innovationen mere end nødvendigt, og
som derfor er helt i tråd med de danske prioriteter i
forhandlingsoplægget.
Håndhævelse
• Det sidste jeg vil fremhæve er tilgangen til håndhævelse, da det har
været en af vores store prioriteter i forhandlingerne. Vi kan lave nok så
perfekte regler. Men hvis de ikke bliver håndhævet effektivt, får de
ingen effekt i virkeligheden.
• Fra dansk side har vi lagt vægt på, at man både byggede videre på
eksisterende nationale håndhævelsesstrukturer og i visse sager af
grænseoverskridende karakter gav Kommissionen kompetence til at
håndhæve.
• Begge dele er lykkes, og særligt på det sidste skyldes det ikke mindst
en effektiv dansk indsats. Kommissionen vil nu oprette et såkaldt ”AI
Office”, som skal stå for at håndhæve reglerne over for systemer og
modeller til generelle formål.
• Her mener jeg derfor også, at der er landet en aftale rigtig godt i tråd
med de danske prioriteter.
Afslutning
• Jeg håber at dette gav jer et bedre indblik i vores tilgang til
forhandlingerne, og hvordan det er gået. Jeg ser frem til drøftelsen.
Tak for ordet.