Kopi af DIU alm. del - svar på spm. 82 om oversendelse af talepapir fra samrådet den 10. januar 2024 om forhandlingsmandatet i de nuværende forhandlinger om en forordning for kunstig intelligens
Tilhører sager:
- Hovedtilknytning: Forslag til Europa-Parlamentets og Rådets forordning om harmoniserede regler for kunstig intelligens (retsakten om kunstig intelligens) og om ændring af visse af Unionens lovgivningsmæssige retsakter {SEC(2021) 167 final} - {SWD(2021) 84-85 final} (Bilag 7)
- Hovedtilknytning: Forslag til Europa-Parlamentets og Rådets forordning om harmoniserede regler for kunstig intelligens (retsakten om kunstig intelligens) og om ændring af visse af Unionens lovgivningsmæssige retsakter {SEC(2021) 167 final} - {SWD(2021) 84-85 final} (Bilag 7)
Aktører:
Bilag 1 Talepapir fra DIU alm. del - samråd F.pdf
https://www.ft.dk/samling/20211/kommissionsforslag/kom(2021)0206/bilag/7/2811371.pdf
Digitaliseringsminister og ministerfor ligestilling Marie Bjerres talepapir Anledning Samråd om regeringens forhandlingsmandat på kunstig intelligensforordningen Dato / tid Onsdag d. 10. januar 2024 kl. 10-11 Sted DIU Talens varighed 15-20 min. Talens formål At redegøre for regeringens forhandlingsmandat samt at forklare, hvordan forhandlingerne er landet og hvordan det er gået med de danske prioriteter i mandatet Publikum og programpunkt DIU – eneste programpunkt Det talte ord gælder Offentligt KOM (2021) 0206 - Bilag 7 Europaudvalget 2021 1 Introduktion • Tak for muligheden for at besvare jeres spørgsmål og redegøre for regeringens forhandlingsmandat til de nu afsluttede forhandlinger om forordningen om kunstig intelligens – AI Act. • Generelt er jeg begejstret for kunstig intelligens og de mange muligheder teknologien fører med sig. • Jeg ser et kæmpe potentiale for at gøre vores virksomheder mere konkurrencedygtige og vores offentlige sektor mere effektiv. Der er også store muligheder inden for grøn omstilling og inden for sundhedssektoren. • Det ville i min optik være en kæmpe fejl ikke at udnytte disse muligheder. Og jeg er overbevist om, at etisk og sikker kunstig intelligens kan blive en konkurrencefordel for danske og europæiske virksomheder. • Men udviklingen giver også anledning til at være eftertænksom. Og jeg er meget opmærksom på de risici, som kunstig intelligens kan føre med sig. • Derfor synes jeg, at det er vigtigt at vi får sat de rigtige lovgivningsmæssige rammer, så virksomheder og myndigheder ved hvad de må og ikke må. Det skaber klarhed, så innovationen kan udfolde sig. Og det sikrer, at vi som borgere kan føle os trygge ved den nye teknologi. • Derfor er jeg er også meget glad for, at forhandlingerne om AI Act – verdens første bindende regler for kunstig intelligens – blev afsluttet i december. • Aftalen sikrer, at kunstig intelligens bliver udviklet og anvendt på en mere sikker og etisk måde i EU. Dermed har vi sat verdens første hegnspæle for den nye teknologi, så borgerne kan have tillid til, at den bliver udviklet og brugt forsvarligt i EU. • Fx sikrer vi, at der bliver taget højde for bias og diskrimination. Samtidig skaber vi et indre marked for innovation og udvikling af kunstig intelligens. • Det er jeg meget tilfreds med. Regeringens forhandlingsmandat på kunstig intelligensforordningen • I har bedt mig redegøre for det mandat, regeringen har forhandlet på baggrund af. • Den 3. juni 2022 indhentede den daværende S-regering forhandlingsoplæg i Folketingets Europaudvalg med følgende ordlyd: 2 • ”Det indstilles, at regeringen: - Støtter ambitionen i forslaget om at skabe et velfungerende indre marked for etisk, ansvarlig og sikker kunstig intelligens. - Lægger stor vægt på, at der med forslaget opnås en ansvarlig og etisk anvendelse af kunstig intelligens-løsninger og dataene bag disse. - Lægger stor vægt på, at centrale begreber i forslaget klarlægges og afgrænses, herunder definitionen for kunstig intelligens, samt kategoriseringen af højrisiko kunstig intelligens. - Lægger vægt på, at den europæiske lovgivningsramme følger en risikobaseret, teknologineutral og proportionel tilgang, hvor graden af forpligtelser følger graden af mulig skadevirkning. - Lægger vægt på en klar, principbaseret og operationel lovgivningsramme, der sikrer borgernes og forbrugernes tillid og øger beskyttelsen i samfundet, uden at dette unødigt hæmmer innovationsevnen eller forringer konkurrenceevnen. - Lægger vægt på, at der findes den rette balance, hvor risici adresseres, samtidig med at teknologien kan udvikles og anvendes til gavn for vores samfund samt understøtte fremtidens arbejdspladser og offentlige forvaltning. - Lægger vægt på, at der stilles krav til datakvaliteten i udvikling af højrisiko kunstig intelligens-systemer. - Lægger vægt på, at kategorien for højrisiko kunstig intelligens klart afgrænses til anvendelser, der reelt kan medføre betydelig og svært genoprettelig skade, og at innovation ikke hæmmes unødigt i den private og den offentlige sektor. - Lægger vægt på, at en potentiel, fremtidig udbygning af højrisikokategorien skal ske på grundlag af en konkret risikovurdering samt klare og forudsigelige kriterier. - I denne henseende lægger regeringen ligeledes vægt på, at højrisikoanvendelserne afgrænses til de anvendelser, der kan være ugunstige for de påvirkede aktører, herunder borgere og forbrugere, og 3 arbejder for, at efterlevelsesomkostninger, herunder de administrative omkostninger, står mål med gevinsterne. - Lægger stor vægt på, at forordningen ligger inden for rammerne af eksisterende kompetencefordeling, herunder for så vidt angår national sikkerhed. - Lægger stor vægt på, at forordningen ligger inden for rammerne af eksisterende lovgivning, herunder GDPR og produktlovgivningen, hvor administrative og økonomiske omkostninger for virksomheder står mål med gevinsterne ved regulering. - Lægger vægt på, at forvaltningen og håndhævelsen foregår nationalt, hvor der bygges på eksisterende, nationale strukturer, der sikrer en effektiv databeskyttelse og forbrugerbeskyttelse. I den henseende arbejder regeringen for, at medlemslandene bevarer retten til at fastlægge den nationale organisering. - Derudover lægges der vægt på, at forslaget ikke pålægger medlemslandene unødige statsfinansielle omkostninger og at gevinsterne ved forslaget står mål med de administrative omkostninger. - Derudover vil regeringen lægge vægt på behovet for et europæisk tilsyn til at håndtere sager af en vis størrelse eller grænseoverskridende karakter. - Regeringen lægger vægt på indførelsen af effektive og passende sanktioner, herunder bøder. I samme ombæring lægger regeringen vægt på, at det nuværende hensyn til medlemslandenes forskellige juridiske systemer bevares - Regeringen lægger vægt på forbud af den specifikke anvendelse af kunstig intelligens, hvor det kan resultere i alvorlig, uoprettelig skade for individer eller samfundet eller er uforenelig med gældende lovgivning eller rettigheder, samt hvor dette ikke kan adresseres på anden vis. Regeringen mener, at retshåndhævende myndigheders brug af biometrisk fjernidentificering i realtid på offentlige steder i visse situationer kan retfærdiggøres. 4 - Regeringen lægger vægt på udformningen af frivillige adfærdskodeks, der kan blive et konkurrenceparameter for danske og europæiske virksomheder. Frivillige adfærdskodeks kan være et indledende skridt mod en europæisk frivillig mærkningsordning for kunstig intelligens, som regeringen fortsat vil arbejde for. - Slutteligt lægger regeringen vægt på etablering af initiativer, der kan fremme innovationskraften inden for kunstig intelligens, herunder effektive og fleksible rammer for regulatoriske sandkasser.” • Regeringen fik bred opbakning til forhandlingsoplægget fra alle daværende partier i Folketinget, undtagen Enhedslisten og Nye Borgerlige. • Som det fremgår af længden på forhandlingsoplægget er der tale om en omfattende og kompleks sag, hvor der har været mange hensyn at tage. • Jeg vil derfor gerne forklare de mest centrale dele af regeringens tilgang lidt nærmere, og i samme omgang komme ind på, hvordan det er gået i forhandlingerne, nu hvor vi har indgået en aftale. En risiko-baseret tilgang • Et helt centralt pejlemærke i forhandlingerne for regeringen har været at opnå en risiko-baseret forordning. • En risiko-baseret tilgang betyder, at vi sætter ind med regulering – eller endda forbud – der, hvor der er en høj eller ligefrem uacceptabel risiko forbundet med en anvendelse af kunstig intelligens. • Her vil jeg gerne understrege, at vi for så vidt muligt har gjort forordningen teknologineutral og fremtidssikker ved at fokusere på anvendelser af kunstig intelligens, fremfor på teknologien selv. • Vi har altså udpeget områder, hvor der er en høj risiko for, at borgere kan få krænket deres grundlæggende rettigheder eller komme fysisk til skade på grund af kunstig intelligens. • Hvis et kunstig intelligens system er tiltænkt at blive brugt inden for et af de udvalgte områder, så stiller vi krav til udbyderen og brugeren om bl.a. at teste systemet grundigt og at holde godt øje med det, når det er i brug. • På alle andre områder får teknologien derimod mulighed for at udvikle sig, så vi ikke hæmmer innovationen unødigt. 5 • Det mener jeg er en balanceret og proportional tilgang, som sikrer at omkostningerne står mål med fordelene. • Konkret forsøgte Kommissionen i sit oprindelige forslag at opnå denne balance, ved at inddele udvalgte anvendelser af kunstig intelligens i tre kategorier: • For det første uacceptable anvendelser, som bliver forbudt – fx social scoring. For det andet høj-risiko anvendelser – fx rekruttering eller tildeling af sociale ydelser, hvor der bliver stillet en række krav om bl.a. risikomonitorering, datakvalitet og menneskeligt tilsyn. Og for det tredje visse anvendelser – fx deep fakes, hvor der stilles krav om, at slutbrugerne bliver gjort opmærksom på, at de interagerer med kunstig intelligens. Alle øvrige anvendelser af kunstig intelligens reguleres ikke i Kommissionens oprindelige forslag. • Regeringen er enig i Kommissionens tilgang med opdeling i kategorier, da det skaber klarhed. I forhandlingerne har vi dog arbejdet meget hårdt for en tydeligere afgrænsning af de forskellige anvendelser, for at gøre det helt tydeligt for virksomheder og myndigheder, om de skal leve op til høj-risiko kravene eller ej. • Det er vi i høj grad kommet i mål med, og jeg er tilfreds med resultatet, hvor der bl.a. er blevet indført en såkaldt horisontal risikovurdering. • Det betyder for eksempel at et kunstig intelligenssystem, der anvendes på en skole til at fordele klasselokaler, ikke klassificeres som høj-risiko bare fordi det anvendes på en uddannelsesinstitution. Men et system til at give karakterer eller til at tildele studiepladser vil fortsat være omfattet. • Med til den risiko-baserede tilgang hører også definitionen af kunstig intelligens. Det har i sagens natur været en central del af forhandlingerne. • Kommissionen foreslog en meget bred definition. I forhandlingerne er det lykkes at indsnævre den, så det er tydeligt at reglerne ikke gælder helt almindeligt software som fx Excel. • Det mener jeg er langt mere proportionalt. • Samlet set er jeg derfor meget tilfreds med den måde aftalen er landet på, i forhold til at sikre en risiko-baseret tilgang. 6 Forbud • Et andet område, som jeg ved interesserer udvalget er forbuddene. • Kommissionen lagde i deres oprindelige forslag op til at forbyde fire typer af kunstig intelligenssystemer, som de mener udgør en uacceptabel risiko for borgernes grundlæggende rettigheder. • Det gjaldt a. for det første systemer med såkaldte subliminale teknikker til betydeligt at forvrænge en persons opførsel på en sådan måde, at det forvolder skade; b. for det andet systemer der udnytter sårbarheder hos udsatte grupper; c. for det tredje systemer til social scoring til ugunst for borgerne; og d. for det fjerde biometrisk fjernidentifikation – fx ansigtsgenkendelse – i realtid i det offentlige rum med henblik på retshåndhævelse. • Regeringen har i forhandlingerne lagt vægt på, at forbud kan være nødvendige. Der hvor anvendelse af kunstig intelligens kan resultere i alvorlig, uoprettelig skade. Eller der hvor det er uforeneligt med gældende lovgivning eller rettigheder. • Samtidig er forbud en meget hård restriktion. Jeg mener derfor, at forbud skal anvendes med omtanke, og kun bruges, der hvor risikoen ikke kan adresseres på anden vis – i tråd med den risiko-baserede tilgang. • Derfor har vi udvist tilbageholdenhed i forhandlingerne i forhold til Europa Parlamentets mange ønsker om yderligere og mere vidtrækkende forbud. • Særligt ansigtsgenkendelse har været en stor knast i forhandlingerne. • Fra dansk side mener vi, at det som udgangspunkt skal være forbudt at bruge ansigtsgenkendelse til overvågning på offentlige steder i realtid med henblik på retshåndhævelse. • Dog mener vi også, at det i et retssamfund skal være muligt for de retshåndhævende myndigheder at bruge den mest effektive teknologi til at beskytte befolkningen og bekæmpe alvorlig kriminalitet, når der er en overhængende trussel. Og når der bliver taget de nødvendige forholdsregler. • Vi har derfor arbejdet for afgrænsede undtagelser til forbuddet. • Vi er stadig ved at analysere den endelige tekst, men vores foreløbige vurdering er, at aftalen er landet et balanceret sted. 7 • Det er værd at bemærke, at Danmark har retsforbehold på netop denne del af forordningen, og den del vil derfor ikke blive gældende i Danmark. Grundlæggende modeller og kunstig intelligenssystemer til generelle formål (herunder ChatGPT) • Et andet emne, som jeg gerne vil uddybe er tilgangen til kunstig intelligenssystemer og modeller til generelle formål – dvs. fx ChatGPT og GPT-4 som er den model, ChatGPT bygger på. • ChatGPT blev lanceret mens forhandlingerne var godt undervejs. Det har haft betydning for det lange forhandlingsforløb, da Kommissionen ikke direkte havde taget højde for disse former for kunstig intelligens i det oprindelige forslag. • Som nævnt tog den daværende regering forhandlingsoplæg i juni 2022, altså ca. et halvt år inden ChatGPT fik sit folkelige gennembrud. • Det er derfor heller ikke direkte adresseret i forhandlingsoplægget, men regeringen har i forhandlingerne taget en risiko-baseret tilgang til emnet og lagt stor vægt på, at der blev opnået en ansvarlig og etisk anvendelse af kunstig intelligens, som udlagt i forhandlingsoplægget. • Økosystemet for kunstig intelligens er komplekst. Det samme gælder værdikæden for udvikling af et kunstig intelligenssystem. • Fra dansk side har vi derfor set et behov for at sikre, at udbydere af høj-risiko systemer, der bygger videre på systemer eller modeller til generelle formål, får adgang til bl.a. den tekniske dokumentation om systemet eller modellen. • Jeg vil gerne give et eksempel, for jeg medgiver, at det her er lidt teknisk. • Lad os forestille os, at en dansk SMV tilpasser et generelt kunstig intelligens billede-genkendelsessystem, sådan at det bliver særligt godt til at opdage brystkræft. • Den danske SMVs system vil nu være et høj-risiko kunstig intelligens system, da det skal bruges til at træffe beslutninger, der kan have konsekvenser for liv eller død på hospitalerne. Derfor skal systemet leve op til høj-risiko kravene og SMVen skal bl.a. stille teknisk dokumentation til rådighed for myndighederne. • Det er en nærmest umulig opgave for den danske SMV, hvis de ikke kan få adgang til den nødvendige information om det underliggende billede-genkendelsessystem, for eksempel om hvordan det er testet. • Derfor har vi i forhandlingerne, arbejdet for at sætte krav om transparens til udbydere af kunstig intelligenssystemer til generelle formål – altså i eksemplet oven for billede-genkendelsessystemet. Det er lykkedes. 8 • I forhold til modeller har vi også arbejdet for en risiko-baseret tilgang, hvor der stilles transparenskrav til alle modeller til generelle formål. Og mere omfattende krav om bl.a. risikomonitorering til de mest kraftfulde kunstig intelligens modeller til generelle formål, som kan medføre en systemisk risiko i det indre marked. Det er også lykkedes. • Det synes jeg er et godt og balanceret resultat, hvor vi adresserer den risiko der er, uden at hæmme innovationen mere end nødvendigt, og som derfor er helt i tråd med de danske prioriteter i forhandlingsoplægget. Håndhævelse • Det sidste jeg vil fremhæve er tilgangen til håndhævelse, da det har været en af vores store prioriteter i forhandlingerne. Vi kan lave nok så perfekte regler. Men hvis de ikke bliver håndhævet effektivt, får de ingen effekt i virkeligheden. • Fra dansk side har vi lagt vægt på, at man både byggede videre på eksisterende nationale håndhævelsesstrukturer og i visse sager af grænseoverskridende karakter gav Kommissionen kompetence til at håndhæve. • Begge dele er lykkes, og særligt på det sidste skyldes det ikke mindst en effektiv dansk indsats. Kommissionen vil nu oprette et såkaldt ”AI Office”, som skal stå for at håndhæve reglerne over for systemer og modeller til generelle formål. • Her mener jeg derfor også, at der er landet en aftale rigtig godt i tråd med de danske prioriteter. Afslutning • Jeg håber at dette gav jer et bedre indblik i vores tilgang til forhandlingerne, og hvordan det er gået. Jeg ser frem til drøftelsen. Tak for ordet.
Oversendelsesbrev til DIU.docx
https://www.ft.dk/samling/20211/kommissionsforslag/kom(2021)0206/bilag/7/2811370.pdf