Fremsat den 8. november 2023 af Lisbeth Bech-Nielsen (SF), Sigurd Agersnap (SF) og Karina Lorentzen Dehnhardt (SF)
Tilhører sager:
Aktører:
AX29100
https://www.ft.dk/ripdf/samling/20231/beslutningsforslag/b42/20231_b42_som_fremsat.pdf
Fremsat den 8. november 2023 af Lisbeth Bech-Nielsen (SF), Sigurd Agersnap (SF) og Karina Lorentzen Dehnhardt (SF) Forslag til folketingsbeslutning om retningslinjer og risikovurderinger for brug af kunstig intelligens Folketinget pålægger regeringen straks at iværksætte et arbejde vedrørende kunstig intelligens, der medfører, at der udarbejdes retningslinjer, risikovurderinger og en retfærdig- hedsprinciperklæring for udviklingen og brugen af kunstig intelligens. Beslutningsforslag nr. B 42 Folketinget 2023-24 AX029100 Bemærkninger til forslaget Generativ kunstig intelligens og sprogmodeller såsom ChatGPT (OpenAI), Bard (Google) og lignende AI-chatbot- ter kan bruges som et effektivt og kreativt værktøj, men skal håndteres med forsigtighed, omhyggelighed og transpa- rens. Forslagsstillerne mener derfor, at der bør anlægges et udvidet forsigtighedsprincip, indtil den europæiske AI-for- ordning er på plads i 2024. Selv om kunstig intelligens (AI) ikke er nyt, har der været en rivende udvikling inden for området i de seneste år. Med ChatGPT, Midjourney, DALL-E og lignende produkter er denne udvikling blevet bredt ud til et enormt publikum, og det er blevet muligt for enhver at benytte redskaberne. I september 2023 kom det derudover frem, at Googles Bard nu kunne integreres i øvrige tjenester såsom Gmail, Docs, Google Drive, Google Flights, YouTube og Google Maps (»Googles AI Bard er lige blevet meget smartere: Fungerer nu også med Gmail og Docs«, Computerworld, den 19. september 2023). Udviklingen er et afgørende nybrud, som kalder på handling. Der er stor forskel på, hvordan kunstig intelligens ser ud, og hvordan det bruges. Anvendelsesmulighederne er mange: Det kan potentielt spille en vigtig rolle i den offentlige for- valtning, det kan bruges derhjemme for sjov, eller det kan bidrage til at kurere kræft. Kunstig intelligens er ligesom anden teknologi hverken godt eller ondt i sig selv. Det afhænger af, hvordan det bruges. Men med kunstig intelligens er udviklingen vold- sommere og accelererende på en måde, vi ikke tidligere har oplevet. Forslagsstillerne mener derfor, at der er behov for, at Folketinget som lovgivende magt gør sig en række overvejelser og sætter nogle hegnspæle for anvendelsen af kunstig intelligens. Disse hegnspæle bør indledningsvis be- stå af retningslinjer for myndigheders anvendelse, risikovur- deringer af kendt anvendelse og principper om retfærdig anvendelse af den nye teknologi. Retningslinjer Det foreslås, at de relevante ministre straks formulerer retningslinjer til forskellige dele af samfundet. Erhvervs- ministeren bør eksempelvis udarbejde retningslinjer til lan- dets virksomheder. Både ingeniørrforeningen IDA, Djøf og flere eksperter har siden foråret 2023 efterspurgt retnings- linjer for brugen af AI-modeller på arbejdspladsen (se f.eks. »ChatGPT udgør sikkerhedsrisiko for virksomheder«, ida.dk, den 3. maj 2023, »Fagforeninger: Virksomheder bør have regler for medarbejdernes brug af AI«, Version2, den 21. august 2023, og »Eksperter advarer: Chefer skal sørge for retningslinjer for brug af AI på arbejdspladsen«, dr.dk, den 19. juni 2023). Et eksempel på, at udviklingen går hurti- gere, end virksomhederne får tilpasset sig, er, at virksomhe- den Samsung i maj 2023 måtte forbyde deres ansatte at bru- ge ChatGPT, da en medarbejder uforvarende sendte forret- ningshemmeligheder ind i AI’en (»Milliardkoncern forbyder Chat GPT efter medarbejderes bommerter«, borsen.dk, den 3. maj 2023). Indenrigsministeren, justitsministeren eller digitaliserings- ministeren bør ligeledes formulere retningslinjer til kommu- nerne om kommunale myndigheders og medarbejderes brug af AI-modeller. Det er nødvendigt, for en nylig kortlægning fra Datatilsynet peger på, at danske myndigheder har svært ved at håndtere borgernes databeskyttelse, når de udvikler og bruger kunstig intelligens, og således ikke lever op til GDPR (»Datatilsynet dumper myndigheders AI-modenhed i ny kortlægning«, ING/Compliance, pro.ing.dk, den 5. okto- ber 2023). Datatilsynet har endvidere netop udgivet en ny vejledning om offentlige myndigheders brug af AI (»Offent- lige myndigheders brug af kunstig intelligens – Inden I går i gang«, Datatilsynet, oktober 2023). Det foreslås derfor, at den relevante minister i retningslinjerne henviser til Datatil- synets vejledning og indskærper, at myndighederne straks skal begynde at arbejde med vejledningen og sikre sig, at brug af eller planer om brug af kunstig intelligens følger vejledningen, samt at myndighederne skal anvende et forsig- tighedsprincip, indtil det er sikret, at deres eventuelle brug af kunstig intelligens er i overensstemmelse med dataetiske principper. Forslagsstillerne ønsker at tydeliggøre, at der bør tages særlige forholdsregler for at beskytte personlige oplys- ninger, der indsamles og behandles af AI-systemer. Dette kan omfatte krav om samtykke, begrænsninger i brugen af personlige oplysninger og sikkerhedsforanstaltninger for at beskytte personlige oplysninger mod misbrug og hack- ing. Det bør i den forbindelse indskærpes over for kommu- nerne, at brug af AI-modeller i offentlig sagsbehandling, der involverer personhenførbare oplysninger, ikke er tilladt. Risikovurderinger Kunstig intelligens medfører mange muligheder, men in- debærer ligeledes risici for både trivsel, kritisk infrastruktur og demokratiske processer. Der bør derfor udarbejdes risiko- vurderinger for de enkelte områder. Det foreslås således, at Center for Cybersikkerhed skal udarbejde en risikovur- dering, der undersøger risikoen for angreb på kritisk infra- struktur, spredning af mis- og disinformation, påvirkning af demokratiske valg og processer m.v. Dataetisk Råd skal udarbejde et katalog med risikoprofile- ring af forskellige typer sagsbehandling inden for det offent- lige med udgangspunkt i AI-forordningen ud fra et udvidet forsigtighedsprincip. Børnerådet eller lignende relevant aktør skal udarbejde en risikovurdering for børn og unge, eksempelvis i forhold til »AI-venner« i børnerettede sociale medier såsom Snapchat. Fairnessprinciperklæring Det bør være udgangspunktet for al dansk brug af kuns- tig intelligens, at det skal bruges på retfærdig vis og med foranstaltninger for at modvirke bias. I USA har man i den amerikanske AI-lov, »Algorithmic Accountability Act (AAA)«, indført en erklæring med krav om, at virksomheder løbende skal evaluere, hvorvidt de udøver nogen form for forskelsbehandling i forbindelse med databehandling, når 2 det kommer til hudfarve, køn, alder, handicap, religion, so- cial baggrund m.v. (»Algorithmic Accountability Act: What tech leaders need to know and do now«, techrepublic.com, den 28. juli 2022). Dette bør vi også kræve herhjemme, og det foreslås derfor at skrive fairnessprincipper for kunstig intelligens ind i produktansvarsloven og forvaltningsloven. Kunstig intelligens er et spændende nyt værktøj, men vi skal sikre, at risici ved anvendelsen af den nye teknologi minimeres. Retningslinjer, risikovurderinger og fairnessprin- cipper for anvendelse er nødvendige første skridt, som Dan- mark som samfund kan og bør tage med det samme. 3 Skriftlig fremsættelse Lisbeth Bech-Nielsen (SF): Som ordfører for forslagsstillerne tillader jeg mig herved at fremsætte: Forslag til folketingsbeslutning om retningslinjer og risikovurderinger for brug af kunstig intelligens (Beslutningsforslag nr. B 42) Jeg henviser i øvrigt til de bemærkninger, der ledsager forslaget, og anbefaler det til Tingets velvillige behandling. 4