Fremsat den 8. november 2023 af Lisbeth Bech-Nielsen (SF), Sigurd Agersnap (SF) og Karina Lorentzen Dehnhardt (SF)

Tilhører sager:

Aktører:


    AX29100

    https://www.ft.dk/ripdf/samling/20231/beslutningsforslag/b42/20231_b42_som_fremsat.pdf

    Fremsat den 8. november 2023 af Lisbeth Bech-Nielsen (SF), Sigurd Agersnap (SF) og Karina Lorentzen Dehnhardt (SF)
    Forslag til folketingsbeslutning
    om retningslinjer og risikovurderinger for brug af kunstig intelligens
    Folketinget pålægger regeringen straks at iværksætte et
    arbejde vedrørende kunstig intelligens, der medfører, at der
    udarbejdes retningslinjer, risikovurderinger og en retfærdig-
    hedsprinciperklæring for udviklingen og brugen af kunstig
    intelligens.
    Beslutningsforslag nr. B 42 Folketinget 2023-24
    AX029100
    Bemærkninger til forslaget
    Generativ kunstig intelligens og sprogmodeller såsom
    ChatGPT (OpenAI), Bard (Google) og lignende AI-chatbot-
    ter kan bruges som et effektivt og kreativt værktøj, men
    skal håndteres med forsigtighed, omhyggelighed og transpa-
    rens. Forslagsstillerne mener derfor, at der bør anlægges et
    udvidet forsigtighedsprincip, indtil den europæiske AI-for-
    ordning er på plads i 2024.
    Selv om kunstig intelligens (AI) ikke er nyt, har der været
    en rivende udvikling inden for området i de seneste år. Med
    ChatGPT, Midjourney, DALL-E og lignende produkter er
    denne udvikling blevet bredt ud til et enormt publikum, og
    det er blevet muligt for enhver at benytte redskaberne. I
    september 2023 kom det derudover frem, at Googles Bard
    nu kunne integreres i øvrige tjenester såsom Gmail, Docs,
    Google Drive, Google Flights, YouTube og Google Maps
    (»Googles AI Bard er lige blevet meget smartere: Fungerer
    nu også med Gmail og Docs«, Computerworld, den 19.
    september 2023). Udviklingen er et afgørende nybrud, som
    kalder på handling.
    Der er stor forskel på, hvordan kunstig intelligens ser ud,
    og hvordan det bruges. Anvendelsesmulighederne er mange:
    Det kan potentielt spille en vigtig rolle i den offentlige for-
    valtning, det kan bruges derhjemme for sjov, eller det kan
    bidrage til at kurere kræft.
    Kunstig intelligens er ligesom anden teknologi hverken
    godt eller ondt i sig selv. Det afhænger af, hvordan det
    bruges. Men med kunstig intelligens er udviklingen vold-
    sommere og accelererende på en måde, vi ikke tidligere
    har oplevet. Forslagsstillerne mener derfor, at der er behov
    for, at Folketinget som lovgivende magt gør sig en række
    overvejelser og sætter nogle hegnspæle for anvendelsen af
    kunstig intelligens. Disse hegnspæle bør indledningsvis be-
    stå af retningslinjer for myndigheders anvendelse, risikovur-
    deringer af kendt anvendelse og principper om retfærdig
    anvendelse af den nye teknologi.
    Retningslinjer
    Det foreslås, at de relevante ministre straks formulerer
    retningslinjer til forskellige dele af samfundet. Erhvervs-
    ministeren bør eksempelvis udarbejde retningslinjer til lan-
    dets virksomheder. Både ingeniørrforeningen IDA, Djøf og
    flere eksperter har siden foråret 2023 efterspurgt retnings-
    linjer for brugen af AI-modeller på arbejdspladsen (se
    f.eks. »ChatGPT udgør sikkerhedsrisiko for virksomheder«,
    ida.dk, den 3. maj 2023, »Fagforeninger: Virksomheder bør
    have regler for medarbejdernes brug af AI«, Version2, den
    21. august 2023, og »Eksperter advarer: Chefer skal sørge
    for retningslinjer for brug af AI på arbejdspladsen«, dr.dk,
    den 19. juni 2023). Et eksempel på, at udviklingen går hurti-
    gere, end virksomhederne får tilpasset sig, er, at virksomhe-
    den Samsung i maj 2023 måtte forbyde deres ansatte at bru-
    ge ChatGPT, da en medarbejder uforvarende sendte forret-
    ningshemmeligheder ind i AI’en (»Milliardkoncern forbyder
    Chat GPT efter medarbejderes bommerter«, borsen.dk, den
    3. maj 2023).
    Indenrigsministeren, justitsministeren eller digitaliserings-
    ministeren bør ligeledes formulere retningslinjer til kommu-
    nerne om kommunale myndigheders og medarbejderes brug
    af AI-modeller. Det er nødvendigt, for en nylig kortlægning
    fra Datatilsynet peger på, at danske myndigheder har svært
    ved at håndtere borgernes databeskyttelse, når de udvikler
    og bruger kunstig intelligens, og således ikke lever op til
    GDPR (»Datatilsynet dumper myndigheders AI-modenhed i
    ny kortlægning«, ING/Compliance, pro.ing.dk, den 5. okto-
    ber 2023). Datatilsynet har endvidere netop udgivet en ny
    vejledning om offentlige myndigheders brug af AI (»Offent-
    lige myndigheders brug af kunstig intelligens – Inden I går
    i gang«, Datatilsynet, oktober 2023). Det foreslås derfor, at
    den relevante minister i retningslinjerne henviser til Datatil-
    synets vejledning og indskærper, at myndighederne straks
    skal begynde at arbejde med vejledningen og sikre sig, at
    brug af eller planer om brug af kunstig intelligens følger
    vejledningen, samt at myndighederne skal anvende et forsig-
    tighedsprincip, indtil det er sikret, at deres eventuelle brug
    af kunstig intelligens er i overensstemmelse med dataetiske
    principper. Forslagsstillerne ønsker at tydeliggøre, at der bør
    tages særlige forholdsregler for at beskytte personlige oplys-
    ninger, der indsamles og behandles af AI-systemer. Dette
    kan omfatte krav om samtykke, begrænsninger i brugen
    af personlige oplysninger og sikkerhedsforanstaltninger for
    at beskytte personlige oplysninger mod misbrug og hack-
    ing. Det bør i den forbindelse indskærpes over for kommu-
    nerne, at brug af AI-modeller i offentlig sagsbehandling, der
    involverer personhenførbare oplysninger, ikke er tilladt.
    Risikovurderinger
    Kunstig intelligens medfører mange muligheder, men in-
    debærer ligeledes risici for både trivsel, kritisk infrastruktur
    og demokratiske processer. Der bør derfor udarbejdes risiko-
    vurderinger for de enkelte områder. Det foreslås således,
    at Center for Cybersikkerhed skal udarbejde en risikovur-
    dering, der undersøger risikoen for angreb på kritisk infra-
    struktur, spredning af mis- og disinformation, påvirkning af
    demokratiske valg og processer m.v.
    Dataetisk Råd skal udarbejde et katalog med risikoprofile-
    ring af forskellige typer sagsbehandling inden for det offent-
    lige med udgangspunkt i AI-forordningen ud fra et udvidet
    forsigtighedsprincip.
    Børnerådet eller lignende relevant aktør skal udarbejde en
    risikovurdering for børn og unge, eksempelvis i forhold til
    »AI-venner« i børnerettede sociale medier såsom Snapchat.
    Fairnessprinciperklæring
    Det bør være udgangspunktet for al dansk brug af kuns-
    tig intelligens, at det skal bruges på retfærdig vis og med
    foranstaltninger for at modvirke bias. I USA har man i
    den amerikanske AI-lov, »Algorithmic Accountability Act
    (AAA)«, indført en erklæring med krav om, at virksomheder
    løbende skal evaluere, hvorvidt de udøver nogen form for
    forskelsbehandling i forbindelse med databehandling, når
    2
    det kommer til hudfarve, køn, alder, handicap, religion, so-
    cial baggrund m.v. (»Algorithmic Accountability Act: What
    tech leaders need to know and do now«, techrepublic.com,
    den 28. juli 2022). Dette bør vi også kræve herhjemme, og
    det foreslås derfor at skrive fairnessprincipper for kunstig
    intelligens ind i produktansvarsloven og forvaltningsloven.
    Kunstig intelligens er et spændende nyt værktøj, men vi
    skal sikre, at risici ved anvendelsen af den nye teknologi
    minimeres. Retningslinjer, risikovurderinger og fairnessprin-
    cipper for anvendelse er nødvendige første skridt, som Dan-
    mark som samfund kan og bør tage med det samme.
    3
    Skriftlig fremsættelse
    Lisbeth Bech-Nielsen (SF):
    Som ordfører for forslagsstillerne tillader jeg mig herved
    at fremsætte: Forslag til folketingsbeslutning om retningslinjer og
    risikovurderinger for brug af kunstig intelligens
    (Beslutningsforslag nr. B 42)
    Jeg henviser i øvrigt til de bemærkninger, der ledsager
    forslaget, og anbefaler det til Tingets velvillige behandling.
    4