Svar på spm. nr. S 802: Hvilke initiativer vil ministeren iværksætte for at sikre, at systemer med kunstig intelligens, der anvendes i folkeskolen og på andre velfærdsområder, er tilstrækkeligt gennemtestede, så de ikke kommer med beskrivelser om selvskade og selvmord, som det har været tilfældet med chatbotten SkoleGPT?
Tilhører sager:
Aktører:
- Spørger: Lisbeth Bech-Nielsen
- Besvaret af: ministeren for digitalisering
- Medspørger: Sigurd Agersnap
- Minister: ministeren for digitalisering
- Til: Caroline Stage Olsen
Svar på S 802.pdf
https://www.ft.dk/samling/20241/spoergsmaal/s802/svar/2121252/2991277.pdf
Stormgade 2-6 1470 København K Telefon 72 28 24 00 digmin@digmin.dk Svar på spørgsmål stillet af Lisbeth Bech-Nielsen (SF) den 7. marts 2025 Spørgsmål nr. S 802: ”Hvilke initiativer vil ministeren iværksætte for at sikre, at systemer med kunstig intelligens, der anvendes i folkeskolen og på andre velfærdsområder, er tilstrækkeligt gennemtestede, så de ikke kommer med beskrivelser om selvskade og selvmord, som det har været tilfældet med chatbotten SkoleGPT?” Svar: Det er af høj prioritet for mig som digitaliseringsminister, at kunstig intelligens-løsninger selv- følgelig skal testes ordentligt inden de tages i brug -– specielt når det handler om løsninger, der skal anvendes af børn og unge. Samtidig er det en ny teknologi, som løbende vil udfordre os som samfund i forhold til etiske dilemmaer og balancer, som vi skal finde. Med det sagt er jeg af den overbevisning, at bekymringerne for at begå fejl ikke må stå i vejen for, at vi bliver for bange for at tage teknologien i brug. Hvis teknologien anvendes klogt, er potentialerne for store til at forpasse. Det betyder ikke, at vi skal kaste os hovedkluds ud i projekter med kunstig intelligens, men fokus bør ikke kun være på, hvordan vi kan minimere risikoen for at begå fejl, men mindst ligeså meget på, at vi får håndteret fejlene på en ordent- lig måde. Jeg mener derfor, at det er vigtigt, at vi tør være åbne om fejl og uforudsete uhensigtsmæs- sigheder forbundet med anvendelse af kunstig intelligens, så vi kan lære af dem og forbedre os fremadrettet. I den forbindelse er SkoleGPT et godt eksempel på en danskudviklet model med et vigtigt for- mål, som vi gerne vil se endnu flere af. Sprogmodellen, der anvendes i SkoleGPT, har været testet inden udgivelse, og der er desuden opsat guardrails, i form af et pre-filter, der opdager uønsket brugerinput. Selvom fejlen i dette tilfælde var uheldig, viser SkoleGPT også, at vi i Danmark selv kan udvikle GPT-modeller, der skaber værdi. Det er afgørende, at vi lærer af denne og lignende erfaringer, så vi kan fortsætte med at udvikle stærke og ansvarlige AI-løs- ninger. Forordningen for kunstig intelligens vil ligeledes bidrage til at sikre et højt beskyttelsesniveau for sundhed, sikkerhed og grundlæggende rettigheder. Forordningen har en risikobaseret til- gang, hvor der stilles krav til eksempelvis risikostyring og menneskeligt tilsyn, hvis anvendel- sen kategoriseres som højrisiko. Kunstig intelligenssystemer, hvor risikoen anses som uaccep- tabel, bliver forbudt i EU. Det, mener jeg, er den rette vej frem. Sagsnr. 2025 - 888 Doknr. 127533 Dato 17-03-2025 Folketingets Lovsekretariat Offentligt S 802 endeligt svar 2024-25 2 Jeg mener derfor heller ikke, at vi skal bruge unødige kræfter på supplerende national regule- ring, hver gang vi støder på en fejl eller uhensigtsmæssighed. Det vil potentielt sætte vores konkurrenceevne og innovationskraft over styr. Med venlig hilsen Caroline Stage