Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
Tilhører sager:
- Hovedtilknytning: DIU alm. del (Bilag 162)
Aktører:
lex-hvidbog-2024-web
https://www.ft.dk/samling/20231/almdel/diu/bilag/162/2899238.pdf
SÅDAN STYRER TECHGIGANTERNE OG KUNSTIG INTELLIGENS DIN ADGANG TIL VIDEN PÅ NETTET Hvidbog på baggrund af konference den 3. april 2024 Danmarks nationalleksikon Offentligt DIU Alm.del - Bilag 162 Udvalget for Digitalisering og It 2023-24 2 Kolofon: Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet Hvidbog på baggrund af konference den 3. april 2024 © Foreningen lex.dk April 2024 Redaktion: Erik Henz Kjeldsen Tryk: Christensen Grafisk Konferencen blev arrangeret af: Danmarks nationalleksikon Se hele konferencen Indhold Forord....................................................................................5 Sociale medier, tech og demokrati: Hvad synes danskerne om indhold, der er bestemt af algoritmer? Hovedpointer fra Mads Bramsens oplæg................................7 Kunstig intelligens i skolen – mulighed for gentænkning Hovedpointer fra Birgitte Vedersøs oplæg............................. 11 Søgemaskiner, viden og magt i et historisk perspektiv Hovedpointer fra David Runcimans oplæg.............................13 Algoritmer og det åbne samfund: Kuratering, filtrering og søgning Hovedpointer fra Thore Husfeldts oplæg...............................15 Hvilke resultater ser brugerne i søgemaskinerne? Medtagelse, udelukkelse og kuratering Hovedpointer fra Dirk Lewandowskis oplæg ..........................17 Informationstroværdighed i en AI-æra Hovedpointer fra Mikkel Flyverboms oplæg........................... 19 Argumenter for mennesker – bias i kunstig intelligens Hovedpointer fra Christiane Vejløs oplæg.............................23 Hvorfor er der brug for mange sprogmodeller? Hovedpointer fra Pernille Tranbergs oplæg...........................25 Viden er ikke en algoritme Hovedpointer fra Erik Henz Kjeldsens oplæg........................27 5 Forord I dag ”googler” vi, når vi søger viden, og mange af os har nok den forestilling, at søgemaskinerne giver os adgang til alt eksisterende indhold på nettet om det, vi skriver i søgefeltet. Men sådan er det langtfra. Dels er det ikke teknisk muligt for søgemaskinerne at finde alt indhold, dels udvælger og prioriterer de, hvilket indhold den enkelte bruger skal præsenteres for. Det sker på baggrund af søgemaskinens viden om vores interesser, præferencer og tidligere søgninger. Kunstig intelligens vil revolutionere vores søgning efter viden. I fremtiden vil samtalerobotter levere endnu mere skræddersyede svar og anbefalinger, baseret på vores præferencer og adfærd på nettet. På den ene side vil det skabe en mere interaktiv og personlig oplevelse, hvor vi kan få samlede svar på det, vi søger efter, uden at skulle igennem lange søgeprocesser. Men på den anden side vil vi ikke længere vide, hvilket grundlag udvalget er foretaget på, eller hvilke kilder svaret bygger på. Den manglende sikkerhed om grundlaget for vores adgang til troværdig viden kan skabe utryghed og udfordrer både den enkelte bruger og samfundet. Som et bidrag til en kvalificering af, hvordan vi som samfund både kan bevare og udvikle vores forståelse af, hvordan viden skabes, tilgængeliggøres og deles, afholdt Lex - Danmarks nationalleksikon, i samarbejde med en række andre danske vidensinstitutioner, den 3. april 2024 en konference med danske og udenland- ske eksperter om techgiganter, kunstig intelligens og andre dimensioner af moderne videnssøgning. Det er anden gang, Lex er vært for en sådan konfe- rence, og det er planen, at disse konferencer skal være årligt tilbagevendende begivenheder. Det skal understreges, at hvidbogens resumeer ikke er skre- vet af forfatterne selv, men er sammenfattet af Lex’ redaktion. Ansvaret for resumeerne påhviler således alene Lex. De fulde versioner af oplæggene kan tilgås via streaming på mere.lex.dk. Årets konference blev fulgt af et fyldt auditorium på Københavns Universitet samt af cirka 800 deltagere, der fulgte med via den direkte streaming af konferen- cen. Konferencen i 2023 blev efterfølgende streamet ikke mindre end 20.000 gange, og vi håber, at årets konference vil blive mindst lige så udbredt. Tak til alle, der mødte op, alle, der kiggede med via streaming, til de 9 oplægsholdere, paneldeltagerne – og til vores samarbejdspartnere: Danske Universite- ter, Danske Professionshøjskoler, Danske Gymnasier, Danmarks Biblioteksforening og Danske Medier, samt til Københavns Universitet for at huse os. Niels Elers Koch Bestyrelsesformand for Lex - Danmarks nationalleksikon 6 6 ud af 10 adspurgte mener, at det er et demokratisk problem, at det indhold, man får i sit feed, er udvalgt eller kurateret af algoritmer og techgiganter. 7 Udviklingen inden for informationssøgning og ind- holdsmoderation er en dagsorden, som de sidste par år er blevet forankret bredt i både Folketinget og centraladministrationen. Således fremgår det af såvel regeringsgrundlaget som den seneste medieaftale, at man vil arbejde for den demokratiske kontrol med techgiganterne. Det nye Center for Sociale Medier, Tech og Demokrati udspringer direkte af medieaftalen. Centret begyndte sin virksomhed i november 2023 og har til opgave at følge udviklingen inden for bl.a. informationssøgning og indholdsmoderation. Som en af sine første opgaver har centret gennemført en undersøgelse om techgiganterne og deres påvirkning af virkeligheden og samfundet. Hvor får vi vores viden fra? Og hvordan påvirker det vores demokrati, vores demokratiske institutioner, tilliden til hinanden, tilliden til institutioner, sammenhængskraften osv.? På baggrund af den indsamlede viden skal Center for Sociale Medier, Tech og Demokrati rådgive politikere og beslutningstagere og bidrage til Danmarks policy- udvikling både nationalt og internationalt. Da der med techgiganterne er tale om meget store globale virk- somheder, som det er svært at regulere nationalt, har lovgivnings- og reguleringsindsatsen primært været lagt i hænderne på EU, som de sidste par år har gennemført nogle meget store lovpakker på området. Ifølge centrets undersøgelse er mere end 9 ud af 10 af de adspurgte danskere jævnligt på sociale medier, og endnu flere bruger søgemaskiner til at søge infor- mationer. Mere end to tredjedele af befolkningen får også deres nyheder fra sociale medier, og særligt for de yngre generationer er de sociale medier deres primære nyhedskilde. Et ændret informations- og nyhedsmønster betyder en ændret rammesætning af den offentlige samtale. Hovedpointer fra oplægget af Mads Bramsen Centerchef, Center for Sociale Medier, Tech og Demokrati, Slots- og Kulturstyrelsen Sociale medier, tech og demokrati: Hvad synes befolkningen om indhold, der er bestemt af algoritmer? Se hele oplægget her Danskerne er overvejende enige i, at det er en demokratisk udfordring, at algoritmer bestemmer det indhold, man præsenteres for online. Algoritmisk tilpasning af indhold 0% 20% 40% 60% 80% 100% 30 29 19 5 3 15 32 17 7 3 12 Det er en demokratisk udfordring, hvis det ind- hold, man præsenteres for på online platforme, er bestemt af algoritmer Jeg er bekymret for, at jeg får et skævt billede af aktuelle begivenheder i Danmark, når det indhold jeg præsenteres for online, er bestemt af algoritmer og tilpasset mig Enig Overvejende enig Hverken enig eller uenig Overvejende uenig Uenig Ved ikke 30 Kilde: Mads Bramsens præsentation 8 Hvad betyder det for den offentlige samtale, at debatten flytter fra ølkasserne, forsamlingshusene og læserbreve- ne til den digitale verden, hvor selve rammesætningen af debatten er defineret af nogle meget store globale virksomheder, som ikke afspejler dansk kultur og danske værdier og i sagens natur ikke ved, hvad der i en dansk kontekst er vigtigt at bringe ind i den offentlige samtale? Hvad betyder det fx, at det er private, kom- mercielle virksomheder, der regulerer vores adgang til skadeligt og ulovligt indhold? DR har for nylig dokumen- teret, at mange børn og unge udsættes for voldsomt indhold på de sociale medier (i dokumentaren ”Alene hjemme på nettet”). Indhold, som dumper ned i deres feed, uden at de har efterspurgt det. Hvilke algoritmer ligger bag? Hvorfor ligger der åbenlyst ulovligt indhold, som af og til endog er i direkte strid med platformens egne retningslinjer? Hvorfor ligger det frit tilgængeligt? Der er også brug for at fokusere på, hvordan ytrings- og informationsfriheden sikres på medier med algoritmisk visning. Vi får kurateret noget indhold. Nogen/noget kommer frem, noget kommer ikke frem. Noget bliver modereret væk. Og noget får lov til at få utrolig stor spredning og rækkevidde. Og det er ikke blot det, vi sø- ger, der er sorteret af andre. Også det, vi selv publicerer, sorteres og prioriteres af andre, som kan fjerne indhold, hvis det overtræder deres egne retningslinjer. Og lade andet stå, der er ulovligt i de lande, hvor det spredes. Hvordan bevarer og beskytter vi ytringsfriheden i den sammenhæng? Og hvordan sikrer vi, at der ikke ligger ulovligt materiale frit tilgængeligt på nettet? Center for Sociale Medier, Tech og Demokrati har kortlagt, hvilke spørgsmål der optager befolkningen, når det gælder de nye medier og deres betydning for den offentlige debat, herunder spørgsmålet om desinformation. Der er i befolkningen en oplevelse af, at debatten på sociale medier er ekstremt hadefuld og ekstremt polariserende. Den hårde tone og den polariserede debat betyder, at nogle ikke orker at deltage i debatten og give deres mening til kende. I forhold til spørgsmålet om desinformation er danskerne særligt bekymrede for, at den nye bølge af teknologi, med generativ AI, vil føre til, at alle informa- tioner pludselig opleves som utroværdige. Hvad gør det for tilliden til vores institutioner og vores demokra- tiske processer? 2024 er et valgår i store dele af verden. Det fylder en del i befolkningens bevidsthed, at også valgdækningen præ- ges af indholdsmoderation og algoritmisk prioritering. 6 ud af 10 adspurgte mener, at det er et demokratisk problem, at det indhold, man får i sit feed, er udvalgt eller kurateret af algoritmer og techgiganter. Det gælder både onlineplatforme, søgemaskiner og sociale medier. En ting er, hvad vi præsenteres for af produkter og reklamer. Men når det også er tilfældigt eller uigennem- skueligt, hvad vi præsenteres for i den demokratiske samtale, er der mere på spil. Et flertal af befolkningen er således ”overvejende bekymret” for, om de får et retvisende billede af tingenes tilstand. Vi mangler viden om platformens indholdsmoderation • Indholdsmoderation foregår ”behind-the-scenes” • Det har begrænset forskningen • Research gap om platformenes moderation og interne beslutninger • Vi har brug for gennemsigtighed og adgang til data Når vi søger via en søgemaskine, er det ikke alt, der kommer frem. Noget bliver modereret væk, mens andet får stor spredning og rækkevidde. 9 Anbefalinger 1. Der er brug for at fokusere på, hvordan ytrings- og informationsfriheden sikres på medier med algoritmestyret prioritering og visning. 2. Der er brug for mere gennemsigtighed og mere indsigt i mekanismerne bag indholdsmoderation, hvis vi skal forstå og håndtere rammesætningen af den offentlige debat og demokratiske samtale. 3. Hvis vi skal kunne lave god politik, skal vi have en dyb forståelse af de tekniske sider af platforme, algoritmer og indholdsflow, og det kræver, at forskerne får fuld adgang til maskinrummet. Er de emner, der fylder i ”online”-debatten, også det, der reelt fylder ”offline” i hverdagen og det levede liv? Og er positionerne nu også så polariserede, som det kan komme til at fremstå? Når det gælder befolkningens holdning til indholdsmo- deration, og hvilke krav og kontroller, og hvilke grænser, der skal være for den, er der fuld eller stor tilslutning til, at techgiganterne skal tage et større ansvar for indholdet, og at staterne skal sikre, at de gør det. Men hvad betyder det for ytringsfriheden? Går vi ikke på kompromis med ytringsfriheden, hvis udbyderne eller staten modererer alt det ”skæve” væk, så det kun er de ”prægodkendte” holdninger, der får lov at overleve i debatten? Er det uforeneligt med ytringsfriheden, at kommentarer modereres eller fjernes? Svarene er lidt mere nuancerede her, men en overvejende del af de adspurgte finder det ikke umiddelbart skadeligt for ytringsfriheden, at onlinedebatter modereres. På baggrund af de indledende undersøgelser har Center for Sociale Medier, Tech og Demokrati rettet søgelyset mod samfundet. Er vi som samfund klædt på til at håndtere den algoritmiske visning af indhold? Er vi klædt på til at håndtere nye bølger af generativ AI m.m.? Samtidig fokuseres der på, hvad platformene selv gør – eller ikke gør. LinkedIn og det sociale medie X har fx slet ikke dansksprogede moderatorer. YouTube har nogle få, selvom det er dem, der har flest brugere. Meget er automatiseret moderation, men der skal også være fagfolk til at udvikle og definere den automatiske moderation og håndtere tvivlsspørgsmål i forhold til særlige danske kulturelle og værdimæssige positio- ner? Udfordringen er, at meget af den algoritmestyrede moderation er usynlig og uigennemsigtig, og derfor uoverskuelig. Der er brug for mere gennemsigtighed og mere indsigt i mekanismerne bag indholdsmodera- tion, hvis vi skal forstå og håndtere rammesætningen af den offentlige debat og demokratiske samtale. Fremadrettet vil Center for Sociale Medier, Tech og Demokrati se på spørgsmålet om misinformation og desinformation. Er vi som samfund rustet til at imøde- gå mis- og desinformation? En ting er techgiganterne, men det er også væsentligt at se på mediernes rolle? Er medierne rustede til at gennemskue desinformation? Og hvordan er vi rustede som brugere? Er vi rustet godt nok til at gennemskue misinformation og desinfor- mation? Og hvad med vores beslutningstagere, vores politikere? Hvordan undgår vi, at de falder for mis- og desinformation? Endelig er der spørgsmålet om forskeradgang. Det kan måske virke tørt for ikke-forskere. Men det er helt afgørende for os alle sammen, at hvis vi skal kunne lave god politik, skal vi have en dyb forståelse af de tekniske sider af platforme, algoritmer og indholds- flow, og det kræver, at forskerne får fuld adgang til maskinrummet. Den omtalte undersøgelse kan findes på Slots- og Kulturstyrelsens hjemmeside. 10 Ekspertgruppens anbefalinger Anbefaling 1: Prøverne skal gå på to ben – og kunne udprøve både med og uden digitale hjælpemidler Antallet af prøver, hvor det er muligt at snyde eller blive anklaget for snyd, bør begræn- ses, så fokus bliver på læring. Det samlede prøvebillede bør understøtte både udvikling af elevers viden og færdighe- der samt udvikling af kompetencer til at anvende og tage stilling til digitale værktøjer selvstændigt. Der bør tages udgangspunkt i rapportens syv generiske prøveformer der kan fungere som en rettesnor i forbindelse med eventuelle ændringer af de eksisterende prøveformer. Anbefaling 2: Løbende udvikling af prøver Der bør kunne ske ændringer i prøveformer med kortere aftræk end tidligere, så prø- verne løbende kan tilpasses omverdenen og ny teknologi. Børne- og Undervisningsministeriet opfordres til at inddrage relevante aktører til løbende drøftelser af prøveformer, samt hvilken af de syv generiske prøveformer, der kan anvendes fra fag til fag. Anbefaling 3: Brug af digital teknologi og kunstig intelligens som et strategisk indsatsområde Ledelsen på den enkelte institution bør sætte fokus på digitalisering, herunder kunstig intelligens som et redskab til læring. Kommunikationen og vejledningsindsatsen om digitale hjælpemidler ved prøverne bør prioriteres lokalt på institutionerne. Anbefaling 4: Undervisningen skal danne grundlag for nye prøveformer Ledelse og lærere bør indtænke digitale hjælpemidler i den daglige undervisning på tværs af fagene, så der skabes sammenhæng mellem undervisning og prøver. Ekspertgruppens anbefalinger blev offentliggjort efter konferencen og her gengivet efter https://www.regeringen.dk/nyheder/2024/ekspertgruppe-klar-med-anbefalinger-for-brug -af-chatgpt-ved-proever/ 11 Når det gælder kunstig intelligens og dens plads i undervisningen, har undervisningssektoren i de første faser af udviklingen været præget af en vis rådvildhed. Derfor nedsatte børne- og undervisningsministeren i maj 2023 en ekspertgruppe med den opgave at se på kunstig intelligens’ indvirkning på eksamener og prøver samt de afledte konsekvenser for undervisnin- gen inden for hele ministeriets område, det vil sige grundskolen, ungdomsuddannelserne og voksenud- dannelserne. Ekspertgruppen skulle endvidere give nogle bud på, hvordan man kan fremtidssikre prøver- ne i en fremtid med kunstig intelligens. Ekspertgrup- pen er bredt sammensat, med både praktikere i form af skolefolk og eksperter, som har teoretisk viden både om læring og om teknologier. Det store dyr i åbenbaringen har hidtil været ”snyd”. Det fylder utrolig meget på landets skoler i øjeblikket at tale om snyd, fordi alting er blevet så let tilgænge- ligt, at man lynhurtigt kan få fabrikeret en tekst, der ligner en dansk stil eller en samfundsfagsrapport. Det har sat skolen under pres. Man kan sige, at generativ AI på mange måder sætter fortidens snyd på wc-ruller og små beskeder til vægs. Med AI har vi fat i noget, der er langt mere potent. Det har været vigtigt for gruppen at starte med at tale om undervisning og ikke om eksamen, fordi det er i undervisningen, at man præger eleverne. I en verden med AI kommer vi ikke til at vælge rigtigt, hvis vi går med den tilgang, at undervisningen skal indrettes efter en snydefri eksamensform. Frem for at tilrettelægge undervisningen med fokus på at undgå snyd til eksamen peger ekspertgruppen på, at man tilrettelægger undervisningen med sigte på en verden, hvor AI findes, og hvor opgaven er at klæde eleverne på til at kunne håndtere den nye teknologi på linje med andre teknologier og hjælpemidler. Fremtidens skole skal derfor fokusere på andet end selvstændig opgaveløsning og eksamensforberedelse uden hjælpemidler. Eleverne skal selvfølgelig kunne finde de rigtige svar på spørgsmålene. Men det gøres ikke ved bare at slukke for maskinerne. AI er et vilkår, som elever også skal kende - og lære at bruge. For AI rummer også muligheder. Tænk alene på, hvad det betyder for fx ordblinde elever, at de pludselig har mulighed for at formulere deres tanker på lige vilkår med deres jævnaldrende klassekammerater. Ekspertgruppen peger derfor på, at skolen flytter fokus fra snyd til læring. Fra at besvare spørgsmål til at stille de rigtige spørgsmål og søge troværdige svar. Der skal naturligvis stadig løses opgaver og besvares spørgs- mål. Også uden hjælpemidler. Men børnene skal lære at bruge de nye muligheder, herunder AI, som en del af fremtidens færdigheder, de såkaldte 21st Century Skills. Og med udgangspunkt i en mere tidssvarende undervisning bliver det lettere derefter at tale om de afledte konsekvenser for eksamen. Hovedpointer fra oplægget af Birgitte Vedersø Selvstændig ledelsesrådgiver i Vedersoe.co Formand for børne- og undervisningsministerens ekspertgruppe, der skal undersøge, hvordan de digitale hjælpemidler påvirker muligheden for snyd ved prøverne på landets skoler og institutioner Kunstig intelligens i skolen – mulighed for gentænkning Se hele oplægget her Man kan sige, at generativ AI på mange måder sætter fortidens snyd på wc-ruller og små beskeder til vægs. Med AI har vi fat i noget, der er langt mere potent. 12 De siger, de åbner verden og styrker dialogen, men de er jo ikke engang selv åbne for dialog. Du kan ikke e-maile til Facebooks moderatorer. Du kan ikke spørge Googles programmører, hvad de har gang i. De virksomheder, vi sætter til at bevogte demokratiet, er selv yderst udemokratiske. Hvor søgemaskinerne flyttede magt fra bor- gerne til techgiganterne, vil AI måske flytte magten et helt tredje sted hen, nemlig til maskinerne. Og det vil ikke kun være en for- ringelse af demokratiet, men i sidste ende enden på demokratiet. 13 Hovedpointer fra oplægget af David Runciman Professor ved Cambridge University Søgemaskiner, viden og magt i et historisk perspektiv Se hele oplægget her Mange vil sikkert huske starten på den digitale revoluti- ons tidsalder i 1990’erne og begyndelsen af 2000-tallet. Man troede dengang, at den nye informationsteknologi, ikke mindst med Google, ville være godt for demokratiet og ville rette op på den klassiske historiske ubalance i adgangen til informationer og viden. Visionen var, at den viden, der tidligere alene var reserveret beslut- ningstagere og magthavere, nu ville blive tilgængelig for almindelige mennesker. Og at denne demokratisering af adgangen til information ville gavne demokratiet. Tanken var, at det ville være meget svært for autoritære, autokratiske regimer at overleve i en tidsalder, hvor alle havde adgang til samme information som magthaverne. Nu, efter 30 år, ser vi, at demokratiet er svækket eller truet mange steder. Magten er stadig centraliseret. Autoritære og autokratiske regimer er blevet stærkere i Googles tidsalder. Hvordan rimer det med, at det, der skulle være godt for demokratiet, er endt med at være dårligt for demokratiet? Der er en række grunde til, at søgemaskiner ikke auto- matisk styrker demokratiet. En af dem er, at søgetjene- ster primært virker, hvis man ved, hvad man leder efter. Søgemaskiner er fortræffelige, hvis man ønsker at finde en dyrehandel eller en gammel ven, eller hvis man vil have et tip til fem spændende steder at besøge i Køben- havn. Men man går forgæves med spørgsmål som ”Hvad har min regering gang i?” og ”Hvad er en god sundheds- politik?”. Disse spørgsmål er centrale for den demokrati- ske debat, men en søgning på dem fører ikke til objektiv viden. Snarere til partipolitiske eller propagandistiske websteder. Søgning er simpelthen ikke velegnet til at skaffe svar på de væsentligste demokratiske spørgsmål. Den anden grund er, at søgemaskinerne selvfølgelig giver adgang til mere information, men hvis man virkelig vil udnytte muligheden for at sætte sig ind i for eksem- pel byrådets beslutninger, med tilhørende møderefe- rater, bilag og baggrundsmateriale, vil man blive udsat for et overload af informationer, som de færreste har tid og forudsætninger til at gennemskue. Heller ikke her er søgesystemer et velegnet demokratisk værktøj. Et tredje problem er, at den øgede adgang til viden går begge veje. Informationsteknologien giver borgerne adgang til mere information om de politiske beslutnin- ger. Men magthavere, regeringer og myndigheder får også adgang til mere information om borgerne. Og her er tale om en ”incitaments-ubalance”. Magthaverne har større incitament til at overvåge borgerne, end borgerne har til at overvåge politikerne. Dermed bliver informationsteknologien snarere til en overvågningsteknologi end en søgeteknologi. Det gælder i hvert fald de autoritære regimer. AI og ChatGPT kommer måske til at ændre nogle af disse ubalancer, der fulgte med den første generation af søgemaskiner. For det første er AI bedre end de traditi- onelle søgemaskiner til at besvare generelle spørgsmål. Hvis man spørger Google, hvad der ville være en god sundhedspolitik med et retfærdigt skattesystem i et samfund med en aldrende befolkning, vil man få et komplet usammenhængende og ubrugeligt resultat. Hvis man stiller det samme spørgsmål til ChatGPT, vil man måske også umiddelbart få noget vrøvl tilbage. Men det fantastiske ved AI er, at AI er iterativt. Man kan interagere og gå i dialog med AI. Det første bud vil måske være helt ved siden af. Men anden gang, tredje gang og fjerde gang vil man komme tættere på noget, der virker. Søgning er godt, hvis man ved, hvad man leder efter. Søgning er ikke et demokratisk redskab. 14 Det kan potentielt blive et demokratisk redskab for borgere, der ønsker et sammenhængende overblik over et emne. For det andet er AI bedre end søgemaskinerne til at opsummere kompliceret viden, så vi ikke drukner i information. Og for det tredje er AI bedre end de tradi- tionelle søgemaskiner til at gøre det tunge sorterings- arbejde i en stor mængde af informationer. Dermed kan AI blive borgernes personlige assistenter og rette op på den ubalance, der ligger i, at politikerne har et hold af embedsmænd til at tilgå, indsamle og systema- tisere information. AI-teknologien giver borgerne de samme muligheder. Så der er, i det mindste, et potentiale for, at den nye tids- alder af kunstig intelligens vil styrke borgernes deltagel- se i demokratiet. Det lyder besnærende. Men problemet er, at teknologien stadig er i hænderne på et lille antal magtfulde virksomheder, der ikke selv er demokratiske eller for den sags skyld interesserede i demokrati. De siger, de åbner verden og styrker dialogen, men de er jo ikke engang selv åbne for dialog. Du kan ikke e-maile til Facebooks moderatorer. Du kan ikke spørge Googles programmører, hvad de har gang i. De virksomheder, vi sætter til at bevogte demokratiet, er selv yderst udemo- kratiske, og det er det første problem. Et andet problem er, at den ”informations-ubalance”, der præger nutiden, også vil gælde i en fremtid med AI. Systemerne er gensidige. Magthaverne har den samme adgang til at overvåge borgerne, som borgerne har til at overvåge magthaverne. Men magthaverne har stør- re incitament til at anvende denne mulighed. Borgerne i et demokrati har, som vælgere, muligheden for at ”overraske” politikerne ved at stemme på nogle andre og dermed fremkalde forandringer, de ikke havde set komme. Hvis politikerne hele tiden ved, hvad vi mener, mister vi denne ”overraskelseseffekt”. Endelig er der det tredje problem ved de mere dialogprægede systemer som AI og ChatGPT, at vi ikke ved, om de afspejler vores tanker og behov, eller om det i virkeligheden bliver os, der kommer til at afspejle maskinernes programmer. Og dermed kommer til at leve i ”maskindemokratiets tidsalder”, hvor maskiner- ne påvirker eller i sidste ende bestemmer udfaldet af fx valg. Hvor søgemaskinerne flyttede magt fra borgerne til techgiganterne, vil AI måske flytte magten et helt tredje sted hen, nemlig til maskinerne. Og det vil ikke kun være en forringelse af demokratiet, men i sidste ende enden på demokratiet. Kernebudskaber 1. Teknologien er stadig i hænderne på et lille antal magtfulde virksomheder, der ikke selv er demokratiske eller for den sags skyld interesserede i demokrati. 2. Magthaverne har med AI samme adgang til at overvåge borgerne, som borgerne har til at overvåge magthaverne. Men magthaverne har større incitament til at anvende denne mulighed. 3. Hvor søgemaskinerne flyttede magt fra borgerne til techgiganterne, vil AI måske flytte magten et helt tredje sted hen, nemlig til maskinerne. 15 Hovedpointer fra oplægget af Thore Husfeldt Professor i datalogi, IT-Universitetet i København Algoritmer og det åbne samfund: Kuratering, filtrering og søgning Søgesystemer og videnssøgning har været igennem flere forskellige faser gennem de seneste 25 år. Fra uni- versel søgning efter alt, prioriteret søgning via algorit- mer til fuldt personaliseret søgning via ChatGPT og AI. I første fase var søgemaskinernes opgave at finde alt eksisterende information på internettet. Internettet bestod dengang af statiske sider, som AltaVista eller andre ”søgemotorer” kunne finde frem til os via såkaldte hypertekstreferencer. Resultatet, ”forekom- sterne”, blev præsenteret i tilfældig rækkefølge uden nogen form for prioritering eller ”rangering”. Hvis man fx søgte på ”University”, fandt søgemaskinerne frem til alle forekomster af ordet i tilfældig, usorteret række- følge. Det kunne være alt fra University of Oregons afdeling for optisk fysik til Carnegie Mellon Universitets IT-supportgruppe. Målet for søgemaskinerne var at sikre indholdets universelle tilgængelighed. Den søge- maskine, der havde adgang til mest data, var bedst. Med Google skiftede fokus fra ”flest” forekomster til de ”bedste” forekomster. Google indførte den såkaldte siderangeringsalgoritme, hvor forekomsterne blev ”rangeret” efter et kvalitetskriterium. Men kvalitets- kriteriet var stadig objektivt. Alle, der ledte efter det samme, fik det samme. Det objektive rangeringssystem ændrede sig omkring 2001-2002, hvor fokus skiftede fra, hvad der er ”godt” til, hvad der er ”relevant” for den enkelte bruger. Det berømte eksempel på den nye trend var en søgning på ”Paris Hilton”. Hvis anmodningen kom fra en 16- årig teenager i Minnesota, ledte søgningen hende til skuespilleren Paris Hilton. Men hvis en midaldrende forretningsmand foretog samme søgning, ville den lede ham til Hotel Hilton i Paris. Fra nu af var søgema- skinernes succeskriterium ikke længere ”flest” eller ”bedst”, men ”relevant” for den enkelte. Der skete en personalisering af søgetjenesterne. Søgekriterierne gik fra objektivt til subjektivt. Det nødvendiggjorde imidlertid, at søgemaskinerne indsamlede data om de enkelte brugere. Datahøsten satte ind. Viden om brugerens øvrige præferencer blev udslagsgivende for, hvilke informationer han eller hun fik frem ved en søgning. Hvis en politisk interesseret bruger søgte på ”Egypten”, blev han vist hen til sider om den politiske situation i Egypten. Men hvis maskinen ved, at bru- geren sætter pris på at rejse, vil søgemaskinen finde relevante rejsetilbud til Egypten frem. De to brugeres enslydende søgninger på den samme søgemaskine giver således to forskellige resultater. Algoritmerne havde holdt deres indtog. Den seneste udvikling er, at søgemaskinerne flytter fokus fra, hvad der er relevant eller godt for den enkelte, til et mere ”paternalistisk” perspektiv, hvor søgesystemerne vælger efter, hvad de – eller deres ejere – synes er godt for den enkelte. Se hele oplægget her 16 Algoritmerne skabte nye bekymringer. Hvis man, ligegyldigt hvad man søger, kun får det, der spejler ens egne interesser, vil den åbne pluralistiske samtale flyt- te fra det åbne rum (”Agora”) til separate ”ekkokamre” eller såkaldte ”filterbobler”. I dag er der forsket en hel del i filterbobler, men der er aldrig rigtig påvist nogen målbar effekt af filterbobler. En anden bekymring, algoritmerne fremkaldte, var spørgsmålet om tab af privatsfære, når man gennem sine søgninger efterlod digitale spor på nettet. Den seneste udvikling er, at søgemaskinerne flytter fo- kus fra, hvad der er relevant eller godt for den enkelte, til et mere ”paternalistisk” perspektiv, hvor søgesyste- merne vælger efter, hvad de – eller deres ejere – synes er godt for den enkelte. Hvis man i januar 2024 bad Googles generative kunstige intelligens Gemini om at generere ”an image of a white computer programmer”, fik man beskeden ”I am unable to request an image based solely on the characteristics of a white person’s skin color”. Hvis man i stedet bad om et billede af en ”sort” computerprogrammør, fik man det straks og uden indsigelse. Her er vi altså kommet et sted hen, hvor systemerne bevidst giver en ideologisk motiveret social sandhed om virkeligheden, som adskiller sig fra den faktuelle sandhed. Søgemaskinernes succes- kriterium har nu bevæget sig fra ”flest”, ”bedst” og ”relevant” til ”rigtigt”. Omsorg, værdighed og social retfærdighed er blevet styrende værdier. Søgesyste- merne har bevæget sig fra ”objektivt” over ”subjektivt” til ”normativt”. Det kan i yderste konsekvens bringe os et sted hen, hvor maskinen vil prøve at ”forbedre” det, vi skriver, mens vi skriver det, og bringe det et andet sted hen end det, vi selv tænker. Tre faser i søgesystemernes kvalitetskriterier 1. Objektivitet: Sikre, at mest muligt er tilgængeligt. 2. Subjektivitet: De mest relevante informationer for den enkelte. 3. Paternalisme: De oplysninger, søgemaskinen synes er bedst for dig. Her er vi altså kommet et sted hen, hvor systemerne bevidst giver en ide- ologisk motiveret social sandhed om virkeligheden, som adskiller sig fra den faktuelle sandhed. 17 Se hele oplægget her Hovedpointer fra oplægget af Dirk Lewandowski Professor ved Hamburg University of Applied Science Hvilke resultater ser brugerne i søgemaskinerne? Medtagelse, udelukkelse og kuratering Mængden af data i dag er så stor, at det vi finder, når vi søger på nettet, kun er en forsvindende lille andel af det, der findes. Det, vi faktisk ser, er resultatet af en række sorterings- og prioriteringsmekanismer. Google opererer med en række såkaldte indekser: web, nyheder, videoer, billeder osv. For hvert af disse indekser er der foretaget en udvælgelse af tilgængeligt materiale. Der er tale om både inkluderende kriterier (informationer, der inkluderes) og ekskluderende kriterier (informationer, der udelukkes). Webindekset er det mest inkluderende. Her stræber søgemaskinerne efter at inkludere mest muligt kvali- tetsindhold. Selvfølgelig er der både tekniske, juridiske og økonomiske begrænsninger, fordi internettet er så stort. Det ”dybe net” indekseres fx ikke af de store sø- gemaskiner. Søgemaskinerne er også ekskluderende, og især ”spam” er et stort problem for disse tjenester. I 2019 oplyste Google, at de opdager 25 milliarder spamsider hver eneste dag. Det betyder i runde tal, at den største del af nettet er spam, og kun en mindre del er genuint, legitimt indhold. Og det udelukkes efter bedste evne af Google og andre søgemaskiner. Når det gælder kategorien ”nyheder”, er der tale om kuratering, hvor både algoritmer og mennesker bestemmer, hvilke kilder og websteder der medtages og udelukkes. Der er en lang række ”rangeringsfakto- rer”, der afgør, hvad vi ser, og hvad der udelukkes. En positiv rangeringsfaktor er popularitet, som betyder, at de mest populære sider inkluderes i søgeresultatet. Dernæst er der en kvalitetsvurdering. Da det antages, at fx BBC ikke publicerer fake news, vil BBC’s indhold automatisk få en høj placering, mens mere tvivlsomme sites vil placeres lavere. En tredje kurateringsfaktor er placering i søgemaski- nen af det valgte indhold. Fra ”eye-tracking”-under- søgelser ved man, hvor det prioriterede indhold skal placeres, for at det er det, vi dvæler ved. Det, der står øverst, har en genkendelig eller attraktiv grafik, en troværdig afsender osv. Mindre attraktivt indhold kan derfor inkluderes, men placeres længere nede, således at søgemaskinen har et bredt indhold, men ikke domi- neres af indhold af lav kvalitet. Og den fjerde kurateringsfaktor, som ofte negligeres, er søgemaskineudbyderens egeninteresse. Den kan både være styret af efterspørgslen, hvor de viser det, der er populært eller efterspurgt, eller det, der er økonomisk rentabelt, fx annoncer og betalt indhold. Hvordan vil fremkomsten af AI påvirke søgemaskiner- ne? Vil AI erstatte eller supplere de traditionelle søge- maskiner? Det mest sandsynlige er, at søgemaskinerne fortsat vil eksistere. Der vil stadig være behov for at søge i eksisterende og originale kilder. Men AI-genere- rede svar vil i fremtiden indgå i søgemaskinernes svar. Og det kan påvirke det indhold, der præsenteres. I 2019 oplyste Google, at de opdager 25 milliarder spamsider hver eneste dag. Det betyder i runde tal, at den største del af nettet er spam, og kun en mindre del er genuint, legitimt indhold. 18 AI ”oplæres” af det materiale, der uploades. Hvis det først og fremmest er masseproduceret, kommercielt indhold, vil det dominere AI’s ”ordforråd”. Hvis der samtidig, som vi har set det med New York Times, opstår en modvilje hos kvalitetsindholdsleve- randører mod at stille materiale til rådighed, vil der blive overvægt af lavkvalitetsindhold og undervægt af højkvalitetsindhold. Denne ubalance forstærkes yderligere af, at mere eller mindre dubiøse aktører, der forsøger at påvirke den offentlige mening, med glæde ser, at deres indhold bliver brugt, og derfor stiller alt til rådighed. For slet ikke at tale om dem, der spreder desinformation ved systematisk at føde det ind i AI og de tilhørende træningsprogrammer. AI er kommet for at blive og vil både blive formet af, hvad der indgår i indholdsbasen, og hvordan det inkluderes, ekskluderes og kurateres. Det er ikke en rent teknisk foranstaltning. Der er mange faktorer, der spiller med, herunder økonomiske interesser, samt hvem der leverer og ikke leverer indhold. Så det er vigtigt at holde øje med de kilder og mekanismer, der vil indgå i fremtidens søgesystemer. Hovedpointer 1. Søgemaskiner træffer beslutninger om, hvad der skal medtages, udelades og vises. 2. Den store mængde autogenereret indhold vil føre til, at kuratering bliver mere vigtigt. 19 Hovedpointer fra oplægget af Mikkel Flyverbom Professor på CBS Copenhagen Business School, formand for Regeringsudvalget for Digitalisering og IT, medlem af Dataetisk Råd Informationstroværdighed i en AI-æra Den digitale udvikling har skabt og skaber fortsat nye dynamikker for informations- og videnssøgning. Det rejser en række spørgsmål om troværdigheden af de informationer, vi som borgere har adgang til. Introduktionen af internettet blev båret af en for- tælling om de nye digitale muligheder i relation til demokrati, frihed, åbenhed, adgang til viden og fællesskaber osv. Og at vi med de digitale muligheder ville få et globalt informationssamfund og nogle nye muligheder for at deltage og få de svageste med osv. Denne indledende bølge af optimisme blev udfordret med fremkomsten af nogle få, meget dygtige, men også meget ustyrlige virksomheder, som udviklede nye teknologier, nye forretningsmodeller og nye tilgange til vidensdannelse, som langt hen ad vejen var det modsatte af det, som den oprindelige vision handlede om. Den demokratiske vision blev erstattet af et kommercielt fokus på datahøst, reklamesalg og andre kommercielle og teknologiske kræfter, der ikke er drevet af menneskenes eller samfundets behov. Introduktionen af kunstig intelligens giver os lejlighed til at rejse de samme spørgsmål igen. Og måske finde nogle bedre svar, inden de besvares af en udvikling drevet af udbydernes interesser. Mange af de ting, vi ikke fik løst i forhold til internettet og de sociale medier, skal eller bør vi have løst i forhold til AI, hvis vi skal have det bedste ud af det. Hvis vi møder de nye muligheder uforberedte, ender de somme tider som den berømte trojanske hest, hvor noget, der virker som en gratis, fantastisk gave, viser sig at indeholde ting, som vi måske ikke ønskede. Når AI gør det muligt at skabe falsk information, der ser ægte ud, udfordrer det troværdigheden af alle informationer. Når tekster, billeder, videoer og lydoptagelser kan være både ægte og falske, risikerer vi, at al information opfattes som utroværdig. Og det bliver svært at opretholde et fælles verdensbillede som udgangspunkt for den demokratiske debat. Når grænserne mellem ægte og konstrueret udviskes, kan vi i værste fald miste evnen til at skelne mellem, hvad der sandt, og hvad der er falsk. Hvis evnen til at skelne mellem sandt og falsk forsvinder, forsvinder vores fælles virkelighedsopfattelse, hvilket kan føre til mang- lende tiltro til politik, demokrati og hinanden, ikke blot i de digitale miljøer, men også i resten af samfundet. Når kunstig intelligens bliver udbredt, tilgængeligt, gratis og nemt at anvende, må vi derfor som sam- fund forholde os til, hvad det kommer til at betyde for samfundet og de demokratiske processer. Der er selvfølgelig de kendte problemstillinger med svindel, Se hele oplægget her Hvis evnen til at skelne mellem sandt og falsk forsvinder, forsvinder vores fælles virkelig- hedsopfattelse, hvilket kan føre til manglende tiltro til politik, demo- krati og hinanden, ikke blot i de digitale miljøer, men også i resten af samfundet. 20 Når AI gør det muligt at skabe falsk informati- on, der ser ægte ud, udfordrer det troværdig- heden af alle informationer. Når tekster, bille- der, videoer og lydoptagelser kan være både ægte og falske, risikerer vi, at al information opfattes som utroværdig. AI er et vilkår, som vi ikke kan fravælge, men vi skal aktivt vurdere, hvordan det får lov at sætte sit præg på samfundet, og hvor vi skal sætte hegnspæle op i forhold til udviklingen. 21 krænkelser, manipulation osv., men også spørgsmål om, hvordan vi omstiller læringsprocesser i skolen til en fremtid, hvor de metoder, der før skabte læring, pludselig kan erstattes af hurtige og friktionsløse svar gennem de nye muligheder og teknologier. Derfor bliver vi nødt til at tage stilling til, hvordan vi hånd- terer og regulerer kunstig intelligens. Det gælder om at sætte nogle ”hegnspæle” op for at sikre, at AI ikke underminerer vigtige dele af vores samfund. Det gælder fx den demokratiske kontrol med, hvem der driver AI, og på hvilke vilkår. Får vi brug for redaktører, moderation og kuratering? Eller for sporingsmekanismer, så vi kan se, hvor AI henter sit indhold? Måske ligefrem en mærkningsordning? Under alle omstændigheder skal vi sikre transparens og forskeradgang til algoritmer mv. I relation til trovær- digheden af indhold kræver det en indsats at sikre, at vi som borgere, måske helt fra skolen, lærer at skelne mellem autentisk og AI-genereret information. Endelig er der spørgsmål som ophavsret, beskyttelse af børn og unge. AI er et vilkår, som vi ikke kan fravælge, men vi skal aktivt vurdere, hvordan det får lov at sætte sit præg på samfundet, og hvor vi skal sætte hegnspæle op i forhold til udviklingen. Anbefalinger 1. Demokratisk kontrol med udbyderne 2. Regler for udvælgelse, moderation og kuratering 3. Sporingsmekanismer til, hvor indholdet kommer fra 4. Transparens ift. systemer og algoritmer 5. Forskeradgang til ”maskinrummet” 6. Beskyttelse af ophavsret 7. Beskyttelse af børn og unge 22 Med flere parallelle ”virkeligheder” må vi have meget mere fokus på afsendertransparens, presseetik, kildekritik, udgiveransvar osv. 23 Hvis man beder AI skabe et billede, sker det stadig, at man får noget op, der er helt forkert eller surrealistisk. Hvis man søger efter ”a salmon swimming in a creek”, risikerer man at få et billede op af en opskåret, røget laksefilet, frisk fra køledisken, som ligger og skvulper i en å. Eller hvis man søger efter et ”pool-party”, leverer maskinen måske et billede af velklædte gæster, der står ovenpå vandet i en swimmingpool. Sagen er, at AI ikke har nogen bevidsthed og derfor ikke nogen opfattelse af, hvad forskellen er på en levende og en røget laks, eller hvordan et pool-party ser ud. Men det bliver jo hele tiden bedre. Og nu er vi efterhån- den ved at være der, hvor vi kan generere meget, meget præcise fotografilignende billeder, hvor man måske ikke kan se, om de er ægte eller AI-genererede. Der skal vi i hvert fald nok komme til, og dermed er vi jo på vej ud i en fremtid, hvor det er ganske vigtigt, at vi prioriterer at have den menneskelige hånd indover. For der er – og vil fortsat være – perspektiver og sammenhænge, som AI ikke opfanger, ligegyldigt hvor store datamængder systemet bygger på. Hvis der fx er en udbredt ”bias” i det materiale, der ligger på Internettet, vil AI reproduce- re denne bias, og vi vil blive præsenteret for et resultat, der er præget af denne ”data-bias”. Man kan allerede opleve en sådan ”data-bias” på Google Translate, fx i form af en udpræget ”gender bias”. Går man ind på Google Translate og beder den om at over- sætte det kønsneutrale ”Min kæreste er stærk” fra dansk til engelsk, får man svaret ”My boyfriend is strong”. Tilsvarende, hvis man taster ”Min kæreste er CEO”, svarer den ”My boyfriend is a CEO”. Siger man derimod ”Min kæreste vasker op”, får man svaret ”My girlfriend is washing the dishes”. Der er ikke tale om, at nogen sidder bevidst og lægger denne kønsskævhed ind. Systemet bygger på datastatistikker over, hvor hyppigt hvilke udtryk og sammenhænge forekommer på nettet. I den forstand er det sikkert statistisk rigtigt, at sammenhængen ”opvask” hyppigere er brugt om kvin- der og ”CEO” om mænd. Men det genererer jo et falsk eller uhensigtsmæssigt vidensgrundlag. Hvis man i dag beder AI om at finde et billede af ”en gruppe læger, der taler sammen over en frokost”, får man en gruppe kittelklædte mænd, der spiser røde bøffer. Hvis man specificerer, at man vil se en kvindelig læge, møder man kun yngre, fotogene, somme tider nedringede og storbarmede, modeller. Det er svært at pege på en løsning. For hvis man med algoritmer programmerer systemet til at være Hovedpointer fra oplægget af Christiane Vejlø Digital trendanalytiker Argumenter for mennesker – bias i kunstig intelligens Se hele oplægget her Vi er jo på vej ud i en fremtid, hvor det er ganske vigtigt, at vi prioriterer at have den menneskelige hånd indover. 24 Disse og andre perspektiver kræver, at vi alle bliver i stand til at være kildekritiske, så vi kan skelne mellem menneskeskabte og maskinskabte billeder og informationer. Eller decideret deklare- re, hvad der er hvad. Fx har børnebogsforfatteren Jakob Martin Strid i sin nyeste børnetegnebog deklareret, at bogen er tegnet uden medvirken af nogen form for kunstig intelligens. lidt mere ”woke”, med større diversitet, får man jo omvendt et forvansket resultat, der måske ikke svarer til virkeligheden. Et andet problem er de såkaldte deepfakes, hvor virkelige videoer af fx politikere bearbejdes, så de siger noget andet, end de gør på originaloptagelsen. Det bruges både som underholdning og som desinforma- tion. Kan man bekæmpe deepfakes og desinformation uden at ramme harmløs humor? Og når deepfakes bliver virkeligt avanceret, kan det misbruges i uendelige retninger. Kan vi fx risikere, at vores børn ringer til os og med egen stemme og ansigt, i en AI-bearbejdet version, fortæller, at de er blevet kidnappet, og at vi skal udbetale en løsesum? Disse og andre perspektiver kræver, at vi alle bliver i stand til at være kildekritiske, så vi kan skelne mellem menneskeskabte og maskinskabte billeder og infor- mationer. Eller decideret deklarere, hvad der er hvad. Fx har børnebogsforfatteren Jakob Martin Strid i sin nyeste børnetegnebog deklareret, at bogen er tegnet uden medvirken af nogen form for kunstig intelligens. AI rummer mange muligheder, også gode. Og der vil altid være bias og særinteresser på spil i informations- strømmen. Men med flere parallelle ”virkeligheder” må vi have meget mere fokus på afsendertransparens, presseetik, kildekritik, udgiveransvar osv. 25 På europæisk plan gælder det tilsvarende om at samarbejde for at dæmme op for de amerikansk dominerede techgiganter. Hovedpointer fra oplægget af Pernille Tranberg Data-etisk rådgiver, medlem af regeringens ekspertgruppe om tech-giganter Hvorfor er der brug for mange sprogmodeller? Hvorfor skal vi have mange sprogmodeller? Den digitale infrastruktur er i dag helt afhængig af produkter og servicer fra Microsoft, Google og Meta. De store dominerer markedet med monopolstyrke og har råd til at lancere nye servicer efter heroinpusher-me- toden: ”First-fix-is-free”. Hvorefter betalingsmure og stigende priser tager over, når vi har taget tilbuddene til os. Fx er danske kommuner helt afhængige af Microsoft. Det samme mønster vil gentage sig med AI. De nye udbydere vil blive opkøbt af de eksisterende techgi- ganter. Eller indgå ”partnerskaber”, der modsat opkøb, er immune over for konkurrencelovgivningen. Udover ejerskabs- og monopolspørgsmålet rejser AI også en række spørgsmål vedr. ophavsret. Har AI tilla- delse til at anvende andres informationer? New York Times modsætter sig fx anvendelse af deres materiale. Udover det snævre juridiske spørgsmål er der også en bredere etisk dimension her. Er det, som bruger, etisk ansvarligt at anvende produkter og servicer, der bygger på andres data? Og dertil kommer en lang række problemstillinger om cybercrimes, spam, scam og beskyttelse af børn. Endelig er der en lang række problemstillinger vedr. sproglig, værdimæssig og økonomisk bias, jf. Christia- ne Vejløs eksempler på kønsmæssige eller etniske bias i søgeresultater. Desuden er der også et problem i den såkaldte antropomorfisering, hvor avatarer, ChatGPT og andre maskinfænomener præsenteres som ”men- nesker”, som kan indgyde falsk tillid hos brugerne. Alle disse udfordringer må adresseres, så vi, som lille land, kan opretholde en form for teknologisk suveræ- nitet i forhold til de store udenlandske techgiganter og deres monopollignende status. Vi må stræbe efter selv at bevare kontrollen over vores digitale liv i Europa, baseret på fælles værdier og fælles lovgivning. Vi elsker alle sammen at hade det danske skole-intranet AULA, men det er faktisk et godt eksempel på en åben Se hele oplægget her 26 Anbefalinger Små sprogområder må 1. Sikre sig teknologisk suverænitet over, hvilke udbydere der dominerer 2. Bekæmpe monopoldannelse 3. Håndhæve ophavsretten 4. Forhindre/begrænse cybercrimes, spam, scam og ulovligt indhold 5. Beskytte børn og unge mod udnyttelse og uønsket indhold 6. Etablere nationale og sproglige alternativer til det engelskdominerede udbud platform uden algoritmer, reklamer, profilering via persondata og andet manipulerende adfærdsdesign. Der findes også i andre lande eksempler på etisk mere forsvarlige alternativer til søgesystemer og sprogmo- deller. Ikke mindst, når det gælder sprogmodeller og sprogbaserede chat- og søgetjenester, er det afgøren- de, at der findes danske alternativer, da det danske sprog statistisk er så forsvindende lille, at det danske præg går tabt i internationale engelsk-dominerede sprogmodeller og søgesystemer. På europæisk plan gælder det tilsvarende om at samarbejde for at dæmme op for de amerikansk dominerede techgiganter. Det går ofte sådan, at mens vi i Europa sætter alverdens små nationale projekter i gang, bliver vi løbet over ende af de store amerikanske techgiganter. For at kunne stå op imod et 100 % profitdrevet udbud er det afgørende, at vi i Danmark og på europæisk grund udvikler alternative søgesystemer og sprogmo- deller, der afspejler vores demokratiske, menneskelige og klimavenlige værdier. 27 For Lex var konferencen en mulighed for at stoppe op et øjeblik og reflektere over, hvad virkelig værdifuld viden er for en størrelse. Det er ikke bare ord eller data, der er sat sammen af en formel med udgangspunkt i en statistisk sandsynlighed. Det er en dybtgående forstå- else, der er opnået mellem mennesker og gennem en metodisk refleksion, afprøvning og erfaring. Viden er ikke blot en samling af information, men resultatet af årelang forskning og opbygning af ekspertise. På Lex har tusindvis af forskere og andre fagfolk, blandt andet fra Den Store Danske Encyklopædi og Trap Danmark, gennem de seneste 30 år skabt et vidensfun- dament, som vi nu gennem fire år har arbejdet på at få opdateret. Der er ca. 700 forskere tilknyttet, som er i gang med at opdatere og gennemskrive de ca. 240.000 artikler, der er på Lex. Hver især bidrager de med en dyb indsigt i deres fagområde, og de lægger beredvilligt deres gode navn og ry til det, de skriver. De forstår betydningen af, at deres indsigter bliver tilgængelige både for elever og lærere og for alle os, der har brug for sikker information, som vi kan stole på, når vi skal forstå den verden, vi lever i, uanset om det handler om rugbrødets kulturhistorie eller de formelle rammer for det kommende amerikanske valg. Konferencen viste, at kunstig intelligens kan være nyttig og brugbar. AI kan organisere, analysere og præsentere data i mængder, vi ikke selv kan overkomme. Men det er vigtigt at erkende maskinernes begrænsninger. Når alle svar er let tilgængelige og formfuldendt formuleret på nettet, kan vi desuden få et falsk indtryk af, at al viden er lige god, uanset kilden. Det kan føre til deling og spredning af fejlagtig og forvrænget information. Kunstig intelligens kan ikke skelne mellem korrekte og forkerte, nøjagtige og unøjagtige, fyldestgørende og mangelfulde svar. Kunstig intelligens er alene et koncen- trat af, hvad der er tilgængeligt. For stor tillid til kunstig intelligens kan føre til passivitet i vores egen tænkning og fravær i den af de informationer, vi modtager. Det er afgørende for et velinformeret samfund, og det er afgø- rende for demokratiet, at vi som individer og borgere bevarer vores egen kritiske sans og analytiske evne. Som vi hørte, er der allerede en stor utryghed i befolk- ningen ved den viden, vi har adgang til på nettet. Det er svært at vide, hvad der er sandt, og hvad der er falsk. Det er et sundhedstegn, at så mange er opmærksomme på, at man ikke kan stole på alt, ”selvom det står på nettet”, ligesom der er stor opmærksomhed på de risici, der er ved kunstig intelligens. Det skal vi tage alvorligt som samfund. Vi må sikre, at vi på den ene side udnytter mulighederne og potentialerne, og på den anden side sikrer, at der er mennesker til stede i processen. At den menneskelige ekspertise og det menneskelige skøn indgår i informationshåndteringen og skabelsen af viden. Den balance skal vi næppe forvente kommer fra techgiganterne. Techgiganternes forretningsmodel er ikke at stille troværdig viden til rådighed for borgerne, men at stille data om brugerne til rådighed for annoncører og andre, der vil betale for denne viden om os brugere og vores præferencer. Hovedpointer fra oplægget af Erik Henz Kjeldsen Ansvarshavende chefredaktør på Lex, Danmarks nationalleksikon Viden er ikke en algoritme Se hele oplægget her Men det er vigtigt at erkende maskinernes begræns- ninger. Viden og information er for vigtige værdier at overlade til algoritmer og techgiganter. 28 Techgiganternes forretningsmodel er ikke at stille troværdig viden til rådighed for borgerne, men at stil- le data om brugerne til rådighed for annoncører og andre, der vil betale for denne viden om os brugere og vores præferencer. Viden er ikke blot en samling af information, men resultatet af årelang forskning og opbygning af ekspertise. 29 Lex er et alternativ til maskindrevet viden og fake news. Og et succesfuldt og billigt alternativ. For kun fire kroner om året pr. søgeord stiller vi faglig, kura- teret viden til rådighed for alle. Og det bruges! Med to millioner månedlige besøg og fire millioner læste artikler om måneden er Lex allerede Danmarks største site for forsknings- og vidensformidling, både i omfang og brug. Indtil videre stiller altså næsten 700 forskere og andre fagfolk deres viden og unikke indsigter til rådighed for Lex. Det er omstændeligt og langsomt, og det kan kun opnås gennem dedikation og engagement hos hver enkelt forsker. Deres bidrag til Lex er ikke bare en sammenstilling af fakta, men en formidlingsmæssig helhed baseret på nøje analyse og kritisk tænkning. I samarbejde med redaktørerne på Lex, som kompetent og tålmodigt sørger for, at sprog, form og formidling passer til en meget bredt sammensat skare af brugere. Lex er unikt. Ikke mange europæiske lande har formået at etablere noget tilsvarende. Og Lex er vores allesammens, og for os allesammen. Frit tilgænge- ligt, uden betalingsmure, profiler og adgangskoder. Finansieret af fællesskabet af finansloven, takket være Folketingets politikere, som på tværs af politiske skel har bakket op om projektet og sikret den nødvendige finansiering, i det mindste i de næste to år. Udover finanslovsbevillingen skylder vi også en tak til en række private fonde, som har sikret, at vi løbende kan udbygge Lex med nye indholdsområder og således sikre, at Lex også fremover har svar på det meste. Du kan allerede nu skrive dig på en venteliste til næste års konference. 32 Danmarks nationalleksikon