Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")

Tilhører sager:

Aktører:


    lex-hvidbog-2024-web

    https://www.ft.dk/samling/20231/almdel/diu/bilag/162/2899238.pdf

    SÅDAN STYRER
    TECHGIGANTERNE
    OG KUNSTIG
    INTELLIGENS DIN
    ADGANG TIL VIDEN
    PÅ NETTET
    Hvidbog på baggrund af konference
    den 3. april 2024
    Danmarks nationalleksikon
    Offentligt
    DIU Alm.del - Bilag 162
    Udvalget for Digitalisering og It 2023-24
    2
    Kolofon:
    Sådan styrer techgiganterne og kunstig intelligens
    din adgang til viden på nettet
    Hvidbog på baggrund af konference den 3. april 2024
    © Foreningen lex.dk
    April 2024
    Redaktion: Erik Henz Kjeldsen
    Tryk: Christensen Grafisk
    Konferencen blev arrangeret af:
    Danmarks nationalleksikon
    Se hele konferencen
    Indhold
    Forord....................................................................................5
    Sociale medier, tech og demokrati: Hvad synes danskerne
    om indhold, der er bestemt af algoritmer?
    Hovedpointer fra Mads Bramsens oplæg................................7
    Kunstig intelligens i skolen – mulighed for gentænkning
    Hovedpointer fra Birgitte Vedersøs oplæg............................. 11
    Søgemaskiner, viden og magt i et historisk perspektiv
    Hovedpointer fra David Runcimans oplæg.............................13
    Algoritmer og det åbne samfund: Kuratering, filtrering
    og søgning
    Hovedpointer fra Thore Husfeldts oplæg...............................15
    Hvilke resultater ser brugerne i søgemaskinerne?
    Medtagelse, udelukkelse og kuratering
    Hovedpointer fra Dirk Lewandowskis oplæg ..........................17
    Informationstroværdighed i en AI-æra
    Hovedpointer fra Mikkel Flyverboms oplæg........................... 19
    Argumenter for mennesker – bias i kunstig intelligens
    Hovedpointer fra Christiane Vejløs oplæg.............................23
    Hvorfor er der brug for mange sprogmodeller?
    Hovedpointer fra Pernille Tranbergs oplæg...........................25
    Viden er ikke en algoritme
    Hovedpointer fra Erik Henz Kjeldsens oplæg........................27
    5
    Forord
    I dag ”googler” vi, når vi søger viden, og mange af os
    har nok den forestilling, at søgemaskinerne giver os
    adgang til alt eksisterende indhold på nettet om det,
    vi skriver i søgefeltet. Men sådan er det langtfra. Dels
    er det ikke teknisk muligt for søgemaskinerne at finde
    alt indhold, dels udvælger og prioriterer de, hvilket
    indhold den enkelte bruger skal præsenteres for. Det
    sker på baggrund af søgemaskinens viden om vores
    interesser, præferencer og tidligere søgninger.
    Kunstig intelligens vil revolutionere vores søgning efter
    viden. I fremtiden vil samtalerobotter levere endnu
    mere skræddersyede svar og anbefalinger, baseret
    på vores præferencer og adfærd på nettet. På den
    ene side vil det skabe en mere interaktiv og personlig
    oplevelse, hvor vi kan få samlede svar på det, vi søger
    efter, uden at skulle igennem lange søgeprocesser.
    Men på den anden side vil vi ikke længere vide, hvilket
    grundlag udvalget er foretaget på, eller hvilke kilder
    svaret bygger på. Den manglende sikkerhed om
    grundlaget for vores adgang til troværdig viden kan
    skabe utryghed og udfordrer både den enkelte bruger
    og samfundet.
    Som et bidrag til en kvalificering af, hvordan vi som
    samfund både kan bevare og udvikle vores forståelse
    af, hvordan viden skabes, tilgængeliggøres og deles,
    afholdt Lex - Danmarks nationalleksikon, i samarbejde
    med en række andre danske vidensinstitutioner, den
    3. april 2024 en konference med danske og udenland-
    ske eksperter om techgiganter, kunstig intelligens og
    andre dimensioner af moderne videnssøgning.
    Det er anden gang, Lex er vært for en sådan konfe-
    rence, og det er planen, at disse konferencer skal
    være årligt tilbagevendende begivenheder. Det skal
    understreges, at hvidbogens resumeer ikke er skre-
    vet af forfatterne selv, men er sammenfattet af Lex’
    redaktion. Ansvaret for resumeerne påhviler således
    alene Lex. De fulde versioner af oplæggene kan tilgås
    via streaming på mere.lex.dk.
    Årets konference blev fulgt af et fyldt auditorium på
    Københavns Universitet samt af cirka 800 deltagere,
    der fulgte med via den direkte streaming af konferen-
    cen. Konferencen i 2023 blev efterfølgende streamet
    ikke mindre end 20.000 gange, og vi håber, at årets
    konference vil blive mindst lige så udbredt.
    Tak til alle, der mødte op, alle, der kiggede med via
    streaming, til de 9 oplægsholdere, paneldeltagerne
    – og til vores samarbejdspartnere: Danske Universite-
    ter, Danske Professionshøjskoler, Danske Gymnasier,
    Danmarks Biblioteksforening og Danske Medier, samt
    til Københavns Universitet for at huse os.
    Niels Elers Koch
    Bestyrelsesformand for Lex
    - Danmarks nationalleksikon
    6
    6 ud af 10 adspurgte mener, at det er et demokratisk
    problem, at det indhold, man får i sit feed, er udvalgt
    eller kurateret af algoritmer og techgiganter.
    7
    Udviklingen inden for informationssøgning og ind-
    holdsmoderation er en dagsorden, som de sidste par år
    er blevet forankret bredt i både Folketinget
    og centraladministrationen.
    Således fremgår det af såvel regeringsgrundlaget
    som den seneste medieaftale, at man vil arbejde for
    den demokratiske kontrol med techgiganterne. Det
    nye Center for Sociale Medier, Tech og Demokrati
    udspringer direkte af medieaftalen. Centret begyndte
    sin virksomhed i november 2023 og har til opgave at
    følge udviklingen inden for bl.a. informationssøgning og
    indholdsmoderation.
    Som en af sine første opgaver har centret gennemført
    en undersøgelse om techgiganterne og deres påvirkning
    af virkeligheden og samfundet. Hvor får vi vores viden
    fra? Og hvordan påvirker det vores demokrati, vores
    demokratiske institutioner, tilliden til hinanden, tilliden
    til institutioner, sammenhængskraften osv.?
    På baggrund af den indsamlede viden skal Center for
    Sociale Medier, Tech og Demokrati rådgive politikere
    og beslutningstagere og bidrage til Danmarks policy-
    udvikling både nationalt og internationalt. Da der med
    techgiganterne er tale om meget store globale virk-
    somheder, som det er svært at regulere nationalt, har
    lovgivnings- og reguleringsindsatsen primært været lagt
    i hænderne på EU, som de sidste par år har gennemført
    nogle meget store lovpakker på området.
    Ifølge centrets undersøgelse er mere end 9 ud af 10
    af de adspurgte danskere jævnligt på sociale medier,
    og endnu flere bruger søgemaskiner til at søge infor-
    mationer. Mere end to tredjedele af befolkningen
    får også deres nyheder fra sociale medier, og særligt
    for de yngre generationer er de sociale medier deres
    primære nyhedskilde.
    Et ændret informations- og nyhedsmønster betyder en
    ændret rammesætning af den offentlige samtale.
    Hovedpointer fra oplægget af
    Mads Bramsen
    Centerchef, Center for Sociale Medier, Tech og Demokrati, Slots- og Kulturstyrelsen
    Sociale medier, tech og demokrati:
    Hvad synes befolkningen om indhold,
    der er bestemt af algoritmer? Se hele oplægget her
    Danskerne er overvejende enige i, at det er en demokratisk udfordring,
    at algoritmer bestemmer det indhold, man præsenteres for online.
    Algoritmisk tilpasning af indhold
    0% 20% 40% 60% 80% 100%
    30 29 19 5 3 15
    32 17 7 3 12
    Det er en demokratisk udfordring, hvis det ind-
    hold, man præsenteres for på online platforme,
    er bestemt af algoritmer
    Jeg er bekymret for, at jeg får et skævt billede
    af aktuelle begivenheder i Danmark, når det
    indhold jeg præsenteres for online, er bestemt af
    algoritmer og tilpasset mig
    Enig Overvejende enig Hverken enig eller uenig Overvejende uenig Uenig Ved ikke
    30
    Kilde: Mads Bramsens præsentation
    8
    Hvad betyder det for den offentlige samtale, at debatten
    flytter fra ølkasserne, forsamlingshusene og læserbreve-
    ne til den digitale verden, hvor selve rammesætningen
    af debatten er defineret af nogle meget store globale
    virksomheder, som ikke afspejler dansk kultur og
    danske værdier og i sagens natur ikke ved, hvad der i en
    dansk kontekst er vigtigt at bringe ind i den offentlige
    samtale? Hvad betyder det fx, at det er private, kom-
    mercielle virksomheder, der regulerer vores adgang til
    skadeligt og ulovligt indhold? DR har for nylig dokumen-
    teret, at mange børn og unge udsættes for voldsomt
    indhold på de sociale medier (i dokumentaren ”Alene
    hjemme på nettet”). Indhold, som dumper ned i deres
    feed, uden at de har efterspurgt det. Hvilke algoritmer
    ligger bag? Hvorfor ligger der åbenlyst ulovligt indhold,
    som af og til endog er i direkte strid med platformens
    egne retningslinjer? Hvorfor ligger det frit tilgængeligt?
    Der er også brug for at fokusere på, hvordan ytrings- og
    informationsfriheden sikres på medier med algoritmisk
    visning. Vi får kurateret noget indhold. Nogen/noget
    kommer frem, noget kommer ikke frem. Noget bliver
    modereret væk. Og noget får lov til at få utrolig stor
    spredning og rækkevidde. Og det er ikke blot det, vi sø-
    ger, der er sorteret af andre. Også det, vi selv publicerer,
    sorteres og prioriteres af andre, som kan fjerne indhold,
    hvis det overtræder deres egne retningslinjer. Og lade
    andet stå, der er ulovligt i de lande, hvor det spredes.
    Hvordan bevarer og beskytter vi ytringsfriheden i den
    sammenhæng? Og hvordan sikrer vi, at der ikke ligger
    ulovligt materiale frit tilgængeligt på nettet?
    Center for Sociale Medier, Tech og Demokrati har
    kortlagt, hvilke spørgsmål der optager befolkningen,
    når det gælder de nye medier og deres betydning
    for den offentlige debat, herunder spørgsmålet om
    desinformation.
    Der er i befolkningen en oplevelse af, at debatten
    på sociale medier er ekstremt hadefuld og ekstremt
    polariserende. Den hårde tone og den polariserede
    debat betyder, at nogle ikke orker at deltage i debatten
    og give deres mening til kende.
    I forhold til spørgsmålet om desinformation er
    danskerne særligt bekymrede for, at den nye bølge af
    teknologi, med generativ AI, vil føre til, at alle informa-
    tioner pludselig opleves som utroværdige. Hvad gør
    det for tilliden til vores institutioner og vores demokra-
    tiske processer?
    2024 er et valgår i store dele af verden. Det fylder en del i
    befolkningens bevidsthed, at også valgdækningen præ-
    ges af indholdsmoderation og algoritmisk prioritering.
    6 ud af 10 adspurgte mener, at det er et demokratisk
    problem, at det indhold, man får i sit feed, er udvalgt
    eller kurateret af algoritmer og techgiganter. Det gælder
    både onlineplatforme, søgemaskiner og sociale medier.
    En ting er, hvad vi præsenteres for af produkter og
    reklamer. Men når det også er tilfældigt eller uigennem-
    skueligt, hvad vi præsenteres for i den demokratiske
    samtale, er der mere på spil. Et flertal af befolkningen
    er således ”overvejende bekymret” for, om de får et
    retvisende billede af tingenes tilstand.
    Vi mangler viden om platformens indholdsmoderation
    • Indholdsmoderation foregår ”behind-the-scenes”
    • Det har begrænset forskningen
    • Research gap om platformenes moderation og interne beslutninger
    • Vi har brug for gennemsigtighed og adgang til data
    Når vi søger via en
    søgemaskine,
    er det ikke alt,
    der kommer frem.
    Noget bliver
    modereret væk,
    mens andet får
    stor spredning og
    rækkevidde.
    9
    Anbefalinger
    1. Der er brug for at fokusere på, hvordan ytrings- og informationsfriheden sikres på medier med
    algoritmestyret prioritering og visning.
    2. Der er brug for mere gennemsigtighed og mere indsigt i mekanismerne bag indholdsmoderation,
    hvis vi skal forstå og håndtere rammesætningen af den offentlige debat og demokratiske samtale.
    3. Hvis vi skal kunne lave god politik, skal vi have en dyb forståelse af de tekniske sider af platforme,
    algoritmer og indholdsflow, og det kræver, at forskerne får fuld adgang til maskinrummet.
    Er de emner, der fylder i ”online”-debatten, også det,
    der reelt fylder ”offline” i hverdagen og det levede liv?
    Og er positionerne nu også så polariserede, som det kan
    komme til at fremstå?
    Når det gælder befolkningens holdning til indholdsmo-
    deration, og hvilke krav og kontroller, og hvilke grænser,
    der skal være for den, er der fuld eller stor tilslutning
    til, at techgiganterne skal tage et større ansvar for
    indholdet, og at staterne skal sikre, at de gør det. Men
    hvad betyder det for ytringsfriheden? Går vi ikke på
    kompromis med ytringsfriheden, hvis udbyderne eller
    staten modererer alt det ”skæve” væk, så det kun er
    de ”prægodkendte” holdninger, der får lov at overleve
    i debatten? Er det uforeneligt med ytringsfriheden, at
    kommentarer modereres eller fjernes? Svarene er lidt
    mere nuancerede her, men en overvejende del af de
    adspurgte finder det ikke umiddelbart skadeligt for
    ytringsfriheden, at onlinedebatter modereres.
    På baggrund af de indledende undersøgelser har
    Center for Sociale Medier, Tech og Demokrati rettet
    søgelyset mod samfundet. Er vi som samfund klædt på
    til at håndtere den algoritmiske visning af indhold? Er
    vi klædt på til at håndtere nye bølger af generativ AI
    m.m.? Samtidig fokuseres der på, hvad platformene
    selv gør – eller ikke gør. LinkedIn og det sociale medie
    X har fx slet ikke dansksprogede moderatorer. YouTube
    har nogle få, selvom det er dem, der har flest brugere.
    Meget er automatiseret moderation, men der skal også
    være fagfolk til at udvikle og definere den automatiske
    moderation og håndtere tvivlsspørgsmål i forhold til
    særlige danske kulturelle og værdimæssige positio-
    ner? Udfordringen er, at meget af den algoritmestyrede
    moderation er usynlig og uigennemsigtig, og derfor
    uoverskuelig. Der er brug for mere gennemsigtighed
    og mere indsigt i mekanismerne bag indholdsmodera-
    tion, hvis vi skal forstå og håndtere rammesætningen
    af den offentlige debat og demokratiske samtale.
    Fremadrettet vil Center for Sociale Medier, Tech og
    Demokrati se på spørgsmålet om misinformation og
    desinformation. Er vi som samfund rustet til at imøde-
    gå mis- og desinformation? En ting er techgiganterne,
    men det er også væsentligt at se på mediernes rolle? Er
    medierne rustede til at gennemskue desinformation?
    Og hvordan er vi rustede som brugere? Er vi rustet godt
    nok til at gennemskue misinformation og desinfor-
    mation? Og hvad med vores beslutningstagere, vores
    politikere? Hvordan undgår vi, at de falder for mis-
    og desinformation?
    Endelig er der spørgsmålet om forskeradgang. Det
    kan måske virke tørt for ikke-forskere. Men det er helt
    afgørende for os alle sammen, at hvis vi skal kunne
    lave god politik, skal vi have en dyb forståelse af de
    tekniske sider af platforme, algoritmer og indholds-
    flow, og det kræver, at forskerne får fuld adgang til
    maskinrummet.
    Den omtalte undersøgelse kan findes på
    Slots- og Kulturstyrelsens hjemmeside.
    10
    Ekspertgruppens anbefalinger
    Anbefaling 1: Prøverne skal gå på to ben – og kunne udprøve både med og uden
    digitale hjælpemidler
    Antallet af prøver, hvor det er muligt at snyde eller blive anklaget for snyd, bør begræn-
    ses, så fokus bliver på læring.
    Det samlede prøvebillede bør understøtte både udvikling af elevers viden og færdighe-
    der samt udvikling af kompetencer til at anvende og tage stilling til digitale værktøjer
    selvstændigt.
    Der bør tages udgangspunkt i rapportens syv generiske prøveformer der
    kan fungere som en rettesnor i forbindelse med eventuelle ændringer af de
    eksisterende prøveformer.
    Anbefaling 2: Løbende udvikling af prøver
    Der bør kunne ske ændringer i prøveformer med kortere aftræk end tidligere, så prø-
    verne løbende kan tilpasses omverdenen og ny teknologi.
    Børne- og Undervisningsministeriet opfordres til at inddrage relevante aktører til
    løbende drøftelser af prøveformer, samt hvilken af de syv generiske prøveformer, der
    kan anvendes fra fag til fag.
    Anbefaling 3: Brug af digital teknologi og kunstig intelligens som et
    strategisk indsatsområde
    Ledelsen på den enkelte institution bør sætte fokus på digitalisering, herunder kunstig
    intelligens som et redskab til læring.
    Kommunikationen og vejledningsindsatsen om digitale hjælpemidler ved prøverne
    bør prioriteres lokalt på institutionerne.
    Anbefaling 4: Undervisningen skal danne grundlag for nye prøveformer
    Ledelse og lærere bør indtænke digitale hjælpemidler i den daglige undervisning på
    tværs af fagene, så der skabes sammenhæng mellem undervisning og prøver.
    Ekspertgruppens anbefalinger blev offentliggjort efter konferencen og her gengivet efter
    https://www.regeringen.dk/nyheder/2024/ekspertgruppe-klar-med-anbefalinger-for-brug
    -af-chatgpt-ved-proever/
    11
    Når det gælder kunstig intelligens og dens plads i
    undervisningen, har undervisningssektoren i de første
    faser af udviklingen været præget af en vis rådvildhed.
    Derfor nedsatte børne- og undervisningsministeren
    i maj 2023 en ekspertgruppe med den opgave at se
    på kunstig intelligens’ indvirkning på eksamener og
    prøver samt de afledte konsekvenser for undervisnin-
    gen inden for hele ministeriets område, det vil sige
    grundskolen, ungdomsuddannelserne og voksenud-
    dannelserne. Ekspertgruppen skulle endvidere give
    nogle bud på, hvordan man kan fremtidssikre prøver-
    ne i en fremtid med kunstig intelligens. Ekspertgrup-
    pen er bredt sammensat, med både praktikere i form
    af skolefolk og eksperter, som har teoretisk viden både
    om læring og om teknologier.
    Det store dyr i åbenbaringen har hidtil været ”snyd”.
    Det fylder utrolig meget på landets skoler i øjeblikket
    at tale om snyd, fordi alting er blevet så let tilgænge-
    ligt, at man lynhurtigt kan få fabrikeret en tekst, der
    ligner en dansk stil eller en samfundsfagsrapport. Det
    har sat skolen under pres. Man kan sige, at generativ AI
    på mange måder sætter fortidens snyd på wc-ruller og
    små beskeder til vægs. Med AI har vi fat i noget, der er
    langt mere potent.
    Det har været vigtigt for gruppen at starte med at tale
    om undervisning og ikke om eksamen, fordi det er i
    undervisningen, at man præger eleverne. I en verden
    med AI kommer vi ikke til at vælge rigtigt, hvis vi går
    med den tilgang, at undervisningen skal indrettes efter
    en snydefri eksamensform.
    Frem for at tilrettelægge undervisningen med fokus på
    at undgå snyd til eksamen peger ekspertgruppen på,
    at man tilrettelægger undervisningen med sigte på en
    verden, hvor AI findes, og hvor opgaven er at klæde
    eleverne på til at kunne håndtere den nye teknologi
    på linje med andre teknologier og hjælpemidler.
    Fremtidens skole skal derfor fokusere på andet end
    selvstændig opgaveløsning og eksamensforberedelse
    uden hjælpemidler. Eleverne skal selvfølgelig kunne
    finde de rigtige svar på spørgsmålene. Men det gøres
    ikke ved bare at slukke for maskinerne. AI er et vilkår,
    som elever også skal kende - og lære at bruge. For AI
    rummer også muligheder. Tænk alene på, hvad det
    betyder for fx ordblinde elever, at de pludselig har
    mulighed for at formulere deres tanker på lige vilkår
    med deres jævnaldrende klassekammerater.
    Ekspertgruppen peger derfor på, at skolen flytter fokus
    fra snyd til læring. Fra at besvare spørgsmål til at stille
    de rigtige spørgsmål og søge troværdige svar. Der skal
    naturligvis stadig løses opgaver og besvares spørgs-
    mål. Også uden hjælpemidler. Men børnene skal lære
    at bruge de nye muligheder, herunder AI, som en del
    af fremtidens færdigheder, de såkaldte 21st Century
    Skills. Og med udgangspunkt i en mere tidssvarende
    undervisning bliver det lettere derefter at tale om de
    afledte konsekvenser for eksamen.
    Hovedpointer fra oplægget af
    Birgitte Vedersø
    Selvstændig ledelsesrådgiver i Vedersoe.co
    Formand for børne- og undervisningsministerens ekspertgruppe, der skal undersøge, hvordan de
    digitale hjælpemidler påvirker muligheden for snyd ved prøverne på landets skoler og institutioner
    Kunstig intelligens i skolen
    – mulighed for gentænkning
    Se hele oplægget her
    Man kan sige, at
    generativ AI på
    mange måder
    sætter fortidens
    snyd på wc-ruller
    og små beskeder til
    vægs. Med AI har vi
    fat i noget, der er
    langt mere potent.
    12
    De siger, de åbner verden og styrker dialogen, men de er
    jo ikke engang selv åbne for dialog. Du kan ikke e-maile
    til Facebooks moderatorer. Du kan ikke spørge Googles
    programmører, hvad de har gang i. De virksomheder,
    vi sætter til at bevogte demokratiet, er selv yderst
    udemokratiske.
    Hvor søgemaskinerne flyttede magt fra bor-
    gerne til techgiganterne, vil AI måske flytte
    magten et helt tredje sted hen, nemlig til
    maskinerne. Og det vil ikke kun være en for-
    ringelse af demokratiet, men i sidste ende
    enden på demokratiet.
    13
    Hovedpointer fra oplægget af
    David Runciman
    Professor ved Cambridge University
    Søgemaskiner, viden og magt i et
    historisk perspektiv
    Se hele oplægget her
    Mange vil sikkert huske starten på den digitale revoluti-
    ons tidsalder i 1990’erne og begyndelsen af 2000-tallet.
    Man troede dengang, at den nye informationsteknologi,
    ikke mindst med Google, ville være godt for demokratiet
    og ville rette op på den klassiske historiske ubalance i
    adgangen til informationer og viden. Visionen var, at
    den viden, der tidligere alene var reserveret beslut-
    ningstagere og magthavere, nu ville blive tilgængelig for
    almindelige mennesker. Og at denne demokratisering
    af adgangen til information ville gavne demokratiet.
    Tanken var, at det ville være meget svært for autoritære,
    autokratiske regimer at overleve i en tidsalder, hvor alle
    havde adgang til samme information som magthaverne.
    Nu, efter 30 år, ser vi, at demokratiet er svækket eller
    truet mange steder. Magten er stadig centraliseret.
    Autoritære og autokratiske regimer er blevet stærkere
    i Googles tidsalder. Hvordan rimer det med, at det, der
    skulle være godt for demokratiet, er endt med at være
    dårligt for demokratiet?
    Der er en række grunde til, at søgemaskiner ikke auto-
    matisk styrker demokratiet. En af dem er, at søgetjene-
    ster primært virker, hvis man ved, hvad man leder efter.
    Søgemaskiner er fortræffelige, hvis man ønsker at finde
    en dyrehandel eller en gammel ven, eller hvis man vil
    have et tip til fem spændende steder at besøge i Køben-
    havn. Men man går forgæves med spørgsmål som ”Hvad
    har min regering gang i?” og ”Hvad er en god sundheds-
    politik?”. Disse spørgsmål er centrale for den demokrati-
    ske debat, men en søgning på dem fører ikke til objektiv
    viden. Snarere til partipolitiske eller propagandistiske
    websteder. Søgning er simpelthen ikke velegnet til at
    skaffe svar på de væsentligste demokratiske spørgsmål.
    Den anden grund er, at søgemaskinerne selvfølgelig
    giver adgang til mere information, men hvis man virkelig
    vil udnytte muligheden for at sætte sig ind i for eksem-
    pel byrådets beslutninger, med tilhørende møderefe-
    rater, bilag og baggrundsmateriale, vil man blive udsat
    for et overload af informationer, som de færreste har tid
    og forudsætninger til at gennemskue. Heller ikke her er
    søgesystemer et velegnet demokratisk værktøj.
    Et tredje problem er, at den øgede adgang til viden går
    begge veje. Informationsteknologien giver borgerne
    adgang til mere information om de politiske beslutnin-
    ger. Men magthavere, regeringer og myndigheder får
    også adgang til mere information om borgerne. Og her
    er tale om en ”incitaments-ubalance”.
    Magthaverne har større incitament til at overvåge
    borgerne, end borgerne har til at overvåge politikerne.
    Dermed bliver informationsteknologien snarere til
    en overvågningsteknologi end en søgeteknologi. Det
    gælder i hvert fald de autoritære regimer.
    AI og ChatGPT kommer måske til at ændre nogle af
    disse ubalancer, der fulgte med den første generation af
    søgemaskiner. For det første er AI bedre end de traditi-
    onelle søgemaskiner til at besvare generelle spørgsmål.
    Hvis man spørger Google, hvad der ville være en god
    sundhedspolitik med et retfærdigt skattesystem i et
    samfund med en aldrende befolkning, vil man få et
    komplet usammenhængende og ubrugeligt resultat.
    Hvis man stiller det samme spørgsmål til ChatGPT, vil
    man måske også umiddelbart få noget vrøvl tilbage.
    Men det fantastiske ved AI er, at AI er iterativt. Man kan
    interagere og gå i dialog med AI. Det første bud vil måske
    være helt ved siden af. Men anden gang, tredje gang og
    fjerde gang vil man komme tættere på noget, der virker.
    Søgning er godt,
    hvis man ved, hvad
    man leder efter.
    Søgning er ikke et
    demokratisk redskab.
    14
    Det kan potentielt blive et demokratisk redskab for
    borgere, der ønsker et sammenhængende overblik
    over et emne.
    For det andet er AI bedre end søgemaskinerne til at
    opsummere kompliceret viden, så vi ikke drukner i
    information. Og for det tredje er AI bedre end de tradi-
    tionelle søgemaskiner til at gøre det tunge sorterings-
    arbejde i en stor mængde af informationer. Dermed
    kan AI blive borgernes personlige assistenter og rette
    op på den ubalance, der ligger i, at politikerne har et
    hold af embedsmænd til at tilgå, indsamle og systema-
    tisere information. AI-teknologien giver borgerne de
    samme muligheder.
    Så der er, i det mindste, et potentiale for, at den nye tids-
    alder af kunstig intelligens vil styrke borgernes deltagel-
    se i demokratiet. Det lyder besnærende. Men problemet
    er, at teknologien stadig er i hænderne på et lille antal
    magtfulde virksomheder, der ikke selv er demokratiske
    eller for den sags skyld interesserede i demokrati. De
    siger, de åbner verden og styrker dialogen, men de er
    jo ikke engang selv åbne for dialog. Du kan ikke e-maile
    til Facebooks moderatorer. Du kan ikke spørge Googles
    programmører, hvad de har gang i. De virksomheder, vi
    sætter til at bevogte demokratiet, er selv yderst udemo-
    kratiske, og det er det første problem.
    Et andet problem er, at den ”informations-ubalance”,
    der præger nutiden, også vil gælde i en fremtid med AI.
    Systemerne er gensidige. Magthaverne har den samme
    adgang til at overvåge borgerne, som borgerne har til
    at overvåge magthaverne. Men magthaverne har stør-
    re incitament til at anvende denne mulighed. Borgerne
    i et demokrati har, som vælgere, muligheden for at
    ”overraske” politikerne ved at stemme på nogle andre
    og dermed fremkalde forandringer, de ikke havde set
    komme. Hvis politikerne hele tiden ved, hvad vi mener,
    mister vi denne ”overraskelseseffekt”.
    Endelig er der det tredje problem ved de mere
    dialogprægede systemer som AI og ChatGPT, at vi ikke
    ved, om de afspejler vores tanker og behov, eller om
    det i virkeligheden bliver os, der kommer til at afspejle
    maskinernes programmer. Og dermed kommer til at
    leve i ”maskindemokratiets tidsalder”, hvor maskiner-
    ne påvirker eller i sidste ende bestemmer udfaldet af fx
    valg. Hvor søgemaskinerne flyttede magt fra borgerne
    til techgiganterne, vil AI måske flytte magten et helt
    tredje sted hen, nemlig til maskinerne. Og det vil ikke
    kun være en forringelse af demokratiet, men i sidste
    ende enden på demokratiet.
    Kernebudskaber
    1. Teknologien er stadig i hænderne på et lille antal magtfulde virksomheder, der ikke
    selv er demokratiske eller for den sags skyld interesserede i demokrati.
    2. Magthaverne har med AI samme adgang til at overvåge borgerne, som borgerne har
    til at overvåge magthaverne. Men magthaverne har større incitament til at anvende
    denne mulighed.
    3. Hvor søgemaskinerne flyttede magt fra borgerne til techgiganterne, vil AI måske flytte
    magten et helt tredje sted hen, nemlig til maskinerne.
    15
    Hovedpointer fra oplægget af
    Thore Husfeldt
    Professor i datalogi, IT-Universitetet i København
    Algoritmer og det åbne samfund:
    Kuratering, filtrering og søgning
    Søgesystemer og videnssøgning har været igennem
    flere forskellige faser gennem de seneste 25 år. Fra uni-
    versel søgning efter alt, prioriteret søgning via algorit-
    mer til fuldt personaliseret søgning via ChatGPT og AI.
    I første fase var søgemaskinernes opgave at finde alt
    eksisterende information på internettet. Internettet
    bestod dengang af statiske sider, som AltaVista eller
    andre ”søgemotorer” kunne finde frem til os via
    såkaldte hypertekstreferencer. Resultatet, ”forekom-
    sterne”, blev præsenteret i tilfældig rækkefølge uden
    nogen form for prioritering eller ”rangering”. Hvis man
    fx søgte på ”University”, fandt søgemaskinerne frem til
    alle forekomster af ordet i tilfældig, usorteret række-
    følge. Det kunne være alt fra University of Oregons
    afdeling for optisk fysik til Carnegie Mellon Universitets
    IT-supportgruppe. Målet for søgemaskinerne var at
    sikre indholdets universelle tilgængelighed. Den søge-
    maskine, der havde adgang til mest data, var bedst.
    Med Google skiftede fokus fra ”flest” forekomster til
    de ”bedste” forekomster. Google indførte den såkaldte
    siderangeringsalgoritme, hvor forekomsterne blev
    ”rangeret” efter et kvalitetskriterium. Men kvalitets-
    kriteriet var stadig objektivt. Alle, der ledte efter det
    samme, fik det samme.
    Det objektive rangeringssystem ændrede sig omkring
    2001-2002, hvor fokus skiftede fra, hvad der er ”godt”
    til, hvad der er ”relevant” for den enkelte bruger. Det
    berømte eksempel på den nye trend var en søgning
    på ”Paris Hilton”. Hvis anmodningen kom fra en 16-
    årig teenager i Minnesota, ledte søgningen hende til
    skuespilleren Paris Hilton. Men hvis en midaldrende
    forretningsmand foretog samme søgning, ville den
    lede ham til Hotel Hilton i Paris. Fra nu af var søgema-
    skinernes succeskriterium ikke længere ”flest” eller
    ”bedst”, men ”relevant” for den enkelte. Der skete en
    personalisering af søgetjenesterne. Søgekriterierne
    gik fra objektivt til subjektivt. Det nødvendiggjorde
    imidlertid, at søgemaskinerne indsamlede data om
    de enkelte brugere. Datahøsten satte ind. Viden om
    brugerens øvrige præferencer blev udslagsgivende
    for, hvilke informationer han eller hun fik frem ved en
    søgning. Hvis en politisk interesseret bruger søgte på
    ”Egypten”, blev han vist hen til sider om den politiske
    situation i Egypten. Men hvis maskinen ved, at bru-
    geren sætter pris på at rejse, vil søgemaskinen finde
    relevante rejsetilbud til Egypten frem. De to brugeres
    enslydende søgninger på den samme søgemaskine
    giver således to forskellige resultater. Algoritmerne
    havde holdt deres indtog.
    Den seneste udvikling er, at søgemaskinerne
    flytter fokus fra, hvad der er relevant eller godt for
    den enkelte, til et mere ”paternalistisk” perspektiv,
    hvor søgesystemerne vælger efter, hvad de – eller
    deres ejere – synes er godt for den enkelte.
    Se hele oplægget her
    16
    Algoritmerne skabte nye bekymringer. Hvis man,
    ligegyldigt hvad man søger, kun får det, der spejler ens
    egne interesser, vil den åbne pluralistiske samtale flyt-
    te fra det åbne rum (”Agora”) til separate ”ekkokamre”
    eller såkaldte ”filterbobler”. I dag er der forsket en hel
    del i filterbobler, men der er aldrig rigtig påvist nogen
    målbar effekt af filterbobler. En anden bekymring,
    algoritmerne fremkaldte, var spørgsmålet om tab af
    privatsfære, når man gennem sine søgninger efterlod
    digitale spor på nettet.
    Den seneste udvikling er, at søgemaskinerne flytter fo-
    kus fra, hvad der er relevant eller godt for den enkelte,
    til et mere ”paternalistisk” perspektiv, hvor søgesyste-
    merne vælger efter, hvad de – eller deres ejere – synes
    er godt for den enkelte. Hvis man i januar 2024 bad
    Googles generative kunstige intelligens Gemini om at
    generere ”an image of a white computer programmer”,
    fik man beskeden ”I am unable to request an image
    based solely on the characteristics of a white person’s
    skin color”. Hvis man i stedet bad om et billede af en
    ”sort” computerprogrammør, fik man det straks og
    uden indsigelse. Her er vi altså kommet et sted hen,
    hvor systemerne bevidst giver en ideologisk motiveret
    social sandhed om virkeligheden, som adskiller sig
    fra den faktuelle sandhed. Søgemaskinernes succes-
    kriterium har nu bevæget sig fra ”flest”, ”bedst” og
    ”relevant” til ”rigtigt”. Omsorg, værdighed og social
    retfærdighed er blevet styrende værdier. Søgesyste-
    merne har bevæget sig fra ”objektivt” over ”subjektivt”
    til ”normativt”. Det kan i yderste konsekvens bringe os
    et sted hen, hvor maskinen vil prøve at ”forbedre” det,
    vi skriver, mens vi skriver det, og bringe det et andet
    sted hen end det, vi selv tænker.
    Tre faser i søgesystemernes kvalitetskriterier
    1. Objektivitet: Sikre, at mest muligt er tilgængeligt.
    2. Subjektivitet: De mest relevante informationer for den enkelte.
    3. Paternalisme: De oplysninger, søgemaskinen synes er bedst for dig.
    Her er vi altså
    kommet et sted hen,
    hvor systemerne
    bevidst giver en ide-
    ologisk motiveret
    social sandhed om
    virkeligheden, som
    adskiller sig fra den
    faktuelle sandhed.
    17
    Se hele oplægget her
    Hovedpointer fra oplægget af
    Dirk Lewandowski
    Professor ved Hamburg University of Applied Science
    Hvilke resultater ser brugerne i
    søgemaskinerne? Medtagelse,
    udelukkelse og kuratering
    Mængden af data i dag er så stor, at det vi finder, når
    vi søger på nettet, kun er en forsvindende lille andel
    af det, der findes. Det, vi faktisk ser, er resultatet af en
    række sorterings- og prioriteringsmekanismer.
    Google opererer med en række såkaldte indekser:
    web, nyheder, videoer, billeder osv. For hvert af disse
    indekser er der foretaget en udvælgelse af tilgængeligt
    materiale. Der er tale om både inkluderende kriterier
    (informationer, der inkluderes) og ekskluderende
    kriterier (informationer, der udelukkes).
    Webindekset er det mest inkluderende. Her stræber
    søgemaskinerne efter at inkludere mest muligt kvali-
    tetsindhold. Selvfølgelig er der både tekniske, juridiske
    og økonomiske begrænsninger, fordi internettet er så
    stort. Det ”dybe net” indekseres fx ikke af de store sø-
    gemaskiner. Søgemaskinerne er også ekskluderende,
    og især ”spam” er et stort problem for disse tjenester.
    I 2019 oplyste Google, at de opdager 25 milliarder
    spamsider hver eneste dag. Det betyder i runde tal, at
    den største del af nettet er spam, og kun en mindre del
    er genuint, legitimt indhold. Og det udelukkes efter
    bedste evne af Google og andre søgemaskiner.
    Når det gælder kategorien ”nyheder”, er der tale
    om kuratering, hvor både algoritmer og mennesker
    bestemmer, hvilke kilder og websteder der medtages
    og udelukkes. Der er en lang række ”rangeringsfakto-
    rer”, der afgør, hvad vi ser, og hvad der udelukkes. En
    positiv rangeringsfaktor er popularitet, som betyder,
    at de mest populære sider inkluderes i søgeresultatet.
    Dernæst er der en kvalitetsvurdering. Da det antages,
    at fx BBC ikke publicerer fake news, vil BBC’s indhold
    automatisk få en høj placering, mens mere tvivlsomme
    sites vil placeres lavere.
    En tredje kurateringsfaktor er placering i søgemaski-
    nen af det valgte indhold. Fra ”eye-tracking”-under-
    søgelser ved man, hvor det prioriterede indhold skal
    placeres, for at det er det, vi dvæler ved. Det, der står
    øverst, har en genkendelig eller attraktiv grafik, en
    troværdig afsender osv. Mindre attraktivt indhold kan
    derfor inkluderes, men placeres længere nede, således
    at søgemaskinen har et bredt indhold, men ikke domi-
    neres af indhold af lav kvalitet.
    Og den fjerde kurateringsfaktor, som ofte negligeres, er
    søgemaskineudbyderens egeninteresse. Den kan både
    være styret af efterspørgslen, hvor de viser det, der er
    populært eller efterspurgt, eller det, der er økonomisk
    rentabelt, fx annoncer og betalt indhold.
    Hvordan vil fremkomsten af AI påvirke søgemaskiner-
    ne? Vil AI erstatte eller supplere de traditionelle søge-
    maskiner? Det mest sandsynlige er, at søgemaskinerne
    fortsat vil eksistere. Der vil stadig være behov for at
    søge i eksisterende og originale kilder. Men AI-genere-
    rede svar vil i fremtiden indgå i søgemaskinernes svar.
    Og det kan påvirke det indhold, der præsenteres.
    I 2019 oplyste Google, at
    de opdager 25 milliarder
    spamsider hver eneste
    dag. Det betyder i runde
    tal, at den største del af
    nettet er spam, og kun
    en mindre del er genuint,
    legitimt indhold.
    18
    AI ”oplæres” af det materiale, der uploades. Hvis det
    først og fremmest er masseproduceret, kommercielt
    indhold, vil det dominere AI’s ”ordforråd”.
    Hvis der samtidig, som vi har set det med New York
    Times, opstår en modvilje hos kvalitetsindholdsleve-
    randører mod at stille materiale til rådighed, vil der
    blive overvægt af lavkvalitetsindhold og undervægt
    af højkvalitetsindhold. Denne ubalance forstærkes
    yderligere af, at mere eller mindre dubiøse aktører, der
    forsøger at påvirke den offentlige mening, med glæde
    ser, at deres indhold bliver brugt, og derfor stiller alt
    til rådighed. For slet ikke at tale om dem, der spreder
    desinformation ved systematisk at føde det ind i AI og
    de tilhørende træningsprogrammer.
    AI er kommet for at blive og vil både blive formet af,
    hvad der indgår i indholdsbasen, og hvordan det
    inkluderes, ekskluderes og kurateres. Det er ikke en
    rent teknisk foranstaltning. Der er mange faktorer, der
    spiller med, herunder økonomiske interesser, samt
    hvem der leverer og ikke leverer indhold. Så det er
    vigtigt at holde øje med de kilder og mekanismer, der
    vil indgå i fremtidens søgesystemer.
    Hovedpointer
    1. Søgemaskiner træffer beslutninger om, hvad der skal medtages, udelades og vises.
    2. Den store mængde autogenereret indhold vil føre til, at kuratering bliver mere vigtigt.
    19
    Hovedpointer fra oplægget af
    Mikkel Flyverbom
    Professor på CBS Copenhagen Business School, formand for
    Regeringsudvalget for Digitalisering og IT, medlem af Dataetisk Råd
    Informationstroværdighed i
    en AI-æra
    Den digitale udvikling har skabt og skaber fortsat nye
    dynamikker for informations- og videnssøgning. Det
    rejser en række spørgsmål om troværdigheden af de
    informationer, vi som borgere har adgang til.
    Introduktionen af internettet blev båret af en for-
    tælling om de nye digitale muligheder i relation til
    demokrati, frihed, åbenhed, adgang til viden og
    fællesskaber osv. Og at vi med de digitale muligheder
    ville få et globalt informationssamfund og nogle nye
    muligheder for at deltage og få de svageste med osv.
    Denne indledende bølge af optimisme blev udfordret
    med fremkomsten af nogle få, meget dygtige, men
    også meget ustyrlige virksomheder, som udviklede
    nye teknologier, nye forretningsmodeller og nye
    tilgange til vidensdannelse, som langt hen ad vejen
    var det modsatte af det, som den oprindelige vision
    handlede om. Den demokratiske vision blev erstattet
    af et kommercielt fokus på datahøst, reklamesalg og
    andre kommercielle og teknologiske kræfter, der ikke
    er drevet af menneskenes eller samfundets behov.
    Introduktionen af kunstig intelligens giver os lejlighed
    til at rejse de samme spørgsmål igen. Og måske finde
    nogle bedre svar, inden de besvares af en udvikling
    drevet af udbydernes interesser. Mange af de ting,
    vi ikke fik løst i forhold til internettet og de sociale
    medier, skal eller bør vi have løst i forhold til AI, hvis
    vi skal have det bedste ud af det. Hvis vi møder de nye
    muligheder uforberedte, ender de somme tider som
    den berømte trojanske hest, hvor noget, der virker
    som en gratis, fantastisk gave, viser sig at indeholde
    ting, som vi måske ikke ønskede.
    Når AI gør det muligt at skabe falsk information,
    der ser ægte ud, udfordrer det troværdigheden af
    alle informationer. Når tekster, billeder, videoer og
    lydoptagelser kan være både ægte og falske, risikerer
    vi, at al information opfattes som utroværdig. Og det
    bliver svært at opretholde et fælles verdensbillede
    som udgangspunkt for den demokratiske debat. Når
    grænserne mellem ægte og konstrueret udviskes, kan
    vi i værste fald miste evnen til at skelne mellem, hvad
    der sandt, og hvad der er falsk. Hvis evnen til at skelne
    mellem sandt og falsk forsvinder, forsvinder vores
    fælles virkelighedsopfattelse, hvilket kan føre til mang-
    lende tiltro til politik, demokrati og hinanden, ikke blot
    i de digitale miljøer, men også i resten af samfundet.
    Når kunstig intelligens bliver udbredt, tilgængeligt,
    gratis og nemt at anvende, må vi derfor som sam-
    fund forholde os til, hvad det kommer til at betyde
    for samfundet og de demokratiske processer. Der er
    selvfølgelig de kendte problemstillinger med svindel,
    Se hele oplægget her
    Hvis evnen til at skelne
    mellem sandt og falsk
    forsvinder, forsvinder
    vores fælles virkelig-
    hedsopfattelse, hvilket
    kan føre til manglende
    tiltro til politik, demo-
    krati og hinanden, ikke
    blot i de digitale miljøer,
    men også i resten af
    samfundet.
    20
    Når AI gør det muligt at skabe falsk informati-
    on, der ser ægte ud, udfordrer det troværdig-
    heden af alle informationer. Når tekster, bille-
    der, videoer og lydoptagelser kan være både
    ægte og falske, risikerer vi, at al information
    opfattes som utroværdig.
    AI er et vilkår, som vi ikke kan fravælge,
    men vi skal aktivt vurdere, hvordan det
    får lov at sætte sit præg på samfundet,
    og hvor vi skal sætte hegnspæle op i
    forhold til udviklingen.
    21
    krænkelser, manipulation osv., men også spørgsmål
    om, hvordan vi omstiller læringsprocesser i skolen til
    en fremtid, hvor de metoder, der før skabte læring,
    pludselig kan erstattes af hurtige og friktionsløse svar
    gennem de nye muligheder og teknologier. Derfor
    bliver vi nødt til at tage stilling til, hvordan vi hånd-
    terer og regulerer kunstig intelligens. Det gælder om
    at sætte nogle ”hegnspæle” op for at sikre, at AI ikke
    underminerer vigtige dele af vores samfund.
    Det gælder fx den demokratiske kontrol med,
    hvem der driver AI, og på hvilke vilkår. Får vi brug
    for redaktører, moderation og kuratering? Eller for
    sporingsmekanismer, så vi kan se, hvor AI henter sit
    indhold? Måske ligefrem en mærkningsordning? Under
    alle omstændigheder skal vi sikre transparens og
    forskeradgang til algoritmer mv. I relation til trovær-
    digheden af indhold kræver det en indsats at sikre, at
    vi som borgere, måske helt fra skolen, lærer at skelne
    mellem autentisk og AI-genereret information. Endelig
    er der spørgsmål som ophavsret, beskyttelse af børn
    og unge.
    AI er et vilkår, som vi ikke kan fravælge, men vi skal
    aktivt vurdere, hvordan det får lov at sætte sit præg
    på samfundet, og hvor vi skal sætte hegnspæle op i
    forhold til udviklingen.
    Anbefalinger
    1. Demokratisk kontrol med udbyderne
    2. Regler for udvælgelse, moderation og kuratering
    3. Sporingsmekanismer til, hvor indholdet kommer fra
    4. Transparens ift. systemer og algoritmer
    5. Forskeradgang til ”maskinrummet”
    6. Beskyttelse af ophavsret
    7. Beskyttelse af børn og unge
    22
    Med flere parallelle ”virkeligheder” må vi have
    meget mere fokus på afsendertransparens,
    presseetik, kildekritik, udgiveransvar osv.
    23
    Hvis man beder AI skabe et billede, sker det stadig, at
    man får noget op, der er helt forkert eller surrealistisk.
    Hvis man søger efter ”a salmon swimming in a creek”,
    risikerer man at få et billede op af en opskåret, røget
    laksefilet, frisk fra køledisken, som ligger og skvulper i
    en å. Eller hvis man søger efter et ”pool-party”, leverer
    maskinen måske et billede af velklædte gæster, der
    står ovenpå vandet i en swimmingpool.
    Sagen er, at AI ikke har nogen bevidsthed og derfor ikke
    nogen opfattelse af, hvad forskellen er på en levende og
    en røget laks, eller hvordan et pool-party ser ud.
    Men det bliver jo hele tiden bedre. Og nu er vi efterhån-
    den ved at være der, hvor vi kan generere meget, meget
    præcise fotografilignende billeder, hvor man måske ikke
    kan se, om de er ægte eller AI-genererede. Der skal vi i
    hvert fald nok komme til, og dermed er vi jo på vej ud
    i en fremtid, hvor det er ganske vigtigt, at vi prioriterer
    at have den menneskelige hånd indover. For der er – og
    vil fortsat være – perspektiver og sammenhænge, som
    AI ikke opfanger, ligegyldigt hvor store datamængder
    systemet bygger på. Hvis der fx er en udbredt ”bias” i
    det materiale, der ligger på Internettet, vil AI reproduce-
    re denne bias, og vi vil blive præsenteret for et resultat,
    der er præget af denne ”data-bias”.
    Man kan allerede opleve en sådan ”data-bias” på Google
    Translate, fx i form af en udpræget ”gender bias”. Går
    man ind på Google Translate og beder den om at over-
    sætte det kønsneutrale ”Min kæreste er stærk” fra dansk
    til engelsk, får man svaret ”My boyfriend is strong”.
    Tilsvarende, hvis man taster ”Min kæreste er CEO”,
    svarer den ”My boyfriend is a CEO”. Siger man derimod
    ”Min kæreste vasker op”, får man svaret ”My girlfriend is
    washing the dishes”. Der er ikke tale om, at nogen sidder
    bevidst og lægger denne kønsskævhed ind.
    Systemet bygger på datastatistikker over, hvor hyppigt
    hvilke udtryk og sammenhænge forekommer på
    nettet. I den forstand er det sikkert statistisk rigtigt, at
    sammenhængen ”opvask” hyppigere er brugt om kvin-
    der og ”CEO” om mænd. Men det genererer jo et falsk
    eller uhensigtsmæssigt vidensgrundlag. Hvis man i
    dag beder AI om at finde et billede af ”en gruppe læger,
    der taler sammen over en frokost”, får man en gruppe
    kittelklædte mænd, der spiser røde bøffer. Hvis man
    specificerer, at man vil se en kvindelig læge, møder
    man kun yngre, fotogene, somme tider nedringede og
    storbarmede, modeller.
    Det er svært at pege på en løsning. For hvis man
    med algoritmer programmerer systemet til at være
    Hovedpointer fra oplægget af
    Christiane Vejlø
    Digital trendanalytiker
    Argumenter for mennesker
    – bias i kunstig intelligens
    Se hele oplægget her
    Vi er jo på vej ud i en fremtid, hvor det er
    ganske vigtigt, at vi prioriterer at have
    den menneskelige hånd indover.
    24
    Disse og andre perspektiver kræver, at vi alle
    bliver i stand til at være kildekritiske, så vi kan
    skelne mellem menneskeskabte og maskinskabte
    billeder og informationer. Eller decideret deklare-
    re, hvad der er hvad. Fx har børnebogsforfatteren
    Jakob Martin Strid i sin nyeste børnetegnebog
    deklareret, at bogen er tegnet uden medvirken af
    nogen form for kunstig intelligens.
    lidt mere ”woke”, med større diversitet, får man jo
    omvendt et forvansket resultat, der måske ikke svarer
    til virkeligheden.
    Et andet problem er de såkaldte deepfakes, hvor
    virkelige videoer af fx politikere bearbejdes, så de siger
    noget andet, end de gør på originaloptagelsen. Det
    bruges både som underholdning og som desinforma-
    tion. Kan man bekæmpe deepfakes og desinformation
    uden at ramme harmløs humor?
    Og når deepfakes bliver virkeligt avanceret, kan det
    misbruges i uendelige retninger. Kan vi fx risikere, at
    vores børn ringer til os og med egen stemme og ansigt,
    i en AI-bearbejdet version, fortæller, at de er blevet
    kidnappet, og at vi skal udbetale en løsesum?
    Disse og andre perspektiver kræver, at vi alle bliver i
    stand til at være kildekritiske, så vi kan skelne mellem
    menneskeskabte og maskinskabte billeder og infor-
    mationer. Eller decideret deklarere, hvad der er hvad.
    Fx har børnebogsforfatteren Jakob Martin Strid i sin
    nyeste børnetegnebog deklareret, at bogen er tegnet
    uden medvirken af nogen form for kunstig intelligens.
    AI rummer mange muligheder, også gode. Og der vil
    altid være bias og særinteresser på spil i informations-
    strømmen. Men med flere parallelle ”virkeligheder”
    må vi have meget mere fokus på afsendertransparens,
    presseetik, kildekritik, udgiveransvar osv.
    25
    På europæisk plan gælder det tilsvarende om at
    samarbejde for at dæmme op for de amerikansk
    dominerede techgiganter.
    Hovedpointer fra oplægget af
    Pernille Tranberg
    Data-etisk rådgiver, medlem af regeringens ekspertgruppe om tech-giganter
    Hvorfor er der brug for mange
    sprogmodeller?
    Hvorfor skal vi have mange sprogmodeller?
    Den digitale infrastruktur er i dag helt afhængig af
    produkter og servicer fra Microsoft, Google og Meta. De
    store dominerer markedet med monopolstyrke og har
    råd til at lancere nye servicer efter heroinpusher-me-
    toden: ”First-fix-is-free”. Hvorefter betalingsmure og
    stigende priser tager over, når vi har taget tilbuddene til
    os. Fx er danske kommuner helt afhængige af Microsoft.
    Det samme mønster vil gentage sig med AI. De nye
    udbydere vil blive opkøbt af de eksisterende techgi-
    ganter. Eller indgå ”partnerskaber”, der modsat opkøb,
    er immune over for konkurrencelovgivningen.
    Udover ejerskabs- og monopolspørgsmålet rejser AI
    også en række spørgsmål vedr. ophavsret. Har AI tilla-
    delse til at anvende andres informationer? New York
    Times modsætter sig fx anvendelse af deres materiale.
    Udover det snævre juridiske spørgsmål er der også
    en bredere etisk dimension her. Er det, som bruger,
    etisk ansvarligt at anvende produkter og servicer,
    der bygger på andres data? Og dertil kommer en lang
    række problemstillinger om cybercrimes, spam, scam
    og beskyttelse af børn.
    Endelig er der en lang række problemstillinger vedr.
    sproglig, værdimæssig og økonomisk bias, jf. Christia-
    ne Vejløs eksempler på kønsmæssige eller etniske bias
    i søgeresultater. Desuden er der også et problem i den
    såkaldte antropomorfisering, hvor avatarer, ChatGPT
    og andre maskinfænomener præsenteres som ”men-
    nesker”, som kan indgyde falsk tillid hos brugerne.
    Alle disse udfordringer må adresseres, så vi, som lille
    land, kan opretholde en form for teknologisk suveræ-
    nitet i forhold til de store udenlandske techgiganter og
    deres monopollignende status. Vi må stræbe efter selv
    at bevare kontrollen over vores digitale liv i Europa,
    baseret på fælles værdier og fælles lovgivning. Vi
    elsker alle sammen at hade det danske skole-intranet
    AULA, men det er faktisk et godt eksempel på en åben
    Se hele oplægget her
    26
    Anbefalinger
    Små sprogområder må
    1. Sikre sig teknologisk suverænitet over, hvilke udbydere der dominerer
    2. Bekæmpe monopoldannelse
    3. Håndhæve ophavsretten
    4. Forhindre/begrænse cybercrimes, spam, scam og ulovligt indhold
    5. Beskytte børn og unge mod udnyttelse og uønsket indhold
    6. Etablere nationale og sproglige alternativer til det engelskdominerede udbud
    platform uden algoritmer, reklamer, profilering via
    persondata og andet manipulerende adfærdsdesign.
    Der findes også i andre lande eksempler på etisk mere
    forsvarlige alternativer til søgesystemer og sprogmo-
    deller. Ikke mindst, når det gælder sprogmodeller og
    sprogbaserede chat- og søgetjenester, er det afgøren-
    de, at der findes danske alternativer, da det danske
    sprog statistisk er så forsvindende lille, at det danske
    præg går tabt i internationale engelsk-dominerede
    sprogmodeller og søgesystemer.
    På europæisk plan gælder det tilsvarende om at
    samarbejde for at dæmme op for de amerikansk
    dominerede techgiganter. Det går ofte sådan, at mens
    vi i Europa sætter alverdens små nationale projekter i
    gang, bliver vi løbet over ende af de store amerikanske
    techgiganter.
    For at kunne stå op imod et 100 % profitdrevet udbud
    er det afgørende, at vi i Danmark og på europæisk
    grund udvikler alternative søgesystemer og sprogmo-
    deller, der afspejler vores demokratiske, menneskelige
    og klimavenlige værdier.
    27
    For Lex var konferencen en mulighed for at stoppe op
    et øjeblik og reflektere over, hvad virkelig værdifuld
    viden er for en størrelse. Det er ikke bare ord eller data,
    der er sat sammen af en formel med udgangspunkt i en
    statistisk sandsynlighed. Det er en dybtgående forstå-
    else, der er opnået mellem mennesker og gennem en
    metodisk refleksion, afprøvning og erfaring. Viden er
    ikke blot en samling af information, men resultatet af
    årelang forskning og opbygning af ekspertise.
    På Lex har tusindvis af forskere og andre fagfolk, blandt
    andet fra Den Store Danske Encyklopædi og Trap
    Danmark, gennem de seneste 30 år skabt et vidensfun-
    dament, som vi nu gennem fire år har arbejdet på at
    få opdateret. Der er ca. 700 forskere tilknyttet, som er i
    gang med at opdatere og gennemskrive de ca. 240.000
    artikler, der er på Lex. Hver især bidrager de med en
    dyb indsigt i deres fagområde, og de lægger beredvilligt
    deres gode navn og ry til det, de skriver. De forstår
    betydningen af, at deres indsigter bliver tilgængelige
    både for elever og lærere og for alle os, der har brug
    for sikker information, som vi kan stole på, når vi skal
    forstå den verden, vi lever i, uanset om det handler om
    rugbrødets kulturhistorie eller de formelle rammer for
    det kommende amerikanske valg.
    Konferencen viste, at kunstig intelligens kan være nyttig
    og brugbar. AI kan organisere, analysere og præsentere
    data i mængder, vi ikke selv kan overkomme. Men det er
    vigtigt at erkende maskinernes begrænsninger. Når alle
    svar er let tilgængelige og formfuldendt formuleret på
    nettet, kan vi desuden få et falsk indtryk af, at al viden er
    lige god, uanset kilden.
    Det kan føre til deling og spredning af fejlagtig og
    forvrænget information.
    Kunstig intelligens kan ikke skelne mellem korrekte og
    forkerte, nøjagtige og unøjagtige, fyldestgørende og
    mangelfulde svar. Kunstig intelligens er alene et koncen-
    trat af, hvad der er tilgængeligt. For stor tillid til kunstig
    intelligens kan føre til passivitet i vores egen tænkning
    og fravær i den af de informationer, vi modtager. Det er
    afgørende for et velinformeret samfund, og det er afgø-
    rende for demokratiet, at vi som individer og borgere
    bevarer vores egen kritiske sans og analytiske evne.
    Som vi hørte, er der allerede en stor utryghed i befolk-
    ningen ved den viden, vi har adgang til på nettet. Det
    er svært at vide, hvad der er sandt, og hvad der er falsk.
    Det er et sundhedstegn, at så mange er opmærksomme
    på, at man ikke kan stole på alt, ”selvom det står på
    nettet”, ligesom der er stor opmærksomhed på de
    risici, der er ved kunstig intelligens. Det skal vi tage
    alvorligt som samfund. Vi må sikre, at vi på den ene
    side udnytter mulighederne og potentialerne, og på
    den anden side sikrer, at der er mennesker til stede
    i processen. At den menneskelige ekspertise og det
    menneskelige skøn indgår i informationshåndteringen
    og skabelsen af viden. Den balance skal vi næppe
    forvente kommer fra techgiganterne.
    Techgiganternes forretningsmodel er ikke at stille
    troværdig viden til rådighed for borgerne, men at
    stille data om brugerne til rådighed for annoncører og
    andre, der vil betale for denne viden om os brugere og
    vores præferencer.
    Hovedpointer fra oplægget af
    Erik Henz Kjeldsen
    Ansvarshavende chefredaktør på Lex, Danmarks nationalleksikon
    Viden er ikke en algoritme
    Se hele oplægget her
    Men det er vigtigt at erkende maskinernes begræns-
    ninger. Viden og information er for vigtige værdier at
    overlade til algoritmer og techgiganter.
    28
    Techgiganternes forretningsmodel er ikke at stille
    troværdig viden til rådighed for borgerne, men at stil-
    le data om brugerne til rådighed for annoncører og
    andre, der vil betale for denne viden om os brugere
    og vores præferencer.
    Viden er ikke blot en samling af information,
    men resultatet af årelang forskning og
    opbygning af ekspertise.
    29
    Lex er et alternativ til maskindrevet viden og fake
    news. Og et succesfuldt og billigt alternativ. For kun
    fire kroner om året pr. søgeord stiller vi faglig, kura-
    teret viden til rådighed for alle. Og det bruges! Med
    to millioner månedlige besøg og fire millioner læste
    artikler om måneden er Lex allerede Danmarks største
    site for forsknings- og vidensformidling, både i omfang
    og brug.
    Indtil videre stiller altså næsten 700 forskere og andre
    fagfolk deres viden og unikke indsigter til rådighed
    for Lex. Det er omstændeligt og langsomt, og det kan
    kun opnås gennem dedikation og engagement hos
    hver enkelt forsker. Deres bidrag til Lex er ikke bare en
    sammenstilling af fakta, men en formidlingsmæssig
    helhed baseret på nøje analyse og kritisk tænkning. I
    samarbejde med redaktørerne på Lex, som kompetent
    og tålmodigt sørger for, at sprog, form og formidling
    passer til en meget bredt sammensat skare af brugere.
    Lex er unikt. Ikke mange europæiske lande har
    formået at etablere noget tilsvarende. Og Lex er vores
    allesammens, og for os allesammen. Frit tilgænge-
    ligt, uden betalingsmure, profiler og adgangskoder.
    Finansieret af fællesskabet af finansloven, takket være
    Folketingets politikere, som på tværs af politiske skel
    har bakket op om projektet og sikret den nødvendige
    finansiering, i det mindste i de næste to år. Udover
    finanslovsbevillingen skylder vi også en tak til en
    række private fonde, som har sikret, at vi løbende kan
    udbygge Lex med nye indholdsområder og således
    sikre, at Lex også fremover har svar på det meste.
    Du kan allerede nu skrive dig på en venteliste
    til næste års konference.
    32
    Danmarks nationalleksikon