ARBEJDSDOKUMENT FRA KOMMISSIONENS TJENESTEGRENE RESUMÉ AF RAPPORTEN OM KONSEKVENSANALYSEN Ledsagedokument til EUROPA-PARLAMENTETS OG RÅDETS FORORDNING OM HARMONISEREDE REGLER FOR KUNSTIG INTELLIGENS (RETSAKTEN OM KUNSTIG INTELLIGENS) OG OM ÆNDRING AF VISSE AF UNIONENS LOVGIVNINGSMÆSSIGE RETSAKTER

Tilhører sager:

Aktører:


    1_EN_resume_impact_assessment_part1_v3.pdf

    https://www.ft.dk/samling/20211/kommissionsforslag/kom(2021)0206/forslag/1773318/2379085.pdf

    EN EN
    EUROPEAN
    COMMISSION
    Brussels, 21.4.2021
    SWD(2021) 85 final
    COMMISSION STAFF WORKING DOCUMENT
    EXECUTIVE SUMMARY OF THE IMPACT ASSESSMENT REPORT
    Accompanying the
    Proposal for a Regulation of the European Parliament and of the Council
    LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE
    (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION
    LEGISLATIVE ACTS
    {COM(2021) 206 final} - {SEC(2021) 167 final} - {SWD(2021) 84 final}
    Europaudvalget 2021
    KOM (2021) 0206 - SWD-dokument
    Offentligt
    1
    Executive Summary Sheet
    Impact assessment on a Regulatory Framework for Artificial Intelligence
    A. Need for action
    What is the problem and why is it a problem at EU level?
    Artificial Intelligence (AI) is as an emerging general-purpose technology: a highly powerful family of
    computer programming techniques. The uptake of AI systems has a strong potential to bring societal
    benefits, economic growth and enhance EU innovation and global competitiveness. However, in certain
    cases, the use of AI systems can create problems. The specific characteristics of certain AI systems may
    create new risks related to (1) safety and security and (2) fundamental rights, and accelerate the probability
    or intensity of the existing risks. AI systems also (3) make it hard for enforcement authorities to verify
    compliance with and enforce the existing rules. This set of issues in turn leads to (4) legal uncertainty for
    companies, (5) potentially slower uptake of AI technologies, due to the lack of trust, by businesses and
    citizens as well as (6) regulatory responses by national authorities to mitigate possible externalities risking
    to fragment the internal market.
    What should be achieved?
    The regulatory framework aims to address those problems in order to ensure the proper functioning of the
    single market by creating conditions for the development and use of trustworthy AI in the Union. Specific
    objectives are: (1) ensuring that AI systems placed on the market and used are safe and respect the existing
    law on fundamental rights and Union values; (2) ensuring legal certainty to facilitate investment and
    innovation in AI; (3) enhancing governance and effective enforcement of the existing law on fundamental
    rights and safety requirements applicable to AI systems; and (4) facilitating the development of a single
    market for lawful, safe and trustworthy AI systems and prevent market fragmentation.
    What is the value added of action at the EU level (subsidiarity)?
    The cross-border nature of large-scale data and datasets which AI applications often rely on means that the
    objectives of the initiative cannot be achieved effectively by Member States alone. The European
    regulatory framework for trustworthy AI aims to establish harmonised rules on the development,
    placement on the market and use of products and services embedding AI technology or stand-alone AI
    applications in the Union. Its purpose is to ensure a level playing field and to protect all European citizens,
    while strengthening Europe’s competitiveness and industrial basis in AI. EU action on AI will boost the
    internal market and has a significant potential to provide European industry with a competitive edge at a
    global level, based on economies of scale that cannot not be achieved by individual Member States alone.
    B. Solutions
    What are the various options to achieve the objectives? Is there a preferred option or not? If not,
    why?
    The following options have been considered: Option 1: EU legislative instrument setting up a voluntary
    labelling scheme; Option 2: a sectoral, “ad-hoc” approach; Option 3: a horizontal EU legislative
    instrument establishing mandatory requirements for high-risk AI applications; Option 3+: the same as 3
    but with voluntary codes of conduct for non-high-risk AI applications; and Option 4: a horizontal EU
    legislative instrument establishing mandatory requirements for all AI applications. The preferred option is
    Option 3+ since it offers proportionate safeguards against the risks posed by AI, while limiting the
    administrative and compliance costs to a minimum. The specific question of liability for AI applications
    will be addressed through distinct future rules and thus not covered by the options.
    What are different stakeholders' views? Who supports which option?
    Businesses, public authorities, academics and non–governmental organisations all agree that legislative
    gaps exist or that new legislation is needed, although the majority among businesses is smaller. Industry
    and public authorities agree with limiting the mandatory requirements to high-risk AI applications.
    Citizens and civil society are more likely to disagree with limiting mandatory requirements to high-risk
    2
    applications.
    C. Impacts of the preferred option
    What are the benefits of the preferred option (if any, otherwise of main ones)?
    For citizens, the preferred option will mitigate risks to their safety and fundamental rights. For providers
    of AI, it will create legal certainty and ensure that no obstacle to the cross-border provision of AI-related
    services and products emerge. For companies using AI, it will promote trust among their customers. For
    national public administrations, it will promote public trust in the use of AI and strengthen enforcement
    mechanisms (by introducing a European coordination mechanism, providing for appropriate capacities,
    and facilitating audits of the AI systems with new requirements for documentation, traceability and
    transparency).
    What are the costs of the preferred option (if any, otherwise of main ones)?
    Businesses or public authorities that develop or use AI applications that constitute high risk for the safety
    or fundamental rights of citizens would have to comply with specific horizontal requirements and
    obligations, which will be put in place through technical harmonised standards. The total aggregate cost of
    compliance is estimated to be between €100 million and €500 million by 2025, corresponding to up to 4-
    5% of investment in high-risk AI (which is estimated to be between 5% and 15% of all AI applications).
    Verification costs could amount to another 2-5% of investment in high-risk AI. Businesses or public
    authorities that develop or use any AI applications not classified as high risk would not have to incur any
    costs. However, they could choose to adhere to voluntary codes of conduct to follow suitable
    requirements, and to ensure that their AI is trustworthy. In these cases, costs could be as high as for high-
    risk applications at most, but most probably lower.
    What are the impacts on SMEs and competitiveness?
    SMEs will benefit more from a higher overall level of trust in AI than large companies who can also rely
    on their brand image. SMEs developing applications classified as high risk would have to bear similar
    costs as large companies. Indeed, due to the high scalability of digital technologies, small and medium
    enterprises can have an enormous reach despite their small size, potentially impacting millions of
    individuals. Thus, when it comes to high-risk applications, excluding AI supplying SMEs from the
    application of the regulatory framework could seriously undermine the objective of increasing trust.
    However, the framework will envisage specific measures, including regulatory sandboxes or assistance
    through the Digital Innovation Hubs, to support SMEs in their compliance with the new rules, taking into
    account their special needs.
    Will there be significant impacts on national budgets and administrations?
    Member States would have to designate supervisory authorities in charge of implementing the legislative
    requirements. Their supervisory function could build on existing arrangements, for example regarding
    conformity assessment bodies or market surveillance, but would require sufficient technological expertise
    and resources. Depending on the pre-existing structure in each Member States, this could amount to 1 to
    25 Full Time Equivalents per Member States.
    Will there be other significant impacts?
    The preferred option would significantly mitigate risks to fundamental rights of citizens as well as broader
    Union values, and will enhance the safety of certain products and services embedding AI technology or
    stand-alone AI applications.
    Proportionality?
    The proposal is proportionate and necessary to achieve the objectives, as it follows a risk-based approach
    and imposes regulatory burdens only when the AI systems are likely to pose high risks to fundamental
    rights or safety. Where this is not the case, only minimal transparency obligations are imposed, in
    particular in terms of information provision to flag the use of an AI system when interacting with humans
    or use of deep fakes if not used for legitimate purposes. Harmonised standards and supporting guidance
    and compliance tools will aim to help providers and users to comply with requirements and minimise their
    costs.
    3
    D. Follow up
    When will the policy be reviewed?
    The Commission will publish a report evaluating and reviewing the framework five years following the
    date on which it becomes applicable.
    

    1_DA_resume_impact_assessment_part1_v2.pdf

    https://www.ft.dk/samling/20211/kommissionsforslag/kom(2021)0206/forslag/1773318/2410672.pdf

    DA DA
    EUROPA-
    KOMMISSIONEN
    Bruxelles, den 21.4.2021
    SWD(2021) 85 final
    ARBEJDSDOKUMENT FRA KOMMISSIONENS TJENESTEGRENE
    RESUMÉ AF RAPPORTEN OM KONSEKVENSANALYSEN
    Ledsagedokument til
    EUROPA-PARLAMENTETS OG RÅDETS FORORDNING
    OM HARMONISEREDE REGLER FOR KUNSTIG INTELLIGENS (RETSAKTEN
    OM KUNSTIG INTELLIGENS) OG OM ÆNDRING AF VISSE AF UNIONENS
    LOVGIVNINGSMÆSSIGE RETSAKTER
    {COM(2021) 206 final} - {SEC(2021) 167 final} - {SWD(2021) 84 final}
    Europaudvalget 2021
    KOM (2021) 0206 - SWD-dokument
    Offentligt
    1
    Resumé
    Konsekvensanalyse af en lovgivningsmæssig ramme for kunstig intelligens
    A. Behov for handling
    Hvad er problemstillingen, og hvorfor er det en problem på EU-niveau?
    Kunstig intelligens (AI) er en ny teknologi til generelle formål og består af en meget stærk vifte af
    computerprogrammeringsteknikker. Udbredelsen af AI-systemer har et stort potentiale til at skabe
    samfundsmæssige fordele, økonomisk vækst og fremme EU's innovation og konkurrenceevne på
    verdensplan. I visse tilfælde kan anvendelsen af AI-systemer imidlertid give problemer. Visse AI-
    systemers særlige egenskaber kan skabe nye risici med hensyn til 1) sikkerhed og 2) grundlæggende
    rettigheder samt forstærke sandsynligheden for eller alvorligheden af eksisterende risici. AI-systemer
    3) gør det også vanskeligt for håndhævende myndigheder at kontrollere, at de eksisterende regler
    overholdes, og håndhæve dem. Disse problemer fører igen til 4) retlig usikkerhed for virksomheder, 5) en
    potentielt langsommere udbredelse af AI-teknologier på grund af manglende tillid blandt virksomheder og
    borgere samt 6) lovgivningsmæssige tiltag fra de nationale myndigheders side for at afbøde eventuelle
    eksternaliteter, der risikerer at opsplitte det indre marked.
    Hvad bør opnås?
    Formålet med den lovgivningsmæssige ramme er at afhjælpe disse problemer for at sikre et velfungerende
    indre marked ved at skabe gunstige betingelser for udvikling og anvendelse af pålidelig kunstig intelligens
    i Unionen. De specifikke mål er at: 1) sørge for, at AI-systemer, der bringes i omsætning og anvendes, er
    sikre og i overensstemmelse med den eksisterende lovgivning om grundlæggende rettigheder og med
    Unionens værdier, 2) sikre retssikkerhed med henblik på at fremme investering og innovation inden for
    kunstig intelligens, 3) forbedre forvaltningen og den effektive håndhævelse af den eksisterende lovgivning
    om grundlæggende rettigheder og sikkerhedskrav til AI-systemer og 4) fremme udviklingen af et indre
    marked for lovlige, sikre og pålidelige AI-systemer og forhindre markedsfragmentering.
    Hvad er merværdien ved at handle på EU-plan (nærhedsprincippet)?
    Den grænseoverskridende karakter af de omfattende data og datasæt, som anvendelse af kunstig
    intelligens ofte er afhængig af, betyder, at initiativets mål ikke kan opfyldes effektivt af medlemsstaterne
    alene. Den europæiske lovgivningsmæssige ramme for pålidelig kunstig intelligens sigter mod fastsættelse
    af harmoniserede regler for udvikling, omsætning og anvendelse af produkter og tjenester, hvori AI-
    teknologi er integreret, eller selvstændig anvendelse af kunstig intelligens i Unionen. Formålet med den
    lovgivningsmæssige ramme er at sikre lige vilkår og beskytte alle EU-borgere, samtidig med EU's
    konkurrenceevne og industrielle grundlag inden for kunstig intelligens styrkes. Handling på EU-plan vil
    sætte skub i det indre marked og har et betydeligt potentiale til at give europæisk industri en
    konkurrencefordel på verdensplan og stordriftsfordele, som ikke kan opnås af de enkelte medlemsstater
    alene.
    B. Løsninger
    Hvilke forskellige løsningsmodeller er der for at nå målene? Foretrækkes en bestemt løsningsmodel
    frem for andre? Hvis ikke, hvorfor?
    Følgende løsningsmodeller er overvejet: model 1: en EU-retsakt, hvorved der indføres af en frivillig
    mærkningsordning; model 2: en sektorspecifik ad hoc-tilgang; model 3: en horisontal EU-retsakt, hvorved
    der fastsættes obligatoriske krav til AI-anvendelser, der udgør en høj risiko; model 3+: som model 3, men
    med frivillige adfærdskodekser for AI-anvendelser, der ikke udgør en høj risiko, og model 4: en horisontal
    EU-retsakt, hvorved der fastsættes obligatoriske krav til alle AI-anvendelser. Den foretrukne løsning er
    model 3+, da den giver forholdsmæssige garantier mod de risici, der er forbundet med kunstig intelligens,
    samtidig med at de administrative omkostninger og efterlevelsesomkostningerne begrænses til et
    minimum. Spørgsmålet om ansvar i forbindelse med anvendelse af kunstig intelligens vil blive behandlet i
    særskilte fremtidige regler og er dermed ikke omfattet af løsningsmodellerne.
    Hvad er de forskellige interessenters holdning? Hvem støtter hvilken løsning?
    2
    Virksomheder, offentlige myndigheder, forskere og NGO'er er alle enige i, at der er huller i lovgivningen,
    eller at der er behov for ny lovgivning, selv om flertallet af virksomheder, der mener sådan, er mindre.
    Industrien og offentlige myndigheder er enige i at begrænse de obligatoriske krav til AI-anvendelser, der
    udgør en høj risiko. Borgere og civilsamfundet er mere tilbøjelige til ikke at være enige i at begrænse
    obligatoriske krav til anvendelser, der udgør en høj risiko.
    C. Den foretrukne løsnings virkninger
    Hvilke fordele er der ved den foretrukne løsning (hvis en bestemt løsning foretrækkes — ellers
    fordelene ved de vigtigste af de mulige løsninger)?
    For borgerne vil den foretrukne løsningsmodel mindske risiciene for deres sikkerhed og grundlæggende
    rettigheder. For udbydere af kunstig intelligens vil modellen skabe retssikkerhed og sikre, at der ikke
    opstår hindringer for grænseoverskridende levering af AI-relaterede tjenester og produkter. For de
    virksomheder, der anvender kunstig intelligens, vil modellen fremme tilliden blandt deres kunder. For
    nationale offentlige forvaltninger vil modellen fremme offentlighedens tillid til brugen af kunstig
    intelligens og styrke håndhævelsesmekanismerne (idet der indføres en europæisk
    koordineringsmekanisme, tilvejebringes passende kapacitet, og revisionen af AI-systemer lettes med nye
    krav til dokumentation, sporbarhed og gennemsigtighed).
    Hvilke omkostninger er der ved den foretrukne løsning (hvis en bestemt løsning foretrækkes —
    ellers omkostningerne ved de vigtigste af de mulige løsninger)?
    De virksomheder eller offentlige myndigheder, der er udviklere eller brugere af AI-anvendelser, der udgør
    en høj risiko for borgernes sikkerhed eller grundlæggende rettigheder, vil skulle opfylde specifikke krav
    og forpligtelser, som vil blive indført ved hjælp af tekniske harmoniserede standarder. De samlede
    efterlevelsesomkostninger anslås til at være mellem 100 mio. EUR og 500 mio. EUR frem til 2025, hvilket
    svarer til op til 4-5 % af investeringerne i højrisiko-AI (som anslås til udgøre mellem 5 % og 15 % af alle
    AI-anvendelser). Kontrolomkostningerne kan beløbe sig til yderligere 2-5 % af investeringerne i kunstig
    intelligens med høj risiko. De virksomheder eller offentlige myndigheder, der er udviklere eller brugere af
    AI-anvendelser, der ikke er klassificeret som højrisiko, vil ikke skulle afholde nogen omkostninger. De
    kan imidlertid vælge at overholde frivillige adfærdskodekser for at følge passende krav og for at sikre, at
    deres AI-systemer er pålidelige. I disse tilfælde kan omkostningerne være lige så høje som for
    højrisikoanvendelser, men vil sandsynligvis være lavere.
    Hvad er indvirkningerne på SMV'er og på konkurrencedygtigheden?
    SMV'er vil drage fordel af et højere generelt niveau af tillid til kunstig intelligens end store virksomheder,
    som også kan nyde godt af deres image. De SMV'er, der udvikler anvendelser, der er klassificeret som
    højrisiko, vil skulle afholde omkostninger, der er lig dem, store virksomheder vil skulle afholde. På grund
    af de digitale teknologiers høje skalerbarhed kan SMV'er faktisk have en enorm rækkevidde på trods af
    deres størrelse og potentielt påvirke millioner af mennesker. Med hensyn til højrisikoanvendelser kan det i
    alvorlig grad undergrave målet om øget tillid, hvis SMV'er, der leverer kunstig intelligens, ikke er omfattet
    af den lovgivningsmæssige ramme. Rammen vil imidlertid indbefatte specifikke foranstaltninger, herunder
    reguleringsmæssige sandkasser eller bistand gennem de digitale innovationsknudepunkter, med henblik på
    at støtte SMV'er i overholdelsen af de nye regler under hensyntagen til deres særlige behov.
    Vil den foretrukne løsning få væsentlige virkninger for de nationale budgetter og myndigheder?
    Medlemsstaterne vil skulle udpege de tilsynsmyndigheder, der skal have ansvaret for at gennemføre de
    lovgivningsmæssige krav. Tilsynsfunktionen kan bygge på eksisterende ordninger, f.eks. angående
    overensstemmelsesvurderingsorganer eller markedsovervågning, men vil kræve tilstrækkelig teknologisk
    ekspertise og ressourcer. Afhængigt af den eksisterende struktur i hver medlemsstat kan dette beløbe sig til
    1-25 fuldtidsækvivalenter pr. medlemsstat.
    Vil den foretrukne løsning få andre væsentlige virkninger?
    Den foretrukne løsningsmodel vil i væsentlig grad mindske risiciene for borgernes grundlæggende
    rettigheder samt for Unionens værdier i bredere forstand og vil øge sikkerheden i forbindelse med visse
    produkter og tjenester, hvori AI-teknologi er integreret, eller selvstændig anvendelse af kunstig intelligens
    3
    i Unionen.
    Proportionalitetsprincippet?
    Forslaget er rimeligt og nødvendigt for at nå målene, da det følger en risikobaseret tilgang og kun
    pålægger reguleringsmæssige byrder, hvis et AI-system sandsynligvis vil udgøre en høj risiko for
    grundlæggende rettigheder eller sikkerheden. Hvis det ikke er tilfældet, indføres der kun minimale
    gennemsigtighedsforpligtelser, navnlig med hensyn til formidling af oplysninger for at markere
    anvendelse af et AI-system i interaktion med mennesker eller brug af deepfake-indhold, hvis det ikke
    anvendes til lovlige formål. Harmoniserede standarder og understøttende vejlednings- og
    overholdelsesværktøjer vil sigte mod at hjælpe udbydere og brugere med at overholde kravene og
    minimere deres omkostninger.
    D. Opfølgning
    Hvornår vil foranstaltningen blive taget op til fornyet overvejelse?
    Kommissionen vil offentliggøre en rapport med en evaluering og en gennemgang af den foreslåede ramme
    fem år efter den dato, hvorfra den finder anvendelse.