ARBEJDSDOKUMENT FRA KOMMISSIONENS TJENESTEGRENE RESUMÉ AF RAPPORTEN OM KONSEKVENSANALYSEN Ledsagedokument til EUROPA-PARLAMENTETS OG RÅDETS FORORDNING OM HARMONISEREDE REGLER FOR KUNSTIG INTELLIGENS (RETSAKTEN OM KUNSTIG INTELLIGENS) OG OM ÆNDRING AF VISSE AF UNIONENS LOVGIVNINGSMÆSSIGE RETSAKTER
Tilhører sager:
- Hovedtilknytning: Forslag til Europa-Parlamentets og Rådets forordning om harmoniserede regler for kunstig intelligens (retsakten om kunstig intelligens) og om ændring af visse af Unionens lovgivningsmæssige retsakter {SEC(2021) 167 final} - {SWD(2021) 84-85 final} ()
- Hovedtilknytning: Forslag til Europa-Parlamentets og Rådets forordning om harmoniserede regler for kunstig intelligens (retsakten om kunstig intelligens) og om ændring af visse af Unionens lovgivningsmæssige retsakter {SEC(2021) 167 final} - {SWD(2021) 84-85 final} ()
Aktører:
1_EN_resume_impact_assessment_part1_v3.pdf
https://www.ft.dk/samling/20211/kommissionsforslag/kom(2021)0206/forslag/1773318/2379085.pdf
EN EN EUROPEAN COMMISSION Brussels, 21.4.2021 SWD(2021) 85 final COMMISSION STAFF WORKING DOCUMENT EXECUTIVE SUMMARY OF THE IMPACT ASSESSMENT REPORT Accompanying the Proposal for a Regulation of the European Parliament and of the Council LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS {COM(2021) 206 final} - {SEC(2021) 167 final} - {SWD(2021) 84 final} Europaudvalget 2021 KOM (2021) 0206 - SWD-dokument Offentligt 1 Executive Summary Sheet Impact assessment on a Regulatory Framework for Artificial Intelligence A. Need for action What is the problem and why is it a problem at EU level? Artificial Intelligence (AI) is as an emerging general-purpose technology: a highly powerful family of computer programming techniques. The uptake of AI systems has a strong potential to bring societal benefits, economic growth and enhance EU innovation and global competitiveness. However, in certain cases, the use of AI systems can create problems. The specific characteristics of certain AI systems may create new risks related to (1) safety and security and (2) fundamental rights, and accelerate the probability or intensity of the existing risks. AI systems also (3) make it hard for enforcement authorities to verify compliance with and enforce the existing rules. This set of issues in turn leads to (4) legal uncertainty for companies, (5) potentially slower uptake of AI technologies, due to the lack of trust, by businesses and citizens as well as (6) regulatory responses by national authorities to mitigate possible externalities risking to fragment the internal market. What should be achieved? The regulatory framework aims to address those problems in order to ensure the proper functioning of the single market by creating conditions for the development and use of trustworthy AI in the Union. Specific objectives are: (1) ensuring that AI systems placed on the market and used are safe and respect the existing law on fundamental rights and Union values; (2) ensuring legal certainty to facilitate investment and innovation in AI; (3) enhancing governance and effective enforcement of the existing law on fundamental rights and safety requirements applicable to AI systems; and (4) facilitating the development of a single market for lawful, safe and trustworthy AI systems and prevent market fragmentation. What is the value added of action at the EU level (subsidiarity)? The cross-border nature of large-scale data and datasets which AI applications often rely on means that the objectives of the initiative cannot be achieved effectively by Member States alone. The European regulatory framework for trustworthy AI aims to establish harmonised rules on the development, placement on the market and use of products and services embedding AI technology or stand-alone AI applications in the Union. Its purpose is to ensure a level playing field and to protect all European citizens, while strengthening Europe’s competitiveness and industrial basis in AI. EU action on AI will boost the internal market and has a significant potential to provide European industry with a competitive edge at a global level, based on economies of scale that cannot not be achieved by individual Member States alone. B. Solutions What are the various options to achieve the objectives? Is there a preferred option or not? If not, why? The following options have been considered: Option 1: EU legislative instrument setting up a voluntary labelling scheme; Option 2: a sectoral, “ad-hoc” approach; Option 3: a horizontal EU legislative instrument establishing mandatory requirements for high-risk AI applications; Option 3+: the same as 3 but with voluntary codes of conduct for non-high-risk AI applications; and Option 4: a horizontal EU legislative instrument establishing mandatory requirements for all AI applications. The preferred option is Option 3+ since it offers proportionate safeguards against the risks posed by AI, while limiting the administrative and compliance costs to a minimum. The specific question of liability for AI applications will be addressed through distinct future rules and thus not covered by the options. What are different stakeholders' views? Who supports which option? Businesses, public authorities, academics and non–governmental organisations all agree that legislative gaps exist or that new legislation is needed, although the majority among businesses is smaller. Industry and public authorities agree with limiting the mandatory requirements to high-risk AI applications. Citizens and civil society are more likely to disagree with limiting mandatory requirements to high-risk 2 applications. C. Impacts of the preferred option What are the benefits of the preferred option (if any, otherwise of main ones)? For citizens, the preferred option will mitigate risks to their safety and fundamental rights. For providers of AI, it will create legal certainty and ensure that no obstacle to the cross-border provision of AI-related services and products emerge. For companies using AI, it will promote trust among their customers. For national public administrations, it will promote public trust in the use of AI and strengthen enforcement mechanisms (by introducing a European coordination mechanism, providing for appropriate capacities, and facilitating audits of the AI systems with new requirements for documentation, traceability and transparency). What are the costs of the preferred option (if any, otherwise of main ones)? Businesses or public authorities that develop or use AI applications that constitute high risk for the safety or fundamental rights of citizens would have to comply with specific horizontal requirements and obligations, which will be put in place through technical harmonised standards. The total aggregate cost of compliance is estimated to be between €100 million and €500 million by 2025, corresponding to up to 4- 5% of investment in high-risk AI (which is estimated to be between 5% and 15% of all AI applications). Verification costs could amount to another 2-5% of investment in high-risk AI. Businesses or public authorities that develop or use any AI applications not classified as high risk would not have to incur any costs. However, they could choose to adhere to voluntary codes of conduct to follow suitable requirements, and to ensure that their AI is trustworthy. In these cases, costs could be as high as for high- risk applications at most, but most probably lower. What are the impacts on SMEs and competitiveness? SMEs will benefit more from a higher overall level of trust in AI than large companies who can also rely on their brand image. SMEs developing applications classified as high risk would have to bear similar costs as large companies. Indeed, due to the high scalability of digital technologies, small and medium enterprises can have an enormous reach despite their small size, potentially impacting millions of individuals. Thus, when it comes to high-risk applications, excluding AI supplying SMEs from the application of the regulatory framework could seriously undermine the objective of increasing trust. However, the framework will envisage specific measures, including regulatory sandboxes or assistance through the Digital Innovation Hubs, to support SMEs in their compliance with the new rules, taking into account their special needs. Will there be significant impacts on national budgets and administrations? Member States would have to designate supervisory authorities in charge of implementing the legislative requirements. Their supervisory function could build on existing arrangements, for example regarding conformity assessment bodies or market surveillance, but would require sufficient technological expertise and resources. Depending on the pre-existing structure in each Member States, this could amount to 1 to 25 Full Time Equivalents per Member States. Will there be other significant impacts? The preferred option would significantly mitigate risks to fundamental rights of citizens as well as broader Union values, and will enhance the safety of certain products and services embedding AI technology or stand-alone AI applications. Proportionality? The proposal is proportionate and necessary to achieve the objectives, as it follows a risk-based approach and imposes regulatory burdens only when the AI systems are likely to pose high risks to fundamental rights or safety. Where this is not the case, only minimal transparency obligations are imposed, in particular in terms of information provision to flag the use of an AI system when interacting with humans or use of deep fakes if not used for legitimate purposes. Harmonised standards and supporting guidance and compliance tools will aim to help providers and users to comply with requirements and minimise their costs. 3 D. Follow up When will the policy be reviewed? The Commission will publish a report evaluating and reviewing the framework five years following the date on which it becomes applicable.
1_DA_resume_impact_assessment_part1_v2.pdf
https://www.ft.dk/samling/20211/kommissionsforslag/kom(2021)0206/forslag/1773318/2410672.pdf
DA DA EUROPA- KOMMISSIONEN Bruxelles, den 21.4.2021 SWD(2021) 85 final ARBEJDSDOKUMENT FRA KOMMISSIONENS TJENESTEGRENE RESUMÉ AF RAPPORTEN OM KONSEKVENSANALYSEN Ledsagedokument til EUROPA-PARLAMENTETS OG RÅDETS FORORDNING OM HARMONISEREDE REGLER FOR KUNSTIG INTELLIGENS (RETSAKTEN OM KUNSTIG INTELLIGENS) OG OM ÆNDRING AF VISSE AF UNIONENS LOVGIVNINGSMÆSSIGE RETSAKTER {COM(2021) 206 final} - {SEC(2021) 167 final} - {SWD(2021) 84 final} Europaudvalget 2021 KOM (2021) 0206 - SWD-dokument Offentligt 1 Resumé Konsekvensanalyse af en lovgivningsmæssig ramme for kunstig intelligens A. Behov for handling Hvad er problemstillingen, og hvorfor er det en problem på EU-niveau? Kunstig intelligens (AI) er en ny teknologi til generelle formål og består af en meget stærk vifte af computerprogrammeringsteknikker. Udbredelsen af AI-systemer har et stort potentiale til at skabe samfundsmæssige fordele, økonomisk vækst og fremme EU's innovation og konkurrenceevne på verdensplan. I visse tilfælde kan anvendelsen af AI-systemer imidlertid give problemer. Visse AI- systemers særlige egenskaber kan skabe nye risici med hensyn til 1) sikkerhed og 2) grundlæggende rettigheder samt forstærke sandsynligheden for eller alvorligheden af eksisterende risici. AI-systemer 3) gør det også vanskeligt for håndhævende myndigheder at kontrollere, at de eksisterende regler overholdes, og håndhæve dem. Disse problemer fører igen til 4) retlig usikkerhed for virksomheder, 5) en potentielt langsommere udbredelse af AI-teknologier på grund af manglende tillid blandt virksomheder og borgere samt 6) lovgivningsmæssige tiltag fra de nationale myndigheders side for at afbøde eventuelle eksternaliteter, der risikerer at opsplitte det indre marked. Hvad bør opnås? Formålet med den lovgivningsmæssige ramme er at afhjælpe disse problemer for at sikre et velfungerende indre marked ved at skabe gunstige betingelser for udvikling og anvendelse af pålidelig kunstig intelligens i Unionen. De specifikke mål er at: 1) sørge for, at AI-systemer, der bringes i omsætning og anvendes, er sikre og i overensstemmelse med den eksisterende lovgivning om grundlæggende rettigheder og med Unionens værdier, 2) sikre retssikkerhed med henblik på at fremme investering og innovation inden for kunstig intelligens, 3) forbedre forvaltningen og den effektive håndhævelse af den eksisterende lovgivning om grundlæggende rettigheder og sikkerhedskrav til AI-systemer og 4) fremme udviklingen af et indre marked for lovlige, sikre og pålidelige AI-systemer og forhindre markedsfragmentering. Hvad er merværdien ved at handle på EU-plan (nærhedsprincippet)? Den grænseoverskridende karakter af de omfattende data og datasæt, som anvendelse af kunstig intelligens ofte er afhængig af, betyder, at initiativets mål ikke kan opfyldes effektivt af medlemsstaterne alene. Den europæiske lovgivningsmæssige ramme for pålidelig kunstig intelligens sigter mod fastsættelse af harmoniserede regler for udvikling, omsætning og anvendelse af produkter og tjenester, hvori AI- teknologi er integreret, eller selvstændig anvendelse af kunstig intelligens i Unionen. Formålet med den lovgivningsmæssige ramme er at sikre lige vilkår og beskytte alle EU-borgere, samtidig med EU's konkurrenceevne og industrielle grundlag inden for kunstig intelligens styrkes. Handling på EU-plan vil sætte skub i det indre marked og har et betydeligt potentiale til at give europæisk industri en konkurrencefordel på verdensplan og stordriftsfordele, som ikke kan opnås af de enkelte medlemsstater alene. B. Løsninger Hvilke forskellige løsningsmodeller er der for at nå målene? Foretrækkes en bestemt løsningsmodel frem for andre? Hvis ikke, hvorfor? Følgende løsningsmodeller er overvejet: model 1: en EU-retsakt, hvorved der indføres af en frivillig mærkningsordning; model 2: en sektorspecifik ad hoc-tilgang; model 3: en horisontal EU-retsakt, hvorved der fastsættes obligatoriske krav til AI-anvendelser, der udgør en høj risiko; model 3+: som model 3, men med frivillige adfærdskodekser for AI-anvendelser, der ikke udgør en høj risiko, og model 4: en horisontal EU-retsakt, hvorved der fastsættes obligatoriske krav til alle AI-anvendelser. Den foretrukne løsning er model 3+, da den giver forholdsmæssige garantier mod de risici, der er forbundet med kunstig intelligens, samtidig med at de administrative omkostninger og efterlevelsesomkostningerne begrænses til et minimum. Spørgsmålet om ansvar i forbindelse med anvendelse af kunstig intelligens vil blive behandlet i særskilte fremtidige regler og er dermed ikke omfattet af løsningsmodellerne. Hvad er de forskellige interessenters holdning? Hvem støtter hvilken løsning? 2 Virksomheder, offentlige myndigheder, forskere og NGO'er er alle enige i, at der er huller i lovgivningen, eller at der er behov for ny lovgivning, selv om flertallet af virksomheder, der mener sådan, er mindre. Industrien og offentlige myndigheder er enige i at begrænse de obligatoriske krav til AI-anvendelser, der udgør en høj risiko. Borgere og civilsamfundet er mere tilbøjelige til ikke at være enige i at begrænse obligatoriske krav til anvendelser, der udgør en høj risiko. C. Den foretrukne løsnings virkninger Hvilke fordele er der ved den foretrukne løsning (hvis en bestemt løsning foretrækkes — ellers fordelene ved de vigtigste af de mulige løsninger)? For borgerne vil den foretrukne løsningsmodel mindske risiciene for deres sikkerhed og grundlæggende rettigheder. For udbydere af kunstig intelligens vil modellen skabe retssikkerhed og sikre, at der ikke opstår hindringer for grænseoverskridende levering af AI-relaterede tjenester og produkter. For de virksomheder, der anvender kunstig intelligens, vil modellen fremme tilliden blandt deres kunder. For nationale offentlige forvaltninger vil modellen fremme offentlighedens tillid til brugen af kunstig intelligens og styrke håndhævelsesmekanismerne (idet der indføres en europæisk koordineringsmekanisme, tilvejebringes passende kapacitet, og revisionen af AI-systemer lettes med nye krav til dokumentation, sporbarhed og gennemsigtighed). Hvilke omkostninger er der ved den foretrukne løsning (hvis en bestemt løsning foretrækkes — ellers omkostningerne ved de vigtigste af de mulige løsninger)? De virksomheder eller offentlige myndigheder, der er udviklere eller brugere af AI-anvendelser, der udgør en høj risiko for borgernes sikkerhed eller grundlæggende rettigheder, vil skulle opfylde specifikke krav og forpligtelser, som vil blive indført ved hjælp af tekniske harmoniserede standarder. De samlede efterlevelsesomkostninger anslås til at være mellem 100 mio. EUR og 500 mio. EUR frem til 2025, hvilket svarer til op til 4-5 % af investeringerne i højrisiko-AI (som anslås til udgøre mellem 5 % og 15 % af alle AI-anvendelser). Kontrolomkostningerne kan beløbe sig til yderligere 2-5 % af investeringerne i kunstig intelligens med høj risiko. De virksomheder eller offentlige myndigheder, der er udviklere eller brugere af AI-anvendelser, der ikke er klassificeret som højrisiko, vil ikke skulle afholde nogen omkostninger. De kan imidlertid vælge at overholde frivillige adfærdskodekser for at følge passende krav og for at sikre, at deres AI-systemer er pålidelige. I disse tilfælde kan omkostningerne være lige så høje som for højrisikoanvendelser, men vil sandsynligvis være lavere. Hvad er indvirkningerne på SMV'er og på konkurrencedygtigheden? SMV'er vil drage fordel af et højere generelt niveau af tillid til kunstig intelligens end store virksomheder, som også kan nyde godt af deres image. De SMV'er, der udvikler anvendelser, der er klassificeret som højrisiko, vil skulle afholde omkostninger, der er lig dem, store virksomheder vil skulle afholde. På grund af de digitale teknologiers høje skalerbarhed kan SMV'er faktisk have en enorm rækkevidde på trods af deres størrelse og potentielt påvirke millioner af mennesker. Med hensyn til højrisikoanvendelser kan det i alvorlig grad undergrave målet om øget tillid, hvis SMV'er, der leverer kunstig intelligens, ikke er omfattet af den lovgivningsmæssige ramme. Rammen vil imidlertid indbefatte specifikke foranstaltninger, herunder reguleringsmæssige sandkasser eller bistand gennem de digitale innovationsknudepunkter, med henblik på at støtte SMV'er i overholdelsen af de nye regler under hensyntagen til deres særlige behov. Vil den foretrukne løsning få væsentlige virkninger for de nationale budgetter og myndigheder? Medlemsstaterne vil skulle udpege de tilsynsmyndigheder, der skal have ansvaret for at gennemføre de lovgivningsmæssige krav. Tilsynsfunktionen kan bygge på eksisterende ordninger, f.eks. angående overensstemmelsesvurderingsorganer eller markedsovervågning, men vil kræve tilstrækkelig teknologisk ekspertise og ressourcer. Afhængigt af den eksisterende struktur i hver medlemsstat kan dette beløbe sig til 1-25 fuldtidsækvivalenter pr. medlemsstat. Vil den foretrukne løsning få andre væsentlige virkninger? Den foretrukne løsningsmodel vil i væsentlig grad mindske risiciene for borgernes grundlæggende rettigheder samt for Unionens værdier i bredere forstand og vil øge sikkerheden i forbindelse med visse produkter og tjenester, hvori AI-teknologi er integreret, eller selvstændig anvendelse af kunstig intelligens 3 i Unionen. Proportionalitetsprincippet? Forslaget er rimeligt og nødvendigt for at nå målene, da det følger en risikobaseret tilgang og kun pålægger reguleringsmæssige byrder, hvis et AI-system sandsynligvis vil udgøre en høj risiko for grundlæggende rettigheder eller sikkerheden. Hvis det ikke er tilfældet, indføres der kun minimale gennemsigtighedsforpligtelser, navnlig med hensyn til formidling af oplysninger for at markere anvendelse af et AI-system i interaktion med mennesker eller brug af deepfake-indhold, hvis det ikke anvendes til lovlige formål. Harmoniserede standarder og understøttende vejlednings- og overholdelsesværktøjer vil sigte mod at hjælpe udbydere og brugere med at overholde kravene og minimere deres omkostninger. D. Opfølgning Hvornår vil foranstaltningen blive taget op til fornyet overvejelse? Kommissionen vil offentliggøre en rapport med en evaluering og en gennemgang af den foreslåede ramme fem år efter den dato, hvorfra den finder anvendelse.