Forslag til EUROPA-PARLAMENTETS OG RÅDETS FORORDNING OM HARMONISEREDE REGLER FOR KUNSTIG INTELLIGENS (RETSAKTEN OM KUNSTIG INTELLIGENS) OG OM ÆNDRING AF VISSE AF UNIONENS LOVGIVNINGSMÆSSIGE RETSAKTER

Tilhører sager:

Aktører:


    1_EN_ACT_part1_v7.pdf

    https://www.ft.dk/samling/20211/kommissionsforslag/kom(2021)0206/forslag/1773316/2379080.pdf

    EN EN
    EUROPEAN
    COMMISSION
    Brussels, 21.4.2021
    COM(2021) 206 final
    2021/0106 (COD)
    Proposal for a
    REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL
    LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE
    (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION
    LEGISLATIVE ACTS
    {SEC(2021) 167 final} - {SWD(2021) 84 final} - {SWD(2021) 85 final}
    Europaudvalget 2021
    KOM (2021) 0206 - Forslag til forordning
    Offentligt
    EN 1 EN
    EXPLANATORY MEMORANDUM
    1. CONTEXT OF THE PROPOSAL
    1.1. Reasons for and objectives of the proposal
    This explanatory memorandum accompanies the proposal for a Regulation laying down
    harmonised rules on artificial intelligence (Artificial Intelligence Act). Artificial Intelligence
    (AI) is a fast evolving family of technologies that can bring a wide array of economic and
    societal benefits across the entire spectrum of industries and social activities. By improving
    prediction, optimising operations and resource allocation, and personalising service delivery,
    the use of artificial intelligence can support socially and environmentally beneficial outcomes
    and provide key competitive advantages to companies and the European economy. Such
    action is especially needed in high-impact sectors, including climate change, environment and
    health, the public sector, finance, mobility, home affairs and agriculture. However, the same
    elements and techniques that power the socio-economic benefits of AI can also bring about
    new risks or negative consequences for individuals or the society. In light of the speed of
    technological change and possible challenges, the EU is committed to strive for a balanced
    approach. It is in the Union interest to preserve the EU’s technological leadership and to
    ensure that Europeans can benefit from new technologies developed and functioning
    according to Union values, fundamental rights and principles.
    This proposal delivers on the political commitment by President von der Leyen, who
    announced in her political guidelines for the 2019-2024 Commission “A Union that strives for
    more”1
    , that the Commission would put forward legislation for a coordinated European
    approach on the human and ethical implications of AI. Following on that announcement, on
    19 February 2020 the Commission published the White Paper on AI - A European approach
    to excellence and trust2
    . The White Paper sets out policy options on how to achieve the twin
    objective of promoting the uptake of AI and of addressing the risks associated with certain
    uses of such technology. This proposal aims to implement the second objective for the
    development of an ecosystem of trust by proposing a legal framework for trustworthy AI. The
    proposal is based on EU values and fundamental rights and aims to give people and other
    users the confidence to embrace AI-based solutions, while encouraging businesses to develop
    them. AI should be a tool for people and be a force for good in society with the ultimate aim
    of increasing human well-being. Rules for AI available in the Union market or otherwise
    affecting people in the Union should therefore be human centric, so that people can trust that
    the technology is used in a way that is safe and compliant with the law, including the respect
    of fundamental rights. Following the publication of the White Paper, the Commission
    launched a broad stakeholder consultation, which was met with a great interest by a large
    number of stakeholders who were largely supportive of regulatory intervention to address the
    challenges and concerns raised by the increasing use of AI.
    The proposal also responds to explicit requests from the European Parliament (EP) and the
    European Council, which have repeatedly expressed calls for legislative action to ensure a
    well-functioning internal market for artificial intelligence systems (‘AI systems’) where both
    benefits and risks of AI are adequately addressed at Union level. It supports the objective of
    the Union being a global leader in the development of secure, trustworthy and ethical artificial
    1
    https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_en.pdf
    2
    European Commission, White Paper on Artificial Intelligence - A European approach to excellence and
    trust, COM(2020) 65 final, 2020.
    EN 2 EN
    intelligence as stated by the European Council3
    and ensures the protection of ethical principles
    as specifically requested by the European Parliament4
    .
    In 2017, the European Council called for a ‘sense of urgency to address emerging trends’
    including ‘issues such as artificial intelligence …, while at the same time ensuring a high
    level of data protection, digital rights and ethical standards’5
    . In its 2019 Conclusions on the
    Coordinated Plan on the development and use of artificial intelligence Made in Europe6
    , the
    Council further highlighted the importance of ensuring that European citizens’ rights are fully
    respected and called for a review of the existing relevant legislation to make it fit for purpose
    for the new opportunities and challenges raised by AI. The European Council has also called
    for a clear determination of the AI applications that should be considered high-risk7
    .
    The most recent Conclusions from 21 October 2020 further called for addressing the opacity,
    complexity, bias, a certain degree of unpredictability and partially autonomous behaviour of
    certain AI systems, to ensure their compatibility with fundamental rights and to facilitate the
    enforcement of legal rules8
    .
    The European Parliament has also undertaken a considerable amount of work in the area of
    AI. In October 2020, it adopted a number of resolutions related to AI, including on ethics9
    ,
    liability10
    and copyright11
    . In 2021, those were followed by resolutions on AI in criminal
    matters12
    and in education, culture and the audio-visual sector13
    . The EP Resolution on a
    Framework of Ethical Aspects of Artificial Intelligence, Robotics and Related Technologies
    specifically recommends to the Commission to propose legislative action to harness the
    opportunities and benefits of AI, but also to ensure protection of ethical principles. The
    resolution includes a text of the legislative proposal for a regulation on ethical principles for
    the development, deployment and use of AI, robotics and related technologies. In accordance
    with the political commitment made by President von der Leyen in her Political Guidelines as
    regards resolutions adopted by the European Parliament under Article 225 TFEU, this
    3
    European Council, Special meeting of the European Council (1 and 2 October 2020) – Conclusions,
    EUCO 13/20, 2020, p. 6.
    4
    European Parliament resolution of 20 October 2020 with recommendations to the Commission on a
    framework of ethical aspects of artificial intelligence, robotics and related technologies,
    2020/2012(INL).
    5
    European Council, European Council meeting (19 October 2017) – Conclusion EUCO 14/17, 2017, p.
    8.
    6
    Council of the European Union, Artificial intelligence b) Conclusions on the coordinated plan on
    artificial intelligence-Adoption 6177/19, 2019.
    7
    European Council, Special meeting of the European Council (1and 2 October 2020) – Conclusions
    EUCO 13/20, 2020.
    8
    Council of the European Union, Presidency conclusions - The Charter of Fundamental Rights in the
    context of Artificial Intelligence and Digital Change, 11481/20, 2020.
    9
    European Parliament resolution of 20 October 2020 on a framework of ethical aspects of artificial
    intelligence, robotics and related technologies, 2020/2012(INL).
    10
    European Parliament resolution of 20 October 2020 on a civil liability regime for artificial intelligence,
    2020/2014(INL).
    11
    European Parliament resolution of 20 October 2020 on intellectual property rights for the development
    of artificial intelligence technologies, 2020/2015(INI).
    12
    European Parliament Draft Report, Artificial intelligence in criminal law and its use by the police and
    judicial authorities in criminal matters, 2020/2016(INI).
    13
    European Parliament Draft Report, Artificial intelligence in education, culture and the audiovisual
    sector, 2020/2017(INI). In that regard, the Commission has adopted the Digital Education Action Plan
    2021-2027: Resetting education and training for the digital age, which foresees the development of
    ethical guidelines in AI and Data usage in education – Commission Communication COM(2020) 624
    final.
    EN 3 EN
    proposal takes into account the aforementioned resolution of the European Parliament in full
    respect of proportionality, subsidiarity and better law making principles.
    Against this political context, the Commission puts forward the proposed regulatory
    framework on Artificial Intelligence with the following specific objectives:
     ensure that AI systems placed on the Union market and used are safe and respect
    existing law on fundamental rights and Union values;
     ensure legal certainty to facilitate investment and innovation in AI;
     enhance governance and effective enforcement of existing law on fundamental
    rights and safety requirements applicable to AI systems;
     facilitate the development of a single market for lawful, safe and trustworthy AI
    applications and prevent market fragmentation.
    To achieve those objectives, this proposal presents a balanced and proportionate horizontal
    regulatory approach to AI that is limited to the minimum necessary requirements to address
    the risks and problems linked to AI, without unduly constraining or hindering technological
    development or otherwise disproportionately increasing the cost of placing AI solutions on
    the market. The proposal sets a robust and flexible legal framework. On the one hand, it is
    comprehensive and future-proof in its fundamental regulatory choices, including the
    principle-based requirements that AI systems should comply with. On the other hand, it puts
    in place a proportionate regulatory system centred on a well-defined risk-based regulatory
    approach that does not create unnecessary restrictions to trade, whereby legal intervention is
    tailored to those concrete situations where there is a justified cause for concern or where such
    concern can reasonably be anticipated in the near future. At the same time, the legal
    framework includes flexible mechanisms that enable it to be dynamically adapted as the
    technology evolves and new concerning situations emerge.
    The proposal sets harmonised rules for the development, placement on the market and use of
    AI systems in the Union following a proportionate risk-based approach. It proposes a single
    future-proof definition of AI. Certain particularly harmful AI practices are prohibited as
    contravening Union values, while specific restrictions and safeguards are proposed in relation
    to certain uses of remote biometric identification systems for the purpose of law enforcement.
    The proposal lays down a solid risk methodology to define “high-risk” AI systems that pose
    significant risks to the health and safety or fundamental rights of persons. Those AI systems
    will have to comply with a set of horizontal mandatory requirements for trustworthy AI and
    follow conformity assessment procedures before those systems can be placed on the Union
    market. Predictable, proportionate and clear obligations are also placed on providers and users
    of those systems to ensure safety and respect of existing legislation protecting fundamental
    rights throughout the whole AI systems’ lifecycle. For some specific AI systems, only
    minimum transparency obligations are proposed, in particular when chatbots or ‘deep fakes’
    are used.
    The proposed rules will be enforced through a governance system at Member States level,
    building on already existing structures, and a cooperation mechanism at Union level with the
    establishment of a European Artificial Intelligence Board. Additional measures are also
    proposed to support innovation, in particular through AI regulatory sandboxes and other
    measures to reduce the regulatory burden and to support Small and Medium-Sized Enterprises
    (‘SMEs’) and start-ups.
    EN 4 EN
    1.2. Consistency with existing policy provisions in the policy area
    The horizontal nature of the proposal requires full consistency with existing Union legislation
    applicable to sectors where high-risk AI systems are already used or likely to be used in the
    near future.
    Consistency is also ensured with the EU Charter of Fundamental Rights and the existing
    secondary Union legislation on data protection, consumer protection, non-discrimination and
    gender equality. The proposal is without prejudice and complements the General Data
    Protection Regulation (Regulation (EU) 2016/679) and the Law Enforcement Directive
    (Directive (EU) 2016/680) with a set of harmonised rules applicable to the design,
    development and use of certain high-risk AI systems and restrictions on certain uses of remote
    biometric identification systems. Furthermore, the proposal complements existing Union law
    on non-discrimination with specific requirements that aim to minimise the risk of algorithmic
    discrimination, in particular in relation to the design and the quality of data sets used for the
    development of AI systems complemented with obligations for testing, risk management,
    documentation and human oversight throughout the AI systems’ lifecycle. The proposal is
    without prejudice to the application of Union competition law.
    As regards high-risk AI systems which are safety components of products, this proposal will
    be integrated into the existing sectoral safety legislation to ensure consistency, avoid
    duplications and minimise additional burdens. In particular, as regards high-risk AI systems
    related to products covered by the New Legislative Framework (NLF) legislation (e.g.
    machinery, medical devices, toys), the requirements for AI systems set out in this proposal
    will be checked as part of the existing conformity assessment procedures under the relevant
    NLF legislation. With regard to the interplay of requirements, while the safety risks specific
    to AI systems are meant to be covered by the requirements of this proposal, NLF legislation
    aims at ensuring the overall safety of the final product and therefore may contain specific
    requirements regarding the safe integration of an AI system into the final product. The
    proposal for a Machinery Regulation, which is adopted on the same day as this proposal fully
    reflects this approach. As regards high-risk AI systems related to products covered by relevant
    Old Approach legislation (e.g. aviation, cars), this proposal would not directly apply.
    However, the ex-ante essential requirements for high-risk AI systems set out in this proposal
    will have to be taken into account when adopting relevant implementing or delegated
    legislation under those acts.
    As regards AI systems provided or used by regulated credit institutions, the authorities
    responsible for the supervision of the Union’s financial services legislation should be
    designated as competent authorities for supervising the requirements in this proposal to ensure
    a coherent enforcement of the obligations under this proposal and the Union’s financial
    services legislation where AI systems are to some extent implicitly regulated in relation to the
    internal governance system of credit institutions. To further enhance consistency, the
    conformity assessment procedure and some of the providers’ procedural obligations under this
    proposal are integrated into the procedures under Directive 2013/36/EU on access to the
    activity of credit institutions and the prudential supervision14
    .
    14
    Directive 2013/36/EU of the European Parliament and of the Council of 26 June 2013 on access to the
    activity of credit institutions and the prudential supervision of credit institutions and investment firms,
    amending Directive 2002/87/EC and repealing Directives 2006/48/EC and 2006/49/EC Text with EEA
    relevance, OJ L 176, 27.6.2013, p. 338–436.
    EN 5 EN
    This proposal is also consistent with the applicable Union legislation on services, including on
    intermediary services regulated by the e-Commerce Directive 2000/31/EC15
    and the
    Commission’s recent proposal for the Digital Services Act (DSA)16
    .
    In relation to AI systems that are components of large-scale IT systems in the Area of
    Freedom, Security and Justice managed by the European Union Agency for the Operational
    Management of Large-Scale IT Systems (eu-LISA), the proposal will not apply to those AI
    systems that have been placed on the market or put into service before one year has elapsed
    from the date of application of this Regulation, unless the replacement or amendment of those
    legal acts leads to a significant change in the design or intended purpose of the AI system or
    AI systems concerned.
    1.3. Consistency with other Union policies
    The proposal is part of a wider comprehensive package of measures that address problems
    posed by the development and use of AI, as examined in the White Paper on AI. Consistency
    and complementarity is therefore ensured with other ongoing or planned initiatives of the
    Commission that also aim to address those problems, including the revision of sectoral
    product legislation (e.g. the Machinery Directive, the General Product Safety Directive) and
    initiatives that address liability issues related to new technologies, including AI systems.
    Those initiatives will build on and complement this proposal in order to bring legal clarity and
    foster the development of an ecosystem of trust in AI in Europe.
    The proposal is also coherent with the Commission’s overall digital strategy in its
    contribution to promoting technology that works for people, one of the three main pillars of
    the policy orientation and objectives announced in the Communication ‘Shaping Europe's
    digital future’17
    . It lays down a coherent, effective and proportionate framework to ensure AI
    is developed in ways that respect people’s rights and earn their trust, making Europe fit for the
    digital age and turning the next ten years into the Digital Decade18
    .
    Furthermore, the promotion of AI-driven innovation is closely linked to the Data
    Governance Act19
    , the Open Data Directive20
    and other initiatives under the EU strategy
    for data21
    , which will establish trusted mechanisms and services for the re-use, sharing and
    pooling of data that are essential for the development of data-driven AI models of high
    quality.
    The proposal also strengthens significantly the Union’s role to help shape global norms and
    standards and promote trustworthy AI that is consistent with Union values and interests. It
    provides the Union with a powerful basis to engage further with its external partners,
    including third countries, and at international fora on issues relating to AI.
    15
    Directive 2000/31/EC of the European Parliament and of the Council of 8 June 2000 on certain legal
    aspects of information society services, in particular electronic commerce, in the Internal Market
    ('Directive on electronic commerce'), OJ L 178, 17.7.2000, p. 1–16.
    16
    See Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL
    on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC
    COM/2020/825 final.
    17
    Communication from the Commission, Shaping Europe's Digital Future, COM/2020/67 final.
    18
    2030 Digital Compass: the European way for the Digital Decade.
    19
    Proposal for a Regulation on European data governance (Data Governance Act) COM/2020/767.
    20
    Directive (EU) 2019/1024 of the European Parliament and of the Council of 20 June 2019 on open data
    and the re-use of public sector information, PE/28/2019/REV/1, OJ L 172, 26.6.2019, p. 56–83.
    21
    Commission Communication, A European strategy for data COM/2020/66 final.
    EN 6 EN
    2. LEGAL BASIS, SUBSIDIARITY AND PROPORTIONALITY
    2.1. Legal basis
    The legal basis for the proposal is in the first place Article 114 of the Treaty on the
    Functioning of the European Union (TFEU), which provides for the adoption of measures to
    ensure the establishment and functioning of the internal market.
    This proposal constitutes a core part of the EU digital single market strategy. The primary
    objective of this proposal is to ensure the proper functioning of the internal market by setting
    harmonised rules in particular on the development, placing on the Union market and the use
    of products and services making use of AI technologies or provided as stand-alone AI
    systems. Some Member States are already considering national rules to ensure that AI is safe
    and is developed and used in compliance with fundamental rights obligations. This will likely
    lead to two main problems: i) a fragmentation of the internal market on essential elements
    regarding in particular the requirements for the AI products and services, their marketing,
    their use, the liability and the supervision by public authorities, and ii) the substantial
    diminishment of legal certainty for both providers and users of AI systems on how existing
    and new rules will apply to those systems in the Union. Given the wide circulation of products
    and services across borders, these two problems can be best solved through EU harmonizing
    legislation.
    Indeed, the proposal defines common mandatory requirements applicable to the design and
    development of certain AI systems before they are placed on the market that will be further
    operationalised through harmonised technical standards. The proposal also addresses the
    situation after AI systems have been placed on the market by harmonising the way in which
    ex-post controls are conducted.
    In addition, considering that this proposal contains certain specific rules on the protection of
    individuals with regard to the processing of personal data, notably restrictions of the use of AI
    systems for ‘real-time’ remote biometric identification in publicly accessible spaces for the
    purpose of law enforcement, it is appropriate to base this regulation, in as far as those specific
    rules are concerned, on Article 16 of the TFEU.
    2.2. Subsidiarity (for non-exclusive competence)
    The nature of AI, which often relies on large and varied datasets and which may be embedded
    in any product or service circulating freely within the internal market, entails that the
    objectives of this proposal cannot be effectively achieved by Member States alone.
    Furthermore, an emerging patchwork of potentially divergent national rules will hamper the
    seamless circulation of products and services related to AI systems across the EU and will be
    ineffective in ensuring the safety and protection of fundamental rights and Union values
    across the different Member States. National approaches in addressing the problems will only
    create additional legal uncertainty and barriers, and will slow market uptake of AI.
    The objectives of this proposal can be better achieved at Union level to avoid a further
    fragmentation of the Single Market into potentially contradictory national frameworks
    preventing the free circulation of goods and services embedding AI. A solid European
    regulatory framework for trustworthy AI will also ensure a level playing field and protect all
    people, while strengthening Europe’s competitiveness and industrial basis in AI. Only
    common action at Union level can also protect the Union’s digital sovereignty and leverage
    its tools and regulatory powers to shape global rules and standards.
    EN 7 EN
    2.3. Proportionality
    The proposal builds on existing legal frameworks and is proportionate and necessary to
    achieve its objectives, since it follows a risk-based approach and imposes regulatory burdens
    only when an AI system is likely to pose high risks to fundamental rights and safety. For
    other, non-high-risk AI systems, only very limited transparency obligations are imposed, for
    example in terms of the provision of information to flag the use of an AI system when
    interacting with humans. For high-risk AI systems, the requirements of high quality data,
    documentation and traceability, transparency, human oversight, accuracy and robustness, are
    strictly necessary to mitigate the risks to fundamental rights and safety posed by AI and that
    are not covered by other existing legal frameworks. Harmonised standards and supporting
    guidance and compliance tools will assist providers and users in complying with the
    requirements laid down by the proposal and minimise their costs. The costs incurred by
    operators are proportionate to the objectives achieved and the economic and reputational
    benefits that operators can expect from this proposal.
    2.4. Choice of the instrument
    The choice of a regulation as a legal instrument is justified by the need for a uniform
    application of the new rules, such as definition of AI, the prohibition of certain harmful AI-
    enabled practices and the classification of certain AI systems. The direct applicability of a
    Regulation, in accordance with Article 288 TFEU, will reduce legal fragmentation and
    facilitate the development of a single market for lawful, safe and trustworthy AI systems. It
    will do so, in particular, by introducing a harmonised set of core requirements with regard to
    AI systems classified as high-risk and obligations for providers and users of those systems,
    improving the protection of fundamental rights and providing legal certainty for operators and
    consumers alike.
    At the same time, the provisions of the regulation are not overly prescriptive and leave room
    for different levels of Member State action for elements that do not undermine the objectives
    of the initiative, in particular the internal organisation of the market surveillance system and
    the uptake of measures to foster innovation.
    3. RESULTS OF EX-POST EVALUATIONS, STAKEHOLDER
    CONSULTATIONS AND IMPACT ASSESSMENTS
    3.1. Stakeholder consultation
    This proposal is the result of extensive consultation with all major stakeholders, in which the
    general principles and minimum standards for consultation of interested parties by the
    Commission were applied.
    An online public consultation was launched on 19 February 2020 along with the publication
    of the White Paper on Artificial Intelligence and ran until 14 June 2020. The objective of that
    consultation was to collect views and opinions on the White Paper. It targeted all interested
    stakeholders from the public and private sectors, including governments, local authorities,
    commercial and non-commercial organisations, social partners, experts, academics and
    citizens. After analysing all the responses received, the Commission published a summary
    outcome and the individual responses on its website22
    .
    In total, 1215 contributions were received, of which 352 were from companies or business
    organisations/associations, 406 from individuals (92%individuals from EU ), 152 on behalf of
    22
    See all consultation results here.
    EN 8 EN
    academic/research institutions, and 73 from public authorities. Civil society’s voices were
    represented by 160 respondents (among which 9 consumers’ organisations, 129 non-
    governmental organisations and 22 trade unions), 72 respondents contributed as ‘others’. Of
    the 352 business and industry representatives, 222 were companies and business
    representatives, 41.5% of which were micro, small and medium-sized enterprises. The rest
    were business associations. Overall, 84% of business and industry replies came from the EU-
    27. Depending on the question, between 81 and 598 of the respondents used the free text
    option to insert comments. Over 450 position papers were submitted through the EU Survey
    website, either in addition to questionnaire answers (over 400) or as stand-alone contributions
    (over 50).
    Overall, there is a general agreement amongst stakeholders on a need for action. A large
    majority of stakeholders agree that legislative gaps exist or that new legislation is needed.
    However, several stakeholders warn the Commission to avoid duplication, conflicting
    obligations and overregulation. There were many comments underlining the importance of a
    technology neutral and proportionate regulatory framework.
    Stakeholders mostly requested a narrow, clear and precise definition for AI. Stakeholders also
    highlighted that besides the clarification of the term of AI, it is important to define ‘risk’,
    ‘high-risk’, ‘low-risk’, ‘remote biometric identification’ and ‘harm’.
    Most of the respondents are explicitly in favour of the risk-based approach. Using a risk-based
    framework was considered a better option than blanket regulation of all AI systems. The types
    of risks and threats should be based on a sector-by-sector and case-by-case approach. Risks
    also should be calculated taking into account the impact on rights and safety.
    Regulatory sandboxes could be very useful for the promotion of AI and are welcomed by
    certain stakeholders, especially the Business Associations.
    Among those who formulated their opinion on the enforcement models, more than 50%,
    especially from the business associations, were in favour of a combination of an ex-ante risk
    self-assessment and an ex-post enforcement for high-risk AI systems.
    3.2. Collection and use of expertise
    The proposal builds on two years of analysis and close involvement of stakeholders, including
    academics, businesses, social partners, non-governmental organisations, Member States and
    citizens. The preparatory work started in 2018 with the setting up of a High-Level Expert
    Group on AI (HLEG) which had an inclusive and broad composition of 52 well-known
    experts tasked to advise the Commission on the implementation of the Commission’s Strategy
    on Artificial Intelligence. In April 2019, the Commission supported23
    the key requirements set
    out in the HLEG ethics guidelines for Trustworthy AI24
    , which had been revised to take into
    account more than 500 submissions from stakeholders. The key requirements reflect a
    widespread and common approach, as evidenced by a plethora of ethical codes and principles
    developed by many private and public organisations in Europe and beyond, that AI
    development and use should be guided by certain essential value-oriented principles. The
    Assessment List for Trustworthy Artificial Intelligence (ALTAI)25
    made those requirements
    operational in a piloting process with over 350 organisations.
    23
    European Commission, Building Trust in Human-Centric Artificial Intelligence, COM(2019) 168.
    24
    HLEG, Ethics Guidelines for Trustworthy AI, 2019.
    25
    HLEG, Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment, 2020.
    EN 9 EN
    In addition, the AI Alliance26
    was formed as a platform for approximately 4000 stakeholders
    to debate the technological and societal implications of AI, culminating in a yearly AI
    Assembly.
    The White Paper on AI further developed this inclusive approach, inciting comments from
    more than 1250 stakeholders, including over 450 additional position papers. As a result, the
    Commission published an Inception Impact Assessment, which in turn attracted more than
    130 comments27
    . Additional stakeholder workshops and events were also organised the
    results of which support the analysis in the impact assessment and the policy choices made in
    this proposal28
    . An external study was also procured to feed into the impact assessment.
    3.3. Impact assessment
    In line with its “Better Regulation” policy, the Commission conducted an impact assessment
    for this proposal examined by the Commission's Regulatory Scrutiny Board. A meeting with
    the Regulatory Scrutiny Board was held on 16 December 2020, which was followed by a
    negative opinion. After substantial revision of the impact assessment to address the comments
    and a resubmission of the impact assessment, the Regulatory Scrutiny Board issued a positive
    opinion on 21 March 2021. The opinions of the Regulatory Scrutiny Board, the
    recommendations and an explanation of how they have been taken into account are presented
    in Annex 1 of the impact assessment.
    The Commission examined different policy options to achieve the general objective of the
    proposal, which is to ensure the proper functioning of the single market by creating the
    conditions for the development and use of trustworthy AI in the Union.
    Four policy options of different degrees of regulatory intervention were assessed:
     Option 1: EU legislative instrument setting up a voluntary labelling scheme;
     Option 2: a sectoral, “ad-hoc” approach;
     Option 3: Horizontal EU legislative instrument following a proportionate risk-
    based approach;
     Option 3+: Horizontal EU legislative instrument following a proportionate risk-
    based approach + codes of conduct for non-high-risk AI systems;
     Option 4: Horizontal EU legislative instrument establishing mandatory
    requirements for all AI systems, irrespective of the risk they pose.
    According to the Commission's established methodology, each policy option was evaluated
    against economic and societal impacts, with a particular focus on impacts on fundamental
    rights. The preferred option is option 3+, a regulatory framework for high-risk AI systems
    only, with the possibility for all providers of non-high-risk AI systems to follow a code of
    conduct. The requirements will concern data, documentation and traceability, provision of
    information and transparency, human oversight and robustness and accuracy and would be
    mandatory for high-risk AI systems. Companies that introduced codes of conduct for other AI
    systems would do so voluntarily.
    26
    The AI Alliance is a multi-stakeholder forum launched in June 2018, AI Alliance
    https://ec.europa.eu/digital-single-market/en/european-ai-alliance
    27
    European Commission, Inception Impact Assessment For a Proposal for a legal act of the European
    Parliament and the Council laying down requirements for Artificial Intelligence.
    28
    For details of all the consultations that have been carried out see Annex 2 of the impact assessment.
    EN 10 EN
    The preferred option was considered suitable to address in the most effective way the
    objectives of this proposal. By requiring a restricted yet effective set of actions from AI
    developers and users, the preferred option limits the risks of violation of fundamental rights
    and safety of people and foster effective supervision and enforcement, by targeting the
    requirements only to systems where there is a high risk that such violations could occur. As a
    result, that option keeps compliance costs to a minimum, thus avoiding an unnecessary
    slowing of uptake due to higher prices and compliance costs. In order to address possible
    disadvantages for SMEs, this option includes several provisions to support their compliance
    and reduce their costs, including creation of regulatory sandboxes and obligation to consider
    SMEs interests when setting fees related to conformity assessment.
    The preferred option will increase people’s trust in AI, companies will gain in legal certainty,
    and Member States will see no reason to take unilateral action that could fragment the single
    market. As a result of higher demand due to higher trust, more available offers due to legal
    certainty, and the absence of obstacles to cross-border movement of AI systems, the single
    market for AI will likely flourish. The European Union will continue to develop a fast-
    growing AI ecosystem of innovative services and products embedding AI technology or
    stand-alone AI systems, resulting in increased digital autonomy.
    Businesses or public authorities that develop or use AI applications that constitute a high risk
    for the safety or fundamental rights of citizens would have to comply with specific
    requirements and obligations. Compliance with these requirements would imply costs
    amounting to approximately EUR € 6000 to EUR € 7000 for the supply of an average high-
    risk AI system of around EUR € 170000 by 2025. For AI users, there would also be the
    annual cost for the time spent on ensuring human oversight where this is appropriate,
    depending on the use case. Those have been estimated at approximately EUR € 5000 to EUR
    € 8000 per year. Verification costs could amount to another EUR € 3000 to EUR € 7500 for
    suppliers of high-risk AI. Businesses or public authorities that develop or use any AI
    applications not classified as high risk would only have minimal obligations of information.
    However, they could choose to join others and together adopt a code of conduct to follow
    suitable requirements, and to ensure that their AI systems are trustworthy. In such a case,
    costs would be at most as high as for high-risk AI systems, but most probably lower.
    The impacts of the policy options on different categories of stakeholders (economic operators/
    business; conformity assessment bodies, standardisation bodies and other public bodies;
    individuals/citizens; researchers) are explained in detail in Annex 3 of the Impact assessment
    supporting this proposal.
    3.4. Regulatory fitness and simplification
    This proposal lays down obligation that will apply to providers and users of high-risk AI
    systems. For providers who develop and place such systems on the Union market, it will
    create legal certainty and ensure that no obstacle to the cross-border provision of AI-related
    services and products emerge. For companies using AI, it will promote trust among their
    customers. For national public administrations, it will promote public trust in the use of AI
    and strengthen enforcement mechanisms (by introducing a European coordination
    mechanism, providing for appropriate capacities, and facilitating audits of the AI systems
    with new requirements for documentation, traceability and transparency). Moreover, the
    framework will envisage specific measures supporting innovation, including regulatory
    sandboxes and specific measures supporting small-scale users and providers of high-risk AI
    systems to comply with the new rules.
    The proposal also specifically aims at strengthening Europe’s competitiveness and industrial
    basis in AI. Full consistency is ensured with existing sectoral Union legislation applicable to
    EN 11 EN
    AI systems (e.g. on products and services) that will bring further clarity and simplify the
    enforcement of the new rules.
    3.5. Fundamental rights
    The use of AI with its specific characteristics (e.g. opacity, complexity, dependency on data,
    autonomous behaviour) can adversely affect a number of fundamental rights enshrined in the
    EU Charter of Fundamental Rights (‘the Charter’). This proposal seeks to ensure a high level
    of protection for those fundamental rights and aims to address various sources of risks
    through a clearly defined risk-based approach. With a set of requirements for trustworthy AI
    and proportionate obligations on all value chain participants, the proposal will enhance and
    promote the protection of the rights protected by the Charter: the right to human dignity
    (Article 1), respect for private life and protection of personal data (Articles 7 and 8), non-
    discrimination (Article 21) and equality between women and men (Article 23). It aims to
    prevent a chilling effect on the rights to freedom of expression (Article 11) and freedom of
    assembly (Article 12), to ensure protection of the right to an effective remedy and to a fair
    trial, the rights of defence and the presumption of innocence (Articles 47 and 48), as well as
    the general principle of good administration. Furthermore, as applicable in certain domains,
    the proposal will positively affect the rights of a number of special groups, such as the
    workers’ rights to fair and just working conditions (Article 31), a high level of consumer
    protection (Article 28), the rights of the child (Article 24) and the integration of persons with
    disabilities (Article 26). The right to a high level of environmental protection and the
    improvement of the quality of the environment (Article 37) is also relevant, including in
    relation to the health and safety of people. The obligations for ex ante testing, risk
    management and human oversight will also facilitate the respect of other fundamental rights
    by minimising the risk of erroneous or biased AI-assisted decisions in critical areas such as
    education and training, employment, important services, law enforcement and the judiciary. In
    case infringements of fundamental rights still happen, effective redress for affected persons
    will be made possible by ensuring transparency and traceability of the AI systems coupled
    with strong ex post controls.
    This proposal imposes some restrictions on the freedom to conduct business (Article 16) and
    the freedom of art and science (Article 13) to ensure compliance with overriding reasons of
    public interest such as health, safety, consumer protection and the protection of other
    fundamental rights (‘responsible innovation’) when high-risk AI technology is developed and
    used. Those restrictions are proportionate and limited to the minimum necessary to prevent
    and mitigate serious safety risks and likely infringements of fundamental rights.
    The increased transparency obligations will also not disproportionately affect the right to
    protection of intellectual property (Article 17(2)), since they will be limited only to the
    minimum necessary information for individuals to exercise their right to an effective remedy
    and to the necessary transparency towards supervision and enforcement authorities, in line
    with their mandates. Any disclosure of information will be carried out in compliance with
    relevant legislation in the field, including Directive 2016/943 on the protection of undisclosed
    know-how and business information (trade secrets) against their unlawful acquisition, use and
    disclosure. When public authorities and notified bodies need to be given access to confidential
    information or source code to examine compliance with substantial obligations, they are
    placed under binding confidentiality obligations.
    4. BUDGETARY IMPLICATIONS
    Member States will have to designate supervisory authorities in charge of implementing the
    legislative requirements. Their supervisory function could build on existing arrangements, for
    EN 12 EN
    example regarding conformity assessment bodies or market surveillance, but would require
    sufficient technological expertise and human and financial resources. Depending on the pre-
    existing structure in each Member State, this could amount to 1 to 25 Full Time Equivalents
    per Member State.
    A detailed overview of the costs involved is provided in the ‘financial statement’ linked to
    this proposal.
    5. OTHER ELEMENTS
    5.1. Implementation plans and monitoring, evaluation and reporting arrangements
    Providing for a robust monitoring and evaluation mechanism is crucial to ensure that the
    proposal will be effective in achieving its specific objectives. The Commission will be in
    charge of monitoring the effects of the proposal. It will establish a system for registering
    stand-alone high-risk AI applications in a public EU-wide database. This registration will also
    enable competent authorities, users and other interested people to verify if the high-risk AI
    system complies with the requirements laid down in the proposal and to exercise enhanced
    oversight over those AI systems posing high risks to fundamental rights. To feed this
    database, AI providers will be obliged to provide meaningful information about their systems
    and the conformity assessment carried out on those systems.
    Moreover, AI providers will be obliged to inform national competent authorities about serious
    incidents or malfunctioning that constitute a breach of fundamental rights obligations as soon
    as they become aware of them, as well as any recalls or withdrawals of AI systems from the
    market. National competent authorities will then investigate the incidents/or malfunctioning,
    collect all the necessary information and regularly transmit it to the Commission with
    adequate metadata. The Commission will complement this information on the incidents by a
    comprehensive analysis of the overall market for AI.
    The Commission will publish a report evaluating and reviewing the proposed AI framework
    five years following the date on which it becomes applicable.
    5.2. Detailed explanation of the specific provisions of the proposal
    5.2.1. SCOPE AND DEFINITIONS (TITLE I)
    Title I defines the subject matter of the regulation and the scope of application of the new
    rules that cover the placing on the market, putting into service and use of AI systems. It also
    sets out the definitions used throughout the instrument. The definition of AI system in the
    legal framework aims to be as technology neutral and future proof as possible, taking into
    account the fast technological and market developments related to AI. In order to provide the
    needed legal certainty, Title I is complemented by Annex I, which contains a detailed list of
    approaches and techniques for the development of AI to be adapted by the Commission in line
    with new technological developments. Key participants across the AI value chain are also
    clearly defined such as providers and users of AI systems that cover both public and private
    operators to ensure a level playing field.
    5.2.2. PROHIBITED ARTIFICIAL INTELLIGENCE PRACTICES (TITLE II)
    Title II establishes a list of prohibited AI. The regulation follows a risk-based approach,
    differentiating between uses of AI that create (i) an unacceptable risk, (ii) a high risk, and (iii)
    low or minimal risk. The list of prohibited practices in Title II comprises all those AI systems
    whose use is considered unacceptable as contravening Union values, for instance by violating
    fundamental rights. The prohibitions covers practices that have a significant potential to
    manipulate persons through subliminal techniques beyond their consciousness or exploit
    EN 13 EN
    vulnerabilities of specific vulnerable groups such as children or persons with disabilities in
    order to materially distort their behaviour in a manner that is likely to cause them or another
    person psychological or physical harm. Other manipulative or exploitative practices affecting
    adults that might be facilitated by AI systems could be covered by the existing data
    protection, consumer protection and digital service legislation that guarantee that natural
    persons are properly informed and have free choice not to be subject to profiling or other
    practices that might affect their behaviour. The proposal also prohibits AI-based social
    scoring for general purposes done by public authorities. Finally, the use of ‘real time’ remote
    biometric identification systems in publicly accessible spaces for the purpose of law
    enforcement is also prohibited unless certain limited exceptions apply.
    5.2.3. HIGH-RISK AI SYSTEMS (TITLE III)
    Title III contains specific rules for AI systems that create a high risk to the health and safety
    or fundamental rights of natural persons. In line with a risk-based approach, those high-risk
    AI systems are permitted on the European market subject to compliance with certain
    mandatory requirements and an ex-ante conformity assessment. The classification of an AI
    system as high-risk is based on the intended purpose of the AI system, in line with existing
    product safety legislation. Therefore, the classification as high-risk does not only depend on
    the function performed by the AI system, but also on the specific purpose and modalities for
    which that system is used.
    Chapter 1 of Title III sets the classification rules and identifies two main categories of high-
    risk AI systems:
     AI systems intended to be used as safety component of products that are subject to
    third party ex-ante conformity assessment;
     other stand-alone AI systems with mainly fundamental rights implications that are
    explicitly listed in Annex III.
    This list of high-risk AI systems in Annex III contains a limited number of AI systems whose
    risks have already materialised or are likely to materialise in the near future. To ensure that
    the regulation can be adjusted to emerging uses and applications of AI, the Commission may
    expand the list of high-risk AI systems used within certain pre-defined areas, by applying a
    set of criteria and risk assessment methodology.
    Chapter 2 sets out the legal requirements for high-risk AI systems in relation to data and data
    governance, documentation and recording keeping, transparency and provision of information
    to users, human oversight, robustness, accuracy and security. The proposed minimum
    requirements are already state-of-the-art for many diligent operators and the result of two
    years of preparatory work, derived from the Ethics Guidelines of the HLEG29
    , piloted by
    more than 350 organisations30
    . They are also largely consistent with other international
    recommendations and principles, which ensures that the proposed AI framework is
    compatible with those adopted by the EU’s international trade partners. The precise technical
    solutions to achieve compliance with those requirements may be provided by standards or by
    other technical specifications or otherwise be developed in accordance with general
    engineering or scientific knowledge at the discretion of the provider of the AI system. This
    flexibility is particularly important, because it allows providers of AI systems to choose the
    29
    High-Level Expert Group on Artificial Intelligence, Ethics Guidelines for Trustworthy AI, 2019.
    30
    They were also endorsed by the Commission in its 2019 Communication on human-centric approach to
    AI.
    EN 14 EN
    way to meet their requirements, taking into account the state-of-the-art and technological and
    scientific progress in this field.
    Chapter 3 places a clear set of horizontal obligations on providers of high-risk AI systems.
    Proportionate obligations are also placed on users and other participants across the AI value
    chain (e.g., importers, distributors, authorized representatives).
    Chapter 4 sets the framework for notified bodies to be involved as independent third parties in
    conformity assessment procedures, while Chapter 5 explains in detail the conformity
    assessment procedures to be followed for each type of high-risk AI system. The conformity
    assessment approach aims to minimise the burden for economic operators as well as for
    notified bodies, whose capacity needs to be progressively ramped up over time. AI systems
    intended to be used as safety components of products that are regulated under the New
    Legislative Framework legislation (e.g. machinery, toys, medical devices, etc.) will be subject
    to the same ex-ante and ex-post compliance and enforcement mechanisms of the products of
    which they are a component. The key difference is that the ex-ante and ex-post mechanisms
    will ensure compliance not only with the requirements established by sectorial legislation, but
    also with the requirements established by this regulation.
    As regards stand-alone high-risk AI systems that are referred to in Annex III, a new
    compliance and enforcement system will be established. This follows the model of the New
    Legislative Framework legislation implemented through internal control checks by the
    providers with the exception of remote biometric identification systems that would be subject
    to third party conformity assessment. A comprehensive ex-ante conformity assessment
    through internal checks, combined with a strong ex-post enforcement, could be an effective
    and reasonable solution for those systems, given the early phase of the regulatory intervention
    and the fact the AI sector is very innovative and expertise for auditing is only now being
    accumulated. An assessment through internal checks for ‘stand-alone’ high-risk AI systems
    would require a full, effective and properly documented ex ante compliance with all
    requirements of the regulation and compliance with robust quality and risk management
    systems and post-market monitoring. After the provider has performed the relevant
    conformity assessment, it should register those stand-alone high-risk AI systems in an EU
    database that will be managed by the Commission to increase public transparency and
    oversight and strengthen ex post supervision by competent authorities. By contrast, for
    reasons of consistency with the existing product safety legislation, the conformity assessments
    of AI systems that are safety components of products will follow a system with third party
    conformity assessment procedures already established under the relevant sectoral product
    safety legislation. New ex ante re-assessments of the conformity will be needed in case of
    substantial modifications to the AI systems (and notably changes which go beyond what is
    pre-determined by the provider in its technical documentation and checked at the moment of
    the ex-ante conformity assessment).
    5.2.4. TRANSPARENCY OBLIGATIONS FOR CERTAIN AI SYSTEMS (TITLE IV)
    Title IV concerns certain AI systems to take account of the specific risks of manipulation they
    pose. Transparency obligations will apply for systems that (i) interact with humans, (ii) are
    used to detect emotions or determine association with (social) categories based on biometric
    data, or (iii) generate or manipulate content (‘deep fakes’). When persons interact with an AI
    system or their emotions or characteristics are recognised through automated means, people
    must be informed of that circumstance. If an AI system is used to generate or manipulate
    image, audio or video content that appreciably resembles authentic content, there should be an
    obligation to disclose that the content is generated through automated means, subject to
    EN 15 EN
    exceptions for legitimate purposes (law enforcement, freedom of expression). This allows
    persons to make informed choices or step back from a given situation.
    5.2.5. MEASURES IN SUPPORT OF INNOVATION (TITLE V)
    Title V contributes to the objective to create a legal framework that is innovation-friendly,
    future-proof and resilient to disruption. To that end, it encourages national competent
    authorities to set up regulatory sandboxes and sets a basic framework in terms of governance,
    supervision and liability. AI regulatory sandboxes establish a controlled environment to test
    innovative technologies for a limited time on the basis of a testing plan agreed with the
    competent authorities. Title V also contains measures to reduce the regulatory burden on
    SMEs and start-ups.
    5.2.6. GOVERNANCE AND IMPLEMENTATION (TITLES VI, VII AND VII)
    Title VI sets up the governance systems at Union and national level. At Union level, the
    proposal establishes a European Artificial Intelligence Board (the ‘Board’), composed of
    representatives from the Member States and the Commission. The Board will facilitate a
    smooth, effective and harmonised implementation of this regulation by contributing to the
    effective cooperation of the national supervisory authorities and the Commission and
    providing advice and expertise to the Commission. It will also collect and share best practices
    among the Member States.
    At national level, Member States will have to designate one or more national competent
    authorities and, among them, the national supervisory authority, for the purpose of
    supervising the application and implementation of the regulation. The European Data
    Protection Supervisor will act as the competent authority for the supervision of the Union
    institutions, agencies and bodies when they fall within the scope of this regulation.
    Title VII aims to facilitate the monitoring work of the Commission and national authorities
    through the establishment of an EU-wide database for stand-alone high-risk AI systems with
    mainly fundamental rights implications. The database will be operated by the Commission
    and provided with data by the providers of the AI systems, who will be required to register
    their systems before placing them on the market or otherwise putting them into service.
    Title VIII sets out the monitoring and reporting obligations for providers of AI systems with
    regard to post-market monitoring and reporting and investigating on AI-related incidents and
    malfunctioning. Market surveillance authorities would also control the market and investigate
    compliance with the obligations and requirements for all high-risk AI systems already placed
    on the market. Market surveillance authorities would have all powers under Regulation (EU)
    2019/1020 on market surveillance. Ex-post enforcement should ensure that once the AI
    system has been put on the market, public authorities have the powers and resources to
    intervene in case AI systems generate unexpected risks, which warrant rapid action. They will
    also monitor compliance of operators with their relevant obligations under the regulation. The
    proposal does not foresee the automatic creation of any additional bodies or authorities at
    Member State level. Member States may therefore appoint (and draw upon the expertise of)
    existing sectorial authorities, who would be entrusted also with the powers to monitor and
    enforce the provisions of the regulation.
    All this is without prejudice to the existing system and allocation of powers of ex-post
    enforcement of obligations regarding fundamental rights in the Member States. When
    necessary for their mandate, existing supervision and enforcement authorities will also have
    the power to request and access any documentation maintained following this regulation and,
    where needed, request market surveillance authorities to organise testing of the high-risk AI
    system through technical means.
    EN 16 EN
    5.2.7. CODES OF CONDUCT (TITLE IX)
    Title IX creates a framework for the creation of codes of conduct, which aim to encourage
    providers of non-high-risk AI systems to apply voluntarily the mandatory requirements for
    high-risk AI systems (as laid out in Title III). Providers of non-high-risk AI systems may
    create and implement the codes of conduct themselves. Those codes may also include
    voluntary commitments related, for example, to environmental sustainability, accessibility for
    persons with disability, stakeholders’ participation in the design and development of AI
    systems, and diversity of development teams.
    5.2.8. FINAL PROVISIONS (TITLES X, XI AND XII)
    Title X emphasizes the obligation of all parties to respect the confidentiality of information
    and data and sets out rules for the exchange of information obtained during the
    implementation of the regulation. Title X also includes measures to ensure the effective
    implementation of the regulation through effective, proportionate, and dissuasive penalties for
    infringements of the provisions.
    Title XI sets out rules for the exercise of delegation and implementing powers. The proposal
    empowers the Commission to adopt, where appropriate, implementing acts to ensure uniform
    application of the regulation or delegated acts to update or complement the lists in Annexes I
    to VII.
    Title XII contains an obligation for the Commission to assess regularly the need for an update
    of Annex III and to prepare regular reports on the evaluation and review of the regulation. It
    also lays down final provisions, including a differentiated transitional period for the initial
    date of the applicability of the regulation to facilitate the smooth implementation for all
    parties concerned.
    EN 17 EN
    2021/0106 (COD)
    Proposal for a
    REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL
    LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE
    (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION
    LEGISLATIVE ACTS
    THE EUROPEAN PARLIAMENT AND THE COUNCIL OF THE EUROPEAN UNION,
    Having regard to the Treaty on the Functioning of the European Union, and in particular
    Articles 16 and 114 thereof,
    Having regard to the proposal from the European Commission,
    After transmission of the draft legislative act to the national parliaments,
    Having regard to the opinion of the European Economic and Social Committee31
    ,
    Having regard to the opinion of the Committee of the Regions32
    ,
    Acting in accordance with the ordinary legislative procedure,
    Whereas:
    (1) The purpose of this Regulation is to improve the functioning of the internal market by
    laying down a uniform legal framework in particular for the development, marketing
    and use of artificial intelligence in conformity with Union values. This Regulation
    pursues a number of overriding reasons of public interest, such as a high level of
    protection of health, safety and fundamental rights, and it ensures the free movement
    of AI-based goods and services cross-border, thus preventing Member States from
    imposing restrictions on the development, marketing and use of AI systems, unless
    explicitly authorised by this Regulation.
    (2) Artificial intelligence systems (AI systems) can be easily deployed in multiple sectors
    of the economy and society, including cross border, and circulate throughout the
    Union. Certain Member States have already explored the adoption of national rules to
    ensure that artificial intelligence is safe and is developed and used in compliance with
    fundamental rights obligations. Differing national rules may lead to fragmentation of
    the internal market and decrease legal certainty for operators that develop or use AI
    systems. A consistent and high level of protection throughout the Union should
    therefore be ensured, while divergences hampering the free circulation of AI systems
    and related products and services within the internal market should be prevented, by
    laying down uniform obligations for operators and guaranteeing the uniform
    protection of overriding reasons of public interest and of rights of persons throughout
    the internal market based on Article 114 of the Treaty on the Functioning of the
    European Union (TFEU). To the extent that this Regulation contains specific rules on
    the protection of individuals with regard to the processing of personal data concerning
    31
    OJ C […], […], p. […].
    32
    OJ C […], […], p. […].
    EN 18 EN
    restrictions of the use of AI systems for ‘real-time’ remote biometric identification in
    publicly accessible spaces for the purpose of law enforcement, it is appropriate to base
    this Regulation, in as far as those specific rules are concerned, on Article 16 of the
    TFEU. In light of those specific rules and the recourse to Article 16 TFEU, it is
    appropriate to consult the European Data Protection Board.
    (3) Artificial intelligence is a fast evolving family of technologies that can contribute to a
    wide array of economic and societal benefits across the entire spectrum of industries
    and social activities. By improving prediction, optimising operations and resource
    allocation, and personalising digital solutions available for individuals and
    organisations, the use of artificial intelligence can provide key competitive advantages
    to companies and support socially and environmentally beneficial outcomes, for
    example in healthcare, farming, education and training, infrastructure management,
    energy, transport and logistics, public services, security, justice, resource and energy
    efficiency, and climate change mitigation and adaptation.
    (4) At the same time, depending on the circumstances regarding its specific application
    and use, artificial intelligence may generate risks and cause harm to public interests
    and rights that are protected by Union law. Such harm might be material or
    immaterial.
    (5) A Union legal framework laying down harmonised rules on artificial intelligence is
    therefore needed to foster the development, use and uptake of artificial intelligence in
    the internal market that at the same time meets a high level of protection of public
    interests, such as health and safety and the protection of fundamental rights, as
    recognised and protected by Union law. To achieve that objective, rules regulating the
    placing on the market and putting into service of certain AI systems should be laid
    down, thus ensuring the smooth functioning of the internal market and allowing those
    systems to benefit from the principle of free movement of goods and services. By
    laying down those rules, this Regulation supports the objective of the Union of being a
    global leader in the development of secure, trustworthy and ethical artificial
    intelligence, as stated by the European Council33
    , and it ensures the protection of
    ethical principles, as specifically requested by the European Parliament34
    .
    (6) The notion of AI system should be clearly defined to ensure legal certainty, while
    providing the flexibility to accommodate future technological developments. The
    definition should be based on the key functional characteristics of the software, in
    particular the ability, for a given set of human-defined objectives, to generate outputs
    such as content, predictions, recommendations, or decisions which influence the
    environment with which the system interacts, be it in a physical or digital dimension.
    AI systems can be designed to operate with varying levels of autonomy and be used on
    a stand-alone basis or as a component of a product, irrespective of whether the system
    is physically integrated into the product (embedded) or serve the functionality of the
    product without being integrated therein (non-embedded). The definition of AI system
    should be complemented by a list of specific techniques and approaches used for its
    development, which should be kept up-to–date in the light of market and technological
    33
    European Council, Special meeting of the European Council (1 and 2 October 2020) – Conclusions,
    EUCO 13/20, 2020, p. 6.
    34
    European Parliament resolution of 20 October 2020 with recommendations to the Commission on a
    framework of ethical aspects of artificial intelligence, robotics and related technologies,
    2020/2012(INL).
    EN 19 EN
    developments through the adoption of delegated acts by the Commission to amend that
    list.
    (7) The notion of biometric data used in this Regulation is in line with and should be
    interpreted consistently with the notion of biometric data as defined in Article 4(14) of
    Regulation (EU) 2016/679 of the European Parliament and of the Council35
    , Article
    3(18) of Regulation (EU) 2018/1725 of the European Parliament and of the Council36
    and Article 3(13) of Directive (EU) 2016/680 of the European Parliament and of the
    Council37
    .
    (8) The notion of remote biometric identification system as used in this Regulation should
    be defined functionally, as an AI system intended for the identification of natural
    persons at a distance through the comparison of a person’s biometric data with the
    biometric data contained in a reference database, and without prior knowledge whether
    the targeted person will be present and can be identified, irrespectively of the
    particular technology, processes or types of biometric data used. Considering their
    different characteristics and manners in which they are used, as well as the different
    risks involved, a distinction should be made between ‘real-time’ and ‘post’ remote
    biometric identification systems. In the case of ‘real-time’ systems, the capturing of
    the biometric data, the comparison and the identification occur all instantaneously,
    near-instantaneously or in any event without a significant delay. In this regard, there
    should be no scope for circumventing the rules of this Regulation on the ‘real-time’
    use of the AI systems in question by providing for minor delays. ‘Real-time’ systems
    involve the use of ‘live’ or ‘near-‘live’ material, such as video footage, generated by a
    camera or other device with similar functionality. In the case of ‘post’ systems, in
    contrast, the biometric data have already been captured and the comparison and
    identification occur only after a significant delay. This involves material, such as
    pictures or video footage generated by closed circuit television cameras or private
    devices, which has been generated before the use of the system in respect of the
    natural persons concerned.
    (9) For the purposes of this Regulation the notion of publicly accessible space should be
    understood as referring to any physical place that is accessible to the public,
    irrespective of whether the place in question is privately or publicly owned. Therefore,
    the notion does not cover places that are private in nature and normally not freely
    accessible for third parties, including law enforcement authorities, unless those parties
    have been specifically invited or authorised, such as homes, private clubs, offices,
    warehouses and factories. Online spaces are not covered either, as they are not
    physical spaces. However, the mere fact that certain conditions for accessing a
    35
    Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the
    protection of natural persons with regard to the processing of personal data and on the free movement of
    such data, and repealing Directive 95/46/EC (General Data Protection Regulation) (OJ L 119, 4.5.2016,
    p. 1).
    36
    Regulation (EU) 2018/1725 of the European Parliament and of the Council of 23 October 2018 on the
    protection of natural persons with regard to the processing of personal data by the Union institutions,
    bodies, offices and agencies and on the free movement of such data, and repealing Regulation (EC) No
    45/2001 and Decision No 1247/2002/EC (OJ L 295, 21.11.2018, p. 39)
    37
    Directive (EU) 2016/680 of the European Parliament and of the Council of 27 April 2016 on the
    protection of natural persons with regard to the processing of personal data by competent authorities for
    the purposes of the prevention, investigation, detection or prosecution of criminal offences or the
    execution of criminal penalties, and on the free movement of such data, and repealing Council
    Framework Decision 2008/977/JHA (Law Enforcement Directive) (OJ L 119, 4.5.2016, p. 89).
    EN 20 EN
    particular space may apply, such as admission tickets or age restrictions, does not
    mean that the space is not publicly accessible within the meaning of this Regulation.
    Consequently, in addition to public spaces such as streets, relevant parts of
    government buildings and most transport infrastructure, spaces such as cinemas,
    theatres, shops and shopping centres are normally also publicly accessible. Whether a
    given space is accessible to the public should however be determined on a case-by-
    case basis, having regard to the specificities of the individual situation at hand.
    (10) In order to ensure a level playing field and an effective protection of rights and
    freedoms of individuals across the Union, the rules established by this Regulation
    should apply to providers of AI systems in a non-discriminatory manner, irrespective
    of whether they are established within the Union or in a third country, and to users of
    AI systems established within the Union.
    (11) In light of their digital nature, certain AI systems should fall within the scope of this
    Regulation even when they are neither placed on the market, nor put into service, nor
    used in the Union. This is the case for example of an operator established in the Union
    that contracts certain services to an operator established outside the Union in relation
    to an activity to be performed by an AI system that would qualify as high-risk and
    whose effects impact natural persons located in the Union. In those circumstances, the
    AI system used by the operator outside the Union could process data lawfully
    collected in and transferred from the Union, and provide to the contracting operator in
    the Union the output of that AI system resulting from that processing, without that AI
    system being placed on the market, put into service or used in the Union. To prevent
    the circumvention of this Regulation and to ensure an effective protection of natural
    persons located in the Union, this Regulation should also apply to providers and users
    of AI systems that are established in a third country, to the extent the output produced
    by those systems is used in the Union. Nonetheless, to take into account existing
    arrangements and special needs for cooperation with foreign partners with whom
    information and evidence is exchanged, this Regulation should not apply to public
    authorities of a third country and international organisations when acting in the
    framework of international agreements concluded at national or European level for law
    enforcement and judicial cooperation with the Union or with its Member States. Such
    agreements have been concluded bilaterally between Member States and third
    countries or between the European Union, Europol and other EU agencies and third
    countries and international organisations.
    (12) This Regulation should also apply to Union institutions, offices, bodies and agencies
    when acting as a provider or user of an AI system. AI systems exclusively developed
    or used for military purposes should be excluded from the scope of this Regulation
    where that use falls under the exclusive remit of the Common Foreign and Security
    Policy regulated under Title V of the Treaty on the European Union (TEU). This
    Regulation should be without prejudice to the provisions regarding the liability of
    intermediary service providers set out in Directive 2000/31/EC of the European
    Parliament and of the Council [as amended by the Digital Services Act].
    (13) In order to ensure a consistent and high level of protection of public interests as
    regards health, safety and fundamental rights, common normative standards for all
    high-risk AI systems should be established. Those standards should be consistent with
    the Charter of fundamental rights of the European Union (the Charter) and should be
    non-discriminatory and in line with the Union’s international trade commitments.
    EN 21 EN
    (14) In order to introduce a proportionate and effective set of binding rules for AI systems,
    a clearly defined risk-based approach should be followed. That approach should tailor
    the type and content of such rules to the intensity and scope of the risks that AI
    systems can generate. It is therefore necessary to prohibit certain artificial intelligence
    practices, to lay down requirements for high-risk AI systems and obligations for the
    relevant operators, and to lay down transparency obligations for certain AI systems.
    (15) Aside from the many beneficial uses of artificial intelligence, that technology can also
    be misused and provide novel and powerful tools for manipulative, exploitative and
    social control practices. Such practices are particularly harmful and should be
    prohibited because they contradict Union values of respect for human dignity,
    freedom, equality, democracy and the rule of law and Union fundamental rights,
    including the right to non-discrimination, data protection and privacy and the rights of
    the child.
    (16) The placing on the market, putting into service or use of certain AI systems intended
    to distort human behaviour, whereby physical or psychological harms are likely to
    occur, should be forbidden. Such AI systems deploy subliminal components
    individuals cannot perceive or exploit vulnerabilities of children and people due to
    their age, physical or mental incapacities. They do so with the intention to materially
    distort the behaviour of a person and in a manner that causes or is likely to cause harm
    to that or another person. The intention may not be presumed if the distortion of
    human behaviour results from factors external to the AI system which are outside of
    the control of the provider or the user. Research for legitimate purposes in relation to
    such AI systems should not be stifled by the prohibition, if such research does not
    amount to use of the AI system in human-machine relations that exposes natural
    persons to harm and such research is carried out in accordance with recognised ethical
    standards for scientific research.
    (17) AI systems providing social scoring of natural persons for general purpose by public
    authorities or on their behalf may lead to discriminatory outcomes and the exclusion of
    certain groups. They may violate the right to dignity and non-discrimination and the
    values of equality and justice. Such AI systems evaluate or classify the trustworthiness
    of natural persons based on their social behaviour in multiple contexts or known or
    predicted personal or personality characteristics. The social score obtained from such
    AI systems may lead to the detrimental or unfavourable treatment of natural persons or
    whole groups thereof in social contexts, which are unrelated to the context in which
    the data was originally generated or collected or to a detrimental treatment that is
    disproportionate or unjustified to the gravity of their social behaviour. Such AI
    systems should be therefore prohibited.
    (18) The use of AI systems for ‘real-time’ remote biometric identification of natural
    persons in publicly accessible spaces for the purpose of law enforcement is considered
    particularly intrusive in the rights and freedoms of the concerned persons, to the extent
    that it may affect the private life of a large part of the population, evoke a feeling of
    constant surveillance and indirectly dissuade the exercise of the freedom of assembly
    and other fundamental rights. In addition, the immediacy of the impact and the limited
    opportunities for further checks or corrections in relation to the use of such systems
    operating in ‘real-time’ carry heightened risks for the rights and freedoms of the
    persons that are concerned by law enforcement activities.
    (19) The use of those systems for the purpose of law enforcement should therefore be
    prohibited, except in three exhaustively listed and narrowly defined situations, where
    EN 22 EN
    the use is strictly necessary to achieve a substantial public interest, the importance of
    which outweighs the risks. Those situations involve the search for potential victims of
    crime, including missing children; certain threats to the life or physical safety of
    natural persons or of a terrorist attack; and the detection, localisation, identification or
    prosecution of perpetrators or suspects of the criminal offences referred to in Council
    Framework Decision 2002/584/JHA38
    if those criminal offences are punishable in the
    Member State concerned by a custodial sentence or a detention order for a maximum
    period of at least three years and as they are defined in the law of that Member State.
    Such threshold for the custodial sentence or detention order in accordance with
    national law contributes to ensure that the offence should be serious enough to
    potentially justify the use of ‘real-time’ remote biometric identification systems.
    Moreover, of the 32 criminal offences listed in the Council Framework Decision
    2002/584/JHA, some are in practice likely to be more relevant than others, in that the
    recourse to ‘real-time’ remote biometric identification will foreseeably be necessary
    and proportionate to highly varying degrees for the practical pursuit of the detection,
    localisation, identification or prosecution of a perpetrator or suspect of the different
    criminal offences listed and having regard to the likely differences in the seriousness,
    probability and scale of the harm or possible negative consequences.
    (20) In order to ensure that those systems are used in a responsible and proportionate
    manner, it is also important to establish that, in each of those three exhaustively listed
    and narrowly defined situations, certain elements should be taken into account, in
    particular as regards the nature of the situation giving rise to the request and the
    consequences of the use for the rights and freedoms of all persons concerned and the
    safeguards and conditions provided for with the use. In addition, the use of ‘real-time’
    remote biometric identification systems in publicly accessible spaces for the purpose
    of law enforcement should be subject to appropriate limits in time and space, having
    regard in particular to the evidence or indications regarding the threats, the victims or
    perpetrator. The reference database of persons should be appropriate for each use case
    in each of the three situations mentioned above.
    (21) Each use of a ‘real-time’ remote biometric identification system in publicly accessible
    spaces for the purpose of law enforcement should be subject to an express and specific
    authorisation by a judicial authority or by an independent administrative authority of a
    Member State. Such authorisation should in principle be obtained prior to the use,
    except in duly justified situations of urgency, that is, situations where the need to use
    the systems in question is such as to make it effectively and objectively impossible to
    obtain an authorisation before commencing the use. In such situations of urgency, the
    use should be restricted to the absolute minimum necessary and be subject to
    appropriate safeguards and conditions, as determined in national law and specified in
    the context of each individual urgent use case by the law enforcement authority itself.
    In addition, the law enforcement authority should in such situations seek to obtain an
    authorisation as soon as possible, whilst providing the reasons for not having been able
    to request it earlier.
    (22) Furthermore, it is appropriate to provide, within the exhaustive framework set by this
    Regulation that such use in the territory of a Member State in accordance with this
    Regulation should only be possible where and in as far as the Member State in
    question has decided to expressly provide for the possibility to authorise such use in its
    38
    Council Framework Decision 2002/584/JHA of 13 June 2002 on the European arrest warrant and the
    surrender procedures between Member States (OJ L 190, 18.7.2002, p. 1).
    EN 23 EN
    detailed rules of national law. Consequently, Member States remain free under this
    Regulation not to provide for such a possibility at all or to only provide for such a
    possibility in respect of some of the objectives capable of justifying authorised use
    identified in this Regulation.
    (23) The use of AI systems for ‘real-time’ remote biometric identification of natural
    persons in publicly accessible spaces for the purpose of law enforcement necessarily
    involves the processing of biometric data. The rules of this Regulation that prohibit,
    subject to certain exceptions, such use, which are based on Article 16 TFEU, should
    apply as lex specialis in respect of the rules on the processing of biometric data
    contained in Article 10 of Directive (EU) 2016/680, thus regulating such use and the
    processing of biometric data involved in an exhaustive manner. Therefore, such use
    and processing should only be possible in as far as it is compatible with the framework
    set by this Regulation, without there being scope, outside that framework, for the
    competent authorities, where they act for purpose of law enforcement, to use such
    systems and process such data in connection thereto on the grounds listed in Article 10
    of Directive (EU) 2016/680. In this context, this Regulation is not intended to provide
    the legal basis for the processing of personal data under Article 8 of Directive
    2016/680. However, the use of ‘real-time’ remote biometric identification systems in
    publicly accessible spaces for purposes other than law enforcement, including by
    competent authorities, should not be covered by the specific framework regarding such
    use for the purpose of law enforcement set by this Regulation. Such use for purposes
    other than law enforcement should therefore not be subject to the requirement of an
    authorisation under this Regulation and the applicable detailed rules of national law
    that may give effect to it.
    (24) Any processing of biometric data and other personal data involved in the use of AI
    systems for biometric identification, other than in connection to the use of ‘real-time’
    remote biometric identification systems in publicly accessible spaces for the purpose
    of law enforcement as regulated by this Regulation, including where those systems are
    used by competent authorities in publicly accessible spaces for other purposes than
    law enforcement, should continue to comply with all requirements resulting from
    Article 9(1) of Regulation (EU) 2016/679, Article 10(1) of Regulation (EU)
    2018/1725 and Article 10 of Directive (EU) 2016/680, as applicable.
    (25) In accordance with Article 6a of Protocol No 21 on the position of the United
    Kingdom and Ireland in respect of the area of freedom, security and justice, as
    annexed to the TEU and to the TFEU, Ireland is not bound by the rules laid down in
    Article 5(1), point (d), (2) and (3) of this Regulation adopted on the basis of Article 16
    of the TFEU which relate to the processing of personal data by the Member States
    when carrying out activities falling within the scope of Chapter 4 or Chapter 5 of Title
    V of Part Three of the TFEU, where Ireland is not bound by the rules governing the
    forms of judicial cooperation in criminal matters or police cooperation which require
    compliance with the provisions laid down on the basis of Article 16 of the TFEU.
    (26) In accordance with Articles 2 and 2a of Protocol No 22 on the position of Denmark,
    annexed to the TEU and TFEU, Denmark is not bound by rules laid down in Article
    5(1), point (d), (2) and (3) of this Regulation adopted on the basis of Article 16 of the
    TFEU, or subject to their application, which relate to the processing of personal data
    by the Member States when carrying out activities falling within the scope of Chapter
    4 or Chapter 5 of Title V of Part Three of the TFEU.
    EN 24 EN
    (27) High-risk AI systems should only be placed on the Union market or put into service if
    they comply with certain mandatory requirements. Those requirements should ensure
    that high-risk AI systems available in the Union or whose output is otherwise used in
    the Union do not pose unacceptable risks to important Union public interests as
    recognised and protected by Union law. AI systems identified as high-risk should be
    limited to those that have a significant harmful impact on the health, safety and
    fundamental rights of persons in the Union and such limitation minimises any
    potential restriction to international trade, if any.
    (28) AI systems could produce adverse outcomes to health and safety of persons, in
    particular when such systems operate as components of products. Consistently with
    the objectives of Union harmonisation legislation to facilitate the free movement of
    products in the internal market and to ensure that only safe and otherwise compliant
    products find their way into the market, it is important that the safety risks that may be
    generated by a product as a whole due to its digital components, including AI systems,
    are duly prevented and mitigated. For instance, increasingly autonomous robots,
    whether in the context of manufacturing or personal assistance and care should be able
    to safely operate and performs their functions in complex environments. Similarly, in
    the health sector where the stakes for life and health are particularly high, increasingly
    sophisticated diagnostics systems and systems supporting human decisions should be
    reliable and accurate. The extent of the adverse impact caused by the AI system on the
    fundamental rights protected by the Charter is of particular relevance when classifying
    an AI system as high-risk. Those rights include the right to human dignity, respect for
    private and family life, protection of personal data, freedom of expression and
    information, freedom of assembly and of association, and non-discrimination,
    consumer protection, workers’ rights, rights of persons with disabilities, right to an
    effective remedy and to a fair trial, right of defence and the presumption of innocence,
    right to good administration. In addition to those rights, it is important to highlight that
    children have specific rights as enshrined in Article 24 of the EU Charter and in the
    United Nations Convention on the Rights of the Child (further elaborated in the
    UNCRC General Comment No. 25 as regards the digital environment), both of which
    require consideration of the children’s vulnerabilities and provision of such protection
    and care as necessary for their well-being. The fundamental right to a high level of
    environmental protection enshrined in the Charter and implemented in Union policies
    should also be considered when assessing the severity of the harm that an AI system
    can cause, including in relation to the health and safety of persons.
    (29) As regards high-risk AI systems that are safety components of products or systems, or
    which are themselves products or systems falling within the scope of Regulation (EC)
    No 300/2008 of the European Parliament and of the Council39
    , Regulation (EU) No
    167/2013 of the European Parliament and of the Council40
    , Regulation (EU) No
    168/2013 of the European Parliament and of the Council41
    , Directive 2014/90/EU of
    39
    Regulation (EC) No 300/2008 of the European Parliament and of the Council of 11 March 2008 on
    common rules in the field of civil aviation security and repealing Regulation (EC) No 2320/2002 (OJ L
    97, 9.4.2008, p. 72).
    40
    Regulation (EU) No 167/2013 of the European Parliament and of the Council of 5 February 2013 on the
    approval and market surveillance of agricultural and forestry vehicles (OJ L 60, 2.3.2013, p. 1).
    41
    Regulation (EU) No 168/2013 of the European Parliament and of the Council of 15 January 2013 on the
    approval and market surveillance of two- or three-wheel vehicles and quadricycles (OJ L 60, 2.3.2013,
    p. 52).
    EN 25 EN
    the European Parliament and of the Council42
    , Directive (EU) 2016/797 of the
    European Parliament and of the Council43
    , Regulation (EU) 2018/858 of the European
    Parliament and of the Council44
    , Regulation (EU) 2018/1139 of the European
    Parliament and of the Council45
    , and Regulation (EU) 2019/2144 of the European
    Parliament and of the Council46
    , it is appropriate to amend those acts to ensure that the
    Commission takes into account, on the basis of the technical and regulatory
    specificities of each sector, and without interfering with existing governance,
    conformity assessment and enforcement mechanisms and authorities established
    therein, the mandatory requirements for high-risk AI systems laid down in this
    Regulation when adopting any relevant future delegated or implementing acts on the
    basis of those acts.
    (30) As regards AI systems that are safety components of products, or which are
    themselves products, falling within the scope of certain Union harmonisation
    legislation, it is appropriate to classify them as high-risk under this Regulation if the
    product in question undergoes the conformity assessment procedure with a third-party
    conformity assessment body pursuant to that relevant Union harmonisation legislation.
    In particular, such products are machinery, toys, lifts, equipment and protective
    systems intended for use in potentially explosive atmospheres, radio equipment,
    pressure equipment, recreational craft equipment, cableway installations, appliances
    burning gaseous fuels, medical devices, and in vitro diagnostic medical devices.
    (31) The classification of an AI system as high-risk pursuant to this Regulation should not
    necessarily mean that the product whose safety component is the AI system, or the AI
    system itself as a product, is considered ‘high-risk’ under the criteria established in the
    relevant Union harmonisation legislation that applies to the product. This is notably
    the case for Regulation (EU) 2017/745 of the European Parliament and of the
    42
    Directive 2014/90/EU of the European Parliament and of the Council of 23 July 2014 on marine
    equipment and repealing Council Directive 96/98/EC (OJ L 257, 28.8.2014, p. 146).
    43
    Directive (EU) 2016/797 of the European Parliament and of the Council of 11 May 2016 on the
    interoperability of the rail system within the European Union (OJ L 138, 26.5.2016, p. 44).
    44
    Regulation (EU) 2018/858 of the European Parliament and of the Council of 30 May 2018 on the
    approval and market surveillance of motor vehicles and their trailers, and of systems, components and
    separate technical units intended for such vehicles, amending Regulations (EC) No 715/2007 and (EC)
    No 595/2009 and repealing Directive 2007/46/EC (OJ L 151, 14.6.2018, p. 1).
    45
    Regulation (EU) 2018/1139 of the European Parliament and of the Council of 4 July 2018 on common
    rules in the field of civil aviation and establishing a European Union Aviation Safety Agency, and
    amending Regulations (EC) No 2111/2005, (EC) No 1008/2008, (EU) No 996/2010, (EU) No 376/2014
    and Directives 2014/30/EU and 2014/53/EU of the European Parliament and of the Council, and
    repealing Regulations (EC) No 552/2004 and (EC) No 216/2008 of the European Parliament and of the
    Council and Council Regulation (EEC) No 3922/91 (OJ L 212, 22.8.2018, p. 1).
    46
    Regulation (EU) 2019/2144 of the European Parliament and of the Council of 27 November 2019 on
    type-approval requirements for motor vehicles and their trailers, and systems, components and separate
    technical units intended for such vehicles, as regards their general safety and the protection of vehicle
    occupants and vulnerable road users, amending Regulation (EU) 2018/858 of the European Parliament
    and of the Council and repealing Regulations (EC) No 78/2009, (EC) No 79/2009 and (EC) No
    661/2009 of the European Parliament and of the Council and Commission Regulations (EC) No
    631/2009, (EU) No 406/2010, (EU) No 672/2010, (EU) No 1003/2010, (EU) No 1005/2010, (EU) No
    1008/2010, (EU) No 1009/2010, (EU) No 19/2011, (EU) No 109/2011, (EU) No 458/2011, (EU) No
    65/2012, (EU) No 130/2012, (EU) No 347/2012, (EU) No 351/2012, (EU) No 1230/2012 and (EU)
    2015/166 (OJ L 325, 16.12.2019, p. 1).
    EN 26 EN
    Council47
    and Regulation (EU) 2017/746 of the European Parliament and of the
    Council48
    , where a third-party conformity assessment is provided for medium-risk and
    high-risk products.
    (32) As regards stand-alone AI systems, meaning high-risk AI systems other than those that
    are safety components of products, or which are themselves products, it is appropriate
    to classify them as high-risk if, in the light of their intended purpose, they pose a high
    risk of harm to the health and safety or the fundamental rights of persons, taking into
    account both the severity of the possible harm and its probability of occurrence and
    they are used in a number of specifically pre-defined areas specified in the Regulation.
    The identification of those systems is based on the same methodology and criteria
    envisaged also for any future amendments of the list of high-risk AI systems.
    (33) Technical inaccuracies of AI systems intended for the remote biometric identification
    of natural persons can lead to biased results and entail discriminatory effects. This is
    particularly relevant when it comes to age, ethnicity, sex or disabilities. Therefore,
    ‘real-time’ and ‘post’ remote biometric identification systems should be classified as
    high-risk. In view of the risks that they pose, both types of remote biometric
    identification systems should be subject to specific requirements on logging
    capabilities and human oversight.
    (34) As regards the management and operation of critical infrastructure, it is appropriate to
    classify as high-risk the AI systems intended to be used as safety components in the
    management and operation of road traffic and the supply of water, gas, heating and
    electricity, since their failure or malfunctioning may put at risk the life and health of
    persons at large scale and lead to appreciable disruptions in the ordinary conduct of
    social and economic activities.
    (35) AI systems used in education or vocational training, notably for determining access or
    assigning persons to educational and vocational training institutions or to evaluate
    persons on tests as part of or as a precondition for their education should be considered
    high-risk, since they may determine the educational and professional course of a
    person’s life and therefore affect their ability to secure their livelihood. When
    improperly designed and used, such systems may violate the right to education and
    training as well as the right not to be discriminated against and perpetuate historical
    patterns of discrimination.
    (36) AI systems used in employment, workers management and access to self-employment,
    notably for the recruitment and selection of persons, for making decisions on
    promotion and termination and for task allocation, monitoring or evaluation of persons
    in work-related contractual relationships, should also be classified as high-risk, since
    those systems may appreciably impact future career prospects and livelihoods of these
    persons. Relevant work-related contractual relationships should involve employees
    and persons providing services through platforms as referred to in the Commission
    Work Programme 2021. Such persons should in principle not be considered users
    within the meaning of this Regulation. Throughout the recruitment process and in the
    47
    Regulation (EU) 2017/745 of the European Parliament and of the Council of 5 April 2017 on medical
    devices, amending Directive 2001/83/EC, Regulation (EC) No 178/2002 and Regulation (EC) No
    1223/2009 and repealing Council Directives 90/385/EEC and 93/42/EEC (OJ L 117, 5.5.2017, p. 1).
    48
    Regulation (EU) 2017/746 of the European Parliament and of the Council of 5 April 2017 on in vitro
    diagnostic medical devices and repealing Directive 98/79/EC and Commission Decision 2010/227/EU
    (OJ L 117, 5.5.2017, p. 176).
    EN 27 EN
    evaluation, promotion, or retention of persons in work-related contractual
    relationships, such systems may perpetuate historical patterns of discrimination, for
    example against women, certain age groups, persons with disabilities, or persons of
    certain racial or ethnic origins or sexual orientation. AI systems used to monitor the
    performance and behaviour of these persons may also impact their rights to data
    protection and privacy.
    (37) Another area in which the use of AI systems deserves special consideration is the
    access to and enjoyment of certain essential private and public services and benefits
    necessary for people to fully participate in society or to improve one’s standard of
    living. In particular, AI systems used to evaluate the credit score or creditworthiness of
    natural persons should be classified as high-risk AI systems, since they determine
    those persons’ access to financial resources or essential services such as housing,
    electricity, and telecommunication services. AI systems used for this purpose may lead
    to discrimination of persons or groups and perpetuate historical patterns of
    discrimination, for example based on racial or ethnic origins, disabilities, age, sexual
    orientation, or create new forms of discriminatory impacts. Considering the very
    limited scale of the impact and the available alternatives on the market, it is
    appropriate to exempt AI systems for the purpose of creditworthiness assessment and
    credit scoring when put into service by small-scale providers for their own use.
    Natural persons applying for or receiving public assistance benefits and services from
    public authorities are typically dependent on those benefits and services and in a
    vulnerable position in relation to the responsible authorities. If AI systems are used for
    determining whether such benefits and services should be denied, reduced, revoked or
    reclaimed by authorities, they may have a significant impact on persons’ livelihood
    and may infringe their fundamental rights, such as the right to social protection, non-
    discrimination, human dignity or an effective remedy. Those systems should therefore
    be classified as high-risk. Nonetheless, this Regulation should not hamper the
    development and use of innovative approaches in the public administration, which
    would stand to benefit from a wider use of compliant and safe AI systems, provided
    that those systems do not entail a high risk to legal and natural persons. Finally, AI
    systems used to dispatch or establish priority in the dispatching of emergency first
    response services should also be classified as high-risk since they make decisions in
    very critical situations for the life and health of persons and their property.
    (38) Actions by law enforcement authorities involving certain uses of AI systems are
    characterised by a significant degree of power imbalance and may lead to surveillance,
    arrest or deprivation of a natural person’s liberty as well as other adverse impacts on
    fundamental rights guaranteed in the Charter. In particular, if the AI system is not
    trained with high quality data, does not meet adequate requirements in terms of its
    accuracy or robustness, or is not properly designed and tested before being put on the
    market or otherwise put into service, it may single out people in a discriminatory or
    otherwise incorrect or unjust manner. Furthermore, the exercise of important
    procedural fundamental rights, such as the right to an effective remedy and to a fair
    trial as well as the right of defence and the presumption of innocence, could be
    hampered, in particular, where such AI systems are not sufficiently transparent,
    explainable and documented. It is therefore appropriate to classify as high-risk a
    number of AI systems intended to be used in the law enforcement context where
    accuracy, reliability and transparency is particularly important to avoid adverse
    impacts, retain public trust and ensure accountability and effective redress. In view of
    the nature of the activities in question and the risks relating thereto, those high-risk AI
    systems should include in particular AI systems intended to be used by law
    EN 28 EN
    enforcement authorities for individual risk assessments, polygraphs and similar tools
    or to detect the emotional state of natural person, to detect ‘deep fakes’, for the
    evaluation of the reliability of evidence in criminal proceedings, for predicting the
    occurrence or reoccurrence of an actual or potential criminal offence based on
    profiling of natural persons, or assessing personality traits and characteristics or past
    criminal behaviour of natural persons or groups, for profiling in the course of
    detection, investigation or prosecution of criminal offences, as well as for crime
    analytics regarding natural persons. AI systems specifically intended to be used for
    administrative proceedings by tax and customs authorities should not be considered
    high-risk AI systems used by law enforcement authorities for the purposes of
    prevention, detection, investigation and prosecution of criminal offences.
    (39) AI systems used in migration, asylum and border control management affect people
    who are often in particularly vulnerable position and who are dependent on the
    outcome of the actions of the competent public authorities. The accuracy, non-
    discriminatory nature and transparency of the AI systems used in those contexts are
    therefore particularly important to guarantee the respect of the fundamental rights of
    the affected persons, notably their rights to free movement, non-discrimination,
    protection of private life and personal data, international protection and good
    administration. It is therefore appropriate to classify as high-risk AI systems intended
    to be used by the competent public authorities charged with tasks in the fields of
    migration, asylum and border control management as polygraphs and similar tools or
    to detect the emotional state of a natural person; for assessing certain risks posed by
    natural persons entering the territory of a Member State or applying for visa or
    asylum; for verifying the authenticity of the relevant documents of natural persons; for
    assisting competent public authorities for the examination of applications for asylum,
    visa and residence permits and associated complaints with regard to the objective to
    establish the eligibility of the natural persons applying for a status. AI systems in the
    area of migration, asylum and border control management covered by this Regulation
    should comply with the relevant procedural requirements set by the Directive
    2013/32/EU of the European Parliament and of the Council49
    , the Regulation (EC) No
    810/2009 of the European Parliament and of the Council50
    and other relevant
    legislation.
    (40) Certain AI systems intended for the administration of justice and democratic processes
    should be classified as high-risk, considering their potentially significant impact on
    democracy, rule of law, individual freedoms as well as the right to an effective remedy
    and to a fair trial. In particular, to address the risks of potential biases, errors and
    opacity, it is appropriate to qualify as high-risk AI systems intended to assist judicial
    authorities in researching and interpreting facts and the law and in applying the law to
    a concrete set of facts. Such qualification should not extend, however, to AI systems
    intended for purely ancillary administrative activities that do not affect the actual
    administration of justice in individual cases, such as anonymisation or
    pseudonymisation of judicial decisions, documents or data, communication between
    personnel, administrative tasks or allocation of resources.
    49
    Directive 2013/32/EU of the European Parliament and of the Council of 26 June 2013 on common
    procedures for granting and withdrawing international protection (OJ L 180, 29.6.2013, p. 60).
    50
    Regulation (EC) No 810/2009 of the European Parliament and of the Council of 13 July 2009
    establishing a Community Code on Visas (Visa Code) (OJ L 243, 15.9.2009, p. 1).
    EN 29 EN
    (41) The fact that an AI system is classified as high risk under this Regulation should not
    be interpreted as indicating that the use of the system is necessarily lawful under other
    acts of Union law or under national law compatible with Union law, such as on the
    protection of personal data, on the use of polygraphs and similar tools or other systems
    to detect the emotional state of natural persons. Any such use should continue to occur
    solely in accordance with the applicable requirements resulting from the Charter and
    from the applicable acts of secondary Union law and national law. This Regulation
    should not be understood as providing for the legal ground for processing of personal
    data, including special categories of personal data, where relevant.
    (42) To mitigate the risks from high-risk AI systems placed or otherwise put into service on
    the Union market for users and affected persons, certain mandatory requirements
    should apply, taking into account the intended purpose of the use of the system and
    according to the risk management system to be established by the provider.
    (43) Requirements should apply to high-risk AI systems as regards the quality of data sets
    used, technical documentation and record-keeping, transparency and the provision of
    information to users, human oversight, and robustness, accuracy and cybersecurity.
    Those requirements are necessary to effectively mitigate the risks for health, safety
    and fundamental rights, as applicable in the light of the intended purpose of the
    system, and no other less trade restrictive measures are reasonably available, thus
    avoiding unjustified restrictions to trade.
    (44) High data quality is essential for the performance of many AI systems, especially
    when techniques involving the training of models are used, with a view to ensure that
    the high-risk AI system performs as intended and safely and it does not become the
    source of discrimination prohibited by Union law. High quality training, validation
    and testing data sets require the implementation of appropriate data governance and
    management practices. Training, validation and testing data sets should be sufficiently
    relevant, representative and free of errors and complete in view of the intended
    purpose of the system. They should also have the appropriate statistical properties,
    including as regards the persons or groups of persons on which the high-risk AI
    system is intended to be used. In particular, training, validation and testing data sets
    should take into account, to the extent required in the light of their intended purpose,
    the features, characteristics or elements that are particular to the specific geographical,
    behavioural or functional setting or context within which the AI system is intended to
    be used. In order to protect the right of others from the discrimination that might result
    from the bias in AI systems, the providers shouldbe able to process also special
    categories of personal data, as a matter of substantial public interest, in order to ensure
    the bias monitoring, detection and correction in relation to high-risk AI systems.
    (45) For the development of high-risk AI systems, certain actors, such as providers,
    notified bodies and other relevant entities, such as digital innovation hubs, testing
    experimentation facilities and researchers, should be able to access and use high
    quality datasets within their respective fields of activities which are related to this
    Regulation. European common data spaces established by the Commission and the
    facilitation of data sharing between businesses and with government in the public
    interest will be instrumental to provide trustful, accountable and non-discriminatory
    access to high quality data for the training, validation and testing of AI systems. For
    example, in health, the European health data space will facilitate non-discriminatory
    access to health data and the training of artificial intelligence algorithms on those
    datasets, in a privacy-preserving, secure, timely, transparent and trustworthy manner,
    and with an appropriate institutional governance. Relevant competent authorities,
    EN 30 EN
    including sectoral ones, providing or supporting the access to data may also support
    the provision of high-quality data for the training, validation and testing of AI systems.
    (46) Having information on how high-risk AI systems have been developed and how they
    perform throughout their lifecycle is essential to verify compliance with the
    requirements under this Regulation. This requires keeping records and the availability
    of a technical documentation, containing information which is necessary to assess the
    compliance of the AI system with the relevant requirements. Such information should
    include the general characteristics, capabilities and limitations of the system,
    algorithms, data, training, testing and validation processes used as well as
    documentation on the relevant risk management system. The technical documentation
    should be kept up to date.
    (47) To address the opacity that may make certain AI systems incomprehensible to or too
    complex for natural persons, a certain degree of transparency should be required for
    high-risk AI systems. Users should be able to interpret the system output and use it
    appropriately. High-risk AI systems should therefore be accompanied by relevant
    documentation and instructions of use and include concise and clear information,
    including in relation to possible risks to fundamental rights and discrimination, where
    appropriate.
    (48) High-risk AI systems should be designed and developed in such a way that natural
    persons can oversee their functioning. For this purpose, appropriate human oversight
    measures should be identified by the provider of the system before its placing on the
    market or putting into service. In particular, where appropriate, such measures should
    guarantee that the system is subject to in-built operational constraints that cannot be
    overridden by the system itself and is responsive to the human operator, and that the
    natural persons to whom human oversight has been assigned have the necessary
    competence, training and authority to carry out that role.
    (49) High-risk AI systems should perform consistently throughout their lifecycle and meet
    an appropriate level of accuracy, robustness and cybersecurity in accordance with the
    generally acknowledged state of the art. The level of accuracy and accuracy metrics
    should be communicated to the users.
    (50) The technical robustness is a key requirement for high-risk AI systems. They should
    be resilient against risks connected to the limitations of the system (e.g. errors, faults,
    inconsistencies, unexpected situations) as well as against malicious actions that may
    compromise the security of the AI system and result in harmful or otherwise
    undesirable behaviour. Failure to protect against these risks could lead to safety
    impacts or negatively affect the fundamental rights, for example due to erroneous
    decisions or wrong or biased outputs generated by the AI system.
    (51) Cybersecurity plays a crucial role in ensuring that AI systems are resilient against
    attempts to alter their use, behaviour, performance or compromise their security
    properties by malicious third parties exploiting the system’s vulnerabilities.
    Cyberattacks against AI systems can leverage AI specific assets, such as training data
    sets (e.g. data poisoning) or trained models (e.g. adversarial attacks), or exploit
    vulnerabilities in the AI system’s digital assets or the underlying ICT infrastructure.
    To ensure a level of cybersecurity appropriate to the risks, suitable measures should
    therefore be taken by the providers of high-risk AI systems, also taking into account as
    appropriate the underlying ICT infrastructure.
    EN 31 EN
    (52) As part of Union harmonisation legislation, rules applicable to the placing on the
    market, putting into service and use of high-risk AI systems should be laid down
    consistently with Regulation (EC) No 765/2008 of the European Parliament and of the
    Council51
    setting out the requirements for accreditation and the market surveillance of
    products, Decision No 768/2008/EC of the European Parliament and of the Council52
    on a common framework for the marketing of products and Regulation (EU)
    2019/1020 of the European Parliament and of the Council53
    on market surveillance
    and compliance of products (‘New Legislative Framework for the marketing of
    products’).
    (53) It is appropriate that a specific natural or legal person, defined as the provider, takes
    the responsibility for the placing on the market or putting into service of a high-risk AI
    system, regardless of whether that natural or legal person is the person who designed
    or developed the system.
    (54) The provider should establish a sound quality management system, ensure the
    accomplishment of the required conformity assessment procedure, draw up the
    relevant documentation and establish a robust post-market monitoring system. Public
    authorities which put into service high-risk AI systems for their own use may adopt
    and implement the rules for the quality management system as part of the quality
    management system adopted at a national or regional level, as appropriate, taking into
    account the specificities of the sector and the competences and organisation of the
    public authority in question.
    (55) Where a high-risk AI system that is a safety component of a product which is covered
    by a relevant New Legislative Framework sectorial legislation is not placed on the
    market or put into service independently from the product, the manufacturer of the
    final product as defined under the relevant New Legislative Framework legislation
    should comply with the obligations of the provider established in this Regulation and
    notably ensure that the AI system embedded in the final product complies with the
    requirements of this Regulation.
    (56) To enable enforcement of this Regulation and create a level-playing field for
    operators, and taking into account the different forms of making available of digital
    products, it is important to ensure that, under all circumstances, a person established in
    the Union can provide authorities with all the necessary information on the compliance
    of an AI system. Therefore, prior to making their AI systems available in the Union,
    where an importer cannot be identified, providers established outside the Union shall,
    by written mandate, appoint an authorised representative established in the Union.
    (57) In line with New Legislative Framework principles, specific obligations for relevant
    economic operators, such as importers and distributors, should be set to ensure legal
    certainty and facilitate regulatory compliance by those relevant operators.
    51
    Regulation (EC) No 765/2008 of the European Parliament and of the Council of 9 July 2008 setting out
    the requirements for accreditation and market surveillance relating to the marketing of products and
    repealing Regulation (EEC) No 339/93 (OJ L 218, 13.8.2008, p. 30).
    52
    Decision No 768/2008/EC of the European Parliament and of the Council of 9 July 2008 on a common
    framework for the marketing of products, and repealing Council Decision 93/465/EEC (OJ L 218,
    13.8.2008, p. 82).
    53
    Regulation (EU) 2019/1020 of the European Parliament and of the Council of 20 June 2019 on market
    surveillance and compliance of products and amending Directive 2004/42/EC and Regulations (EC) No
    765/2008 and (EU) No 305/2011 (Text with EEA relevance) (OJ L 169, 25.6.2019, p. 1–44).
    EN 32 EN
    (58) Given the nature of AI systems and the risks to safety and fundamental rights possibly
    associated with their use, including as regard the need to ensure proper monitoring of
    the performance of an AI system in a real-life setting, it is appropriate to set specific
    responsibilities for users. Users should in particular use high-risk AI systems in
    accordance with the instructions of use and certain other obligations should be
    provided for with regard to monitoring of the functioning of the AI systems and with
    regard to record-keeping, as appropriate.
    (59) It is appropriate to envisage that the user of the AI system should be the natural or
    legal person, public authority, agency or other body under whose authority the AI
    system is operated except where the use is made in the course of a personal non-
    professional activity.
    (60) In the light of the complexity of the artificial intelligence value chain, relevant third
    parties, notably the ones involved in the sale and the supply of software, software tools
    and components, pre-trained models and data, or providers of network services, should
    cooperate, as appropriate, with providers and users to enable their compliance with the
    obligations under this Regulation and with competent authorities established under this
    Regulation.
    (61) Standardisation should play a key role to provide technical solutions to providers to
    ensure compliance with this Regulation. Compliance with harmonised standards as
    defined in Regulation (EU) No 1025/2012 of the European Parliament and of the
    Council54
    should be a means for providers to demonstrate conformity with the
    requirements of this Regulation. However, the Commission could adopt common
    technical specifications in areas where no harmonised standards exist or where they
    are insufficient.
    (62) In order to ensure a high level of trustworthiness of high-risk AI systems, those
    systems should be subject to a conformity assessment prior to their placing on the
    market or putting into service.
    (63) It is appropriate that, in order to minimise the burden on operators and avoid any
    possible duplication, for high-risk AI systems related to products which are covered by
    existing Union harmonisation legislation following the New Legislative Framework
    approach, the compliance of those AI systems with the requirements of this Regulation
    should be assessed as part of the conformity assessment already foreseen under that
    legislation. The applicability of the requirements of this Regulation should thus not
    affect the specific logic, methodology or general structure of conformity assessment
    under the relevant specific New Legislative Framework legislation. This approach is
    fully reflected in the interplay between this Regulation and the [Machinery
    Regulation]. While safety risks of AI systems ensuring safety functions in machinery
    are addressed by the requirements of this Regulation, certain specific requirements in
    the [Machinery Regulation] will ensure the safe integration of the AI system into the
    overall machinery, so as not to compromise the safety of the machinery as a whole.
    54
    Regulation (EU) No 1025/2012 of the European Parliament and of the Council of 25 October 2012 on
    European standardisation, amending Council Directives 89/686/EEC and 93/15/EEC and Directives
    94/9/EC, 94/25/EC, 95/16/EC, 97/23/EC, 98/34/EC, 2004/22/EC, 2007/23/EC, 2009/23/EC and
    2009/105/EC of the European Parliament and of the Council and repealing Council Decision
    87/95/EEC and Decision No 1673/2006/EC of the European Parliament and of the Council (OJ L 316,
    14.11.2012, p. 12).
    EN 33 EN
    The [Machinery Regulation] applies the same definition of AI system as this
    Regulation.
    (64) Given the more extensive experience of professional pre-market certifiers in the field
    of product safety and the different nature of risks involved, it is appropriate to limit, at
    least in an initial phase of application of this Regulation, the scope of application of
    third-party conformity assessment for high-risk AI systems other than those related to
    products. Therefore, the conformity assessment of such systems should be carried out
    as a general rule by the provider under its own responsibility, with the only exception
    of AI systems intended to be used for the remote biometric identification of persons,
    for which the involvement of a notified body in the conformity assessment should be
    foreseen, to the extent they are not prohibited.
    (65) In order to carry out third-party conformity assessment for AI systems intended to be
    used for the remote biometric identification of persons, notified bodies should be
    designated under this Regulation by the national competent authorities, provided they
    are compliant with a set of requirements, notably on independence, competence and
    absence of conflicts of interests.
    (66) In line with the commonly established notion of substantial modification for products
    regulated by Union harmonisation legislation, it is appropriate that an AI system
    undergoes a new conformity assessment whenever a change occurs which may affect
    the compliance of the system with this Regulation or when the intended purpose of the
    system changes. In addition, as regards AI systems which continue to ‘learn’ after
    being placed on the market or put into service (i.e. they automatically adapt how
    functions are carried out), it is necessary to provide rules establishing that changes to
    the algorithm and its performance that have been pre-determined by the provider and
    assessed at the moment of the conformity assessment should not constitute a
    substantial modification.
    (67) High-risk AI systems should bear the CE marking to indicate their conformity with
    this Regulation so that they can move freely within the internal market. Member States
    should not create unjustified obstacles to the placing on the market or putting into
    service of high-risk AI systems that comply with the requirements laid down in this
    Regulation and bear the CE marking.
    (68) Under certain conditions, rapid availability of innovative technologies may be crucial
    for health and safety of persons and for society as a whole. It is thus appropriate that
    under exceptional reasons of public security or protection of life and health of natural
    persons and the protection of industrial and commercial property, Member States
    could authorise the placing on the market or putting into service of AI systems which
    have not undergone a conformity assessment.
    (69) In order to facilitate the work of the Commission and the Member States in the
    artificial intelligence field as well as to increase the transparency towards the public,
    providers of high-risk AI systems other than those related to products falling within
    the scope of relevant existing Union harmonisation legislation, should be required to
    register their high-risk AI system in a EU database, to be established and managed by
    the Commission. The Commission should be the controller of that database, in
    accordance with Regulation (EU) 2018/1725 of the European Parliament and of the
    EN 34 EN
    Council55
    . In order to ensure the full functionality of the database, when deployed, the
    procedure for setting the database should include the elaboration of functional
    specifications by the Commission and an independent audit report.
    (70) Certain AI systems intended to interact with natural persons or to generate content
    may pose specific risks of impersonation or deception irrespective of whether they
    qualify as high-risk or not. In certain circumstances, the use of these systems should
    therefore be subject to specific transparency obligations without prejudice to the
    requirements and obligations for high-risk AI systems. In particular, natural persons
    should be notified that they are interacting with an AI system, unless this is obvious
    from the circumstances and the context of use. Moreover, natural persons should be
    notified when they are exposed to an emotion recognition system or a biometric
    categorisation system. Such information and notifications should be provided in
    accessible formats for persons with disabilities. Further, users, who use an AI system
    to generate or manipulate image, audio or video content that appreciably resembles
    existing persons, places or events and would falsely appear to a person to be authentic,
    should disclose that the content has been artificially created or manipulated by
    labelling the artificial intelligence output accordingly and disclosing its artificial
    origin.
    (71) Artificial intelligence is a rapidly developing family of technologies that requires
    novel forms of regulatory oversight and a safe space for experimentation, while
    ensuring responsible innovation and integration of appropriate safeguards and risk
    mitigation measures. To ensure a legal framework that is innovation-friendly, future-
    proof and resilient to disruption, national competent authorities from one or more
    Member States should be encouraged to establish artificial intelligence regulatory
    sandboxes to facilitate the development and testing of innovative AI systems under
    strict regulatory oversight before these systems are placed on the market or otherwise
    put into service.
    (72) The objectives of the regulatory sandboxes should be to foster AI innovation by
    establishing a controlled experimentation and testing environment in the development
    and pre-marketing phase with a view to ensuring compliance of the innovative AI
    systems with this Regulation and other relevant Union and Member States legislation;
    to enhance legal certainty for innovators and the competent authorities’ oversight and
    understanding of the opportunities, emerging risks and the impacts of AI use, and to
    accelerate access to markets, including by removing barriers for small and medium
    enterprises (SMEs) and start-ups. To ensure uniform implementation across the Union
    and economies of scale, it is appropriate to establish common rules for the regulatory
    sandboxes’ implementation and a framework for cooperation between the relevant
    authorities involved in the supervision of the sandboxes. This Regulation should
    provide the legal basis for the use of personal data collected for other purposes for
    developing certain AI systems in the public interest within the AI regulatory sandbox,
    in line with Article 6(4) of Regulation (EU) 2016/679, and Article 6 of Regulation
    (EU) 2018/1725, and without prejudice to Article 4(2) of Directive (EU) 2016/680.
    Participants in the sandbox should ensure appropriate safeguards and cooperate with
    the competent authorities, including by following their guidance and acting
    55
    Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the
    protection of natural persons with regard to the processing of personal data and on the free movement of
    such data, and repealing Directive 95/46/EC (General Data Protection Regulation) (OJ L 119, 4.5.2016,
    p. 1).
    EN 35 EN
    expeditiously and in good faith to mitigate any high-risks to safety and fundamental
    rights that may arise during the development and experimentation in the sandbox. The
    conduct of the participants in the sandbox should be taken into account when
    competent authorities decide whether to impose an administrative fine under Article
    83(2) of Regulation 2016/679 and Article 57 of Directive 2016/680.
    (73) In order to promote and protect innovation, it is important that the interests of small-
    scale providers and users of AI systems are taken into particular account. To this
    objective, Member States should develop initiatives, which are targeted at those
    operators, including on awareness raising and information communication. Moreover,
    the specific interests and needs of small-scale providers shall be taken into account
    when Notified Bodies set conformity assessment fees. Translation costs related to
    mandatory documentation and communication with authorities may constitute a
    significant cost for providers and other operators, notably those of a smaller scale.
    Member States should possibly ensure that one of the languages determined and
    accepted by them for relevant providers’ documentation and for communication with
    operators is one which is broadly understood by the largest possible number of cross-
    border users.
    (74) In order to minimise the risks to implementation resulting from lack of knowledge and
    expertise in the market as well as to facilitate compliance of providers and notified
    bodies with their obligations under this Regulation, the AI-on demand platform, the
    European Digital Innovation Hubs and the Testing and Experimentation Facilities
    established by the Commission and the Member States at national or EU level should
    possibly contribute to the implementation of this Regulation. Within their respective
    mission and fields of competence, they may provide in particular technical and
    scientific support to providers and notified bodies.
    (75) It is appropriate that the Commission facilitates, to the extent possible, access to
    Testing and Experimentation Facilities to bodies, groups or laboratories established or
    accredited pursuant to any relevant Union harmonisation legislation and which fulfil
    tasks in the context of conformity assessment of products or devices covered by that
    Union harmonisation legislation. This is notably the case for expert panels, expert
    laboratories and reference laboratories in the field of medical devices pursuant to
    Regulation (EU) 2017/745 and Regulation (EU) 2017/746.
    (76) In order to facilitate a smooth, effective and harmonised implementation of this
    Regulation a European Artificial Intelligence Board should be established. The Board
    should be responsible for a number of advisory tasks, including issuing opinions,
    recommendations, advice or guidance on matters related to the implementation of this
    Regulation, including on technical specifications or existing standards regarding the
    requirements established in this Regulation and providing advice to and assisting the
    Commission on specific questions related to artificial intelligence.
    (77) Member States hold a key role in the application and enforcement of this Regulation.
    In this respect, each Member State should designate one or more national competent
    authorities for the purpose of supervising the application and implementation of this
    Regulation. In order to increase organisation efficiency on the side of Member States
    and to set an official point of contact vis-à-vis the public and other counterparts at
    Member State and Union levels, in each Member State one national authority should
    be designated as national supervisory authority.
    (78) In order to ensure that providers of high-risk AI systems can take into account the
    experience on the use of high-risk AI systems for improving their systems and the
    EN 36 EN
    design and development process or can take any possible corrective action in a timely
    manner, all providers should have a post-market monitoring system in place. This
    system is also key to ensure that the possible risks emerging from AI systems which
    continue to ‘learn’ after being placed on the market or put into service can be more
    efficiently and timely addressed. In this context, providers should also be required to
    have a system in place to report to the relevant authorities any serious incidents or any
    breaches to national and Union law protecting fundamental rights resulting from the
    use of their AI systems.
    (79) In order to ensure an appropriate and effective enforcement of the requirements and
    obligations set out by this Regulation, which is Union harmonisation legislation, the
    system of market surveillance and compliance of products established by Regulation
    (EU) 2019/1020 should apply in its entirety. Where necessary for their mandate,
    national public authorities or bodies, which supervise the application of Union law
    protecting fundamental rights, including equality bodies, should also have access to
    any documentation created under this Regulation.
    (80) Union legislation on financial services includes internal governance and risk
    management rules and requirements which are applicable to regulated financial
    institutions in the course of provision of those services, including when they make use
    of AI systems. In order to ensure coherent application and enforcement of the
    obligations under this Regulation and relevant rules and requirements of the Union
    financial services legislation, the authorities responsible for the supervision and
    enforcement of the financial services legislation, including where applicable the
    European Central Bank, should be designated as competent authorities for the purpose
    of supervising the implementation of this Regulation, including for market
    surveillance activities, as regards AI systems provided or used by regulated and
    supervised financial institutions. To further enhance the consistency between this
    Regulation and the rules applicable to credit institutions regulated under Directive
    2013/36/EU of the European Parliament and of the Council56
    , it is also appropriate to
    integrate the conformity assessment procedure and some of the providers’ procedural
    obligations in relation to risk management, post marketing monitoring and
    documentation into the existing obligations and procedures under Directive
    2013/36/EU. In order to avoid overlaps, limited derogations should also be envisaged
    in relation to the quality management system of providers and the monitoring
    obligation placed on users of high-risk AI systems to the extent that these apply to
    credit institutions regulated by Directive 2013/36/EU.
    (81) The development of AI systems other than high-risk AI systems in accordance with
    the requirements of this Regulation may lead to a larger uptake of trustworthy artificial
    intelligence in the Union. Providers of non-high-risk AI systems should be encouraged
    to create codes of conduct intended to foster the voluntary application of the
    mandatory requirements applicable to high-risk AI systems. Providers should also be
    encouraged to apply on a voluntary basis additional requirements related, for example,
    to environmental sustainability, accessibility to persons with disability, stakeholders’
    participation in the design and development of AI systems, and diversity of the
    development teams. The Commission may develop initiatives, including of a sectorial
    56
    Directive 2013/36/EU of the European Parliament and of the Council of 26 June 2013 on access to the
    activity of credit institutions and the prudential supervision of credit institutions and investment firms,
    amending Directive 2002/87/EC and repealing Directives 2006/48/EC and 2006/49/EC (OJ L 176,
    27.6.2013, p. 338).
    EN 37 EN
    nature, to facilitate the lowering of technical barriers hindering cross-border exchange
    of data for AI development, including on data access infrastructure, semantic and
    technical interoperability of different types of data.
    (82) It is important that AI systems related to products that are not high-risk in accordance
    with this Regulation and thus are not required to comply with the requirements set out
    herein are nevertheless safe when placed on the market or put into service. To
    contribute to this objective, the Directive 2001/95/EC of the European Parliament and
    of the Council57
    would apply as a safety net.
    (83) In order to ensure trustful and constructive cooperation of competent authorities on
    Union and national level, all parties involved in the application of this Regulation
    should respect the confidentiality of information and data obtained in carrying out
    their tasks.
    (84) Member States should take all necessary measures to ensure that the provisions of this
    Regulation are implemented, including by laying down effective, proportionate and
    dissuasive penalties for their infringement. For certain specific infringements, Member
    States should take into account the margins and criteria set out in this Regulation. The
    European Data Protection Supervisor should have the power to impose fines on Union
    institutions, agencies and bodies falling within the scope of this Regulation.
    (85) In order to ensure that the regulatory framework can be adapted where necessary, the
    power to adopt acts in accordance with Article 290 TFEU should be delegated to the
    Commission to amend the techniques and approaches referred to in Annex I to define
    AI systems, the Union harmonisation legislation listed in Annex II, the high-risk AI
    systems listed in Annex III, the provisions regarding technical documentation listed in
    Annex IV, the content of the EU declaration of conformity in Annex V, the provisions
    regarding the conformity assessment procedures in Annex VI and VII and the
    provisions establishing the high-risk AI systems to which the conformity assessment
    procedure based on assessment of the quality management system and assessment of
    the technical documentation should apply. It is of particular importance that the
    Commission carry out appropriate consultations during its preparatory work, including
    at expert level, and that those consultations be conducted in accordance with the
    principles laid down in the Interinstitutional Agreement of 13 April 2016 on Better
    Law-Making58
    . In particular, to ensure equal participation in the preparation of
    delegated acts, the European Parliament and the Council receive all documents at the
    same time as Member States’ experts, and their experts systematically have access to
    meetings of Commission expert groups dealing with the preparation of delegated acts.
    (86) In order to ensure uniform conditions for the implementation of this Regulation,
    implementing powers should be conferred on the Commission. Those powers should
    be exercised in accordance with Regulation (EU) No 182/2011 of the European
    Parliament and of the Council59
    .
    (87) Since the objective of this Regulation cannot be sufficiently achieved by the Member
    States and can rather, by reason of the scale or effects of the action, be better achieved
    57
    Directive 2001/95/EC of the European Parliament and of the Council of 3 December 2001 on general
    product safety (OJ L 11, 15.1.2002, p. 4).
    58
    OJ L 123, 12.5.2016, p. 1.
    59
    Regulation (EU) No 182/2011 of the European Parliament and of the Council of 16 February 2011
    laying down the rules and general principles concerning mechanisms for control by the Member States
    of the Commission's exercise of implementing powers (OJ L 55, 28.2.2011, p.13).
    EN 38 EN
    at Union level, the Union may adopt measures in accordance with the principle of
    subsidiarity as set out in Article 5 TEU. In accordance with the principle of
    proportionality as set out in that Article, this Regulation does not go beyond what is
    necessary in order to achieve that objective.
    (88) This Regulation should apply from … [OP – please insert the date established in Art.
    85]. However, the infrastructure related to the governance and the conformity
    assessment system should be operational before that date, therefore the provisions on
    notified bodies and governance structure should apply from … [OP – please insert the
    date – three months following the entry into force of this Regulation]. In addition,
    Member States should lay down and notify to the Commission the rules on penalties,
    including administrative fines, and ensure that they are properly and effectively
    implemented by the date of application of this Regulation. Therefore the provisions on
    penalties should apply from [OP – please insert the date – twelve months following the
    entry into force of this Regulation].
    (89) The European Data Protection Supervisor and the European Data Protection Board
    were consulted in accordance with Article 42(2) of Regulation (EU) 2018/1725 and
    delivered an opinion on […]”.
    HAVE ADOPTED THIS REGULATION:
    TITLE I
    GENERAL PROVISIONS
    Article 1
    Subject matter
    This Regulation lays down:
    (a) harmonised rules for the placing on the market, the putting into service and the
    use of artificial intelligence systems (‘AI systems’) in the Union;
    (a) prohibitions of certain artificial intelligence practices;
    (b) specific requirements for high-risk AI systems and obligations for operators of
    such systems;
    (c) harmonised transparency rules for AI systems intended to interact with natural
    persons, emotion recognition systems and biometric categorisation systems,
    and AI systems used to generate or manipulate image, audio or video content;
    (d) rules on market monitoring and surveillance.
    Article 2
    Scope
    1. This Regulation applies to:
    (a) providers placing on the market or putting into service AI systems in the
    Union, irrespective of whether those providers are established within the Union
    or in a third country;
    (b) users of AI systems located within the Union;
    EN 39 EN
    (c) providers and users of AI systems that are located in a third country, where the
    output produced by the system is used in the Union;
    2. For high-risk AI systems that are safety components of products or systems, or which
    are themselves products or systems, falling within the scope of the following acts,
    only Article 84 of this Regulation shall apply:
    (a) Regulation (EC) 300/2008;
    (b) Regulation (EU) No 167/2013;
    (c) Regulation (EU) No 168/2013;
    (d) Directive 2014/90/EU;
    (e) Directive (EU) 2016/797;
    (f) Regulation (EU) 2018/858;
    (g) Regulation (EU) 2018/1139;
    (h) Regulation (EU) 2019/2144.
    3. This Regulation shall not apply to AI systems developed or used exclusively for
    military purposes.
    4. This Regulation shall not apply to public authorities in a third country nor to
    international organisations falling within the scope of this Regulation pursuant to
    paragraph 1, where those authorities or organisations use AI systems in the
    framework of international agreements for law enforcement and judicial cooperation
    with the Union or with one or more Member States.
    5. This Regulation shall not affect the application of the provisions on the liability of
    intermediary service providers set out in Chapter II, Section IV of Directive
    2000/31/EC of the European Parliament and of the Council60
    [as to be replaced by
    the corresponding provisions of the Digital Services Act].
    Article 3
    Definitions
    For the purpose of this Regulation, the following definitions apply:
    (1) ‘artificial intelligence system’ (AI system) means software that is developed with one
    or more of the techniques and approaches listed in Annex I and can, for a given set of
    human-defined objectives, generate outputs such as content, predictions,
    recommendations, or decisions influencing the environments they interact with;
    (1) ‘provider’ means a natural or legal person, public authority, agency or other body
    that develops an AI system or that has an AI system developed with a view to
    placing it on the market or putting it into service under its own name or trademark,
    whether for payment or free of charge;
    60
    Directive 2000/31/EC of the European Parliament and of the Council of 8 June 2000 on certain legal
    aspects of information society services, in particular electronic commerce, in the Internal Market
    ('Directive on electronic commerce') (OJ L 178, 17.7.2000, p. 1).
    EN 40 EN
    (3) ‘small-scale provider’ means a provider that is a micro or small enterprise within the
    meaning of Commission Recommendation 2003/361/EC61
    ;
    (4) ‘user’ means any natural or legal person, public authority, agency or other body
    using an AI system under its authority, except where the AI system is used in the
    course of a personal non-professional activity;
    (5) ‘authorised representative’ means any natural or legal person established in the
    Union who has received a written mandate from a provider of an AI system to,
    respectively, perform and carry out on its behalf the obligations and procedures
    established by this Regulation;
    (6) ‘importer’ means any natural or legal person established in the Union that places on
    the market or puts into service an AI system that bears the name or trademark of a
    natural or legal person established outside the Union;
    (7) ‘distributor’ means any natural or legal person in the supply chain, other than the
    provider or the importer, that makes an AI system available on the Union market
    without affecting its properties;
    (8) ‘operator’ means the provider, the user, the authorised representative, the importer
    and the distributor;
    (9) ‘placing on the market’ means the first making available of an AI system on the
    Union market;
    (10) ‘making available on the market’ means any supply of an AI system for distribution
    or use on the Union market in the course of a commercial activity, whether in return
    for payment or free of charge;
    (11) ‘putting into service’ means the supply of an AI system for first use directly to the
    user or for own use on the Union market for its intended purpose;
    (12) ‘intended purpose’ means the use for which an AI system is intended by the provider,
    including the specific context and conditions of use, as specified in the information
    supplied by the provider in the instructions for use, promotional or sales materials
    and statements, as well as in the technical documentation;
    (13) ‘reasonably foreseeable misuse’ means the use of an AI system in a way that is not in
    accordance with its intended purpose, but which may result from reasonably
    foreseeable human behaviour or interaction with other systems;
    (14) ‘safety component of a product or system’ means a component of a product or of a
    system which fulfils a safety function for that product or system or the failure or
    malfunctioning of which endangers the health and safety of persons or property;
    (15) ‘instructions for use’ means the information provided by the provider to inform the
    user of in particular an AI system’s intended purpose and proper use, inclusive of the
    specific geographical, behavioural or functional setting within which the high-risk AI
    system is intended to be used;
    (16) ‘recall of an AI system’ means any measure aimed at achieving the return to the
    provider of an AI system made available to users;
    61
    Commission Recommendation of 6 May 2003 concerning the definition of micro, small and medium-
    sized enterprises (OJ L 124, 20.5.2003, p. 36).
    EN 41 EN
    (17) ‘withdrawal of an AI system’ means any measure aimed at preventing the
    distribution, display and offer of an AI system;
    (18) ‘performance of an AI system’ means the ability of an AI system to achieve its
    intended purpose;
    (19) ‘notifying authority’ means the national authority responsible for setting up and
    carrying out the necessary procedures for the assessment, designation and
    notification of conformity assessment bodies and for their monitoring;
    (20) ‘conformity assessment’ means the process of verifying whether the requirements set
    out in Title III, Chapter 2 of this Regulation relating to an AI system have been
    fulfilled;
    (21) ‘conformity assessment body’ means a body that performs third-party conformity
    assessment activities, including testing, certification and inspection;
    (22) ‘notified body’ means a conformity assessment body designated in accordance with
    this Regulation and other relevant Union harmonisation legislation;
    (23) ‘substantial modification’ means a change to the AI system following its placing on
    the market or putting into service which affects the compliance of the AI system with
    the requirements set out in Title III, Chapter 2 of this Regulation or results in a
    modification to the intended purpose for which the AI system has been assessed;
    (24) ‘CE marking of conformity’ (CE marking) means a marking by which a provider
    indicates that an AI system is in conformity with the requirements set out in Title III,
    Chapter 2 of this Regulation and other applicable Union legislation harmonising the
    conditions for the marketing of products (‘Union harmonisation legislation’)
    providing for its affixing;
    (25) ‘post-market monitoring’ means all activities carried out by providers of AI systems
    to proactively collect and review experience gained from the use of AI systems they
    place on the market or put into service for the purpose of identifying any need to
    immediately apply any necessary corrective or preventive actions;
    (26) ‘market surveillance authority’ means the national authority carrying out the
    activities and taking the measures pursuant to Regulation (EU) 2019/1020;
    (27) ‘harmonised standard’ means a European standard as defined in Article 2(1)(c) of
    Regulation (EU) No 1025/2012;
    (28) ‘common specifications’ means a document, other than a standard, containing
    technical solutions providing a means to, comply with certain requirements and
    obligations established under this Regulation;
    (29) ‘training data’ means data used for training an AI system through fitting its learnable
    parameters, including the weights of a neural network;
    (30) ‘validation data’ means data used for providing an evaluation of the trained AI
    system and for tuning its non-learnable parameters and its learning process, among
    other things, in order to prevent overfitting; whereas the validation dataset can be a
    separate dataset or part of the training dataset, either as a fixed or variable split;
    (31) ‘testing data’ means data used for providing an independent evaluation of the trained
    and validated AI system in order to confirm the expected performance of that system
    before its placing on the market or putting into service;
    EN 42 EN
    (32) ‘input data’ means data provided to or directly acquired by an AI system on the basis
    of which the system produces an output;
    (33) ‘biometric data’ means personal data resulting from specific technical processing
    relating to the physical, physiological or behavioural characteristics of a natural
    person, which allow or confirm the unique identification of that natural person, such
    as facial images or dactyloscopic data;
    (34) ‘emotion recognition system’ means an AI system for the purpose of identifying or
    inferring emotions or intentions of natural persons on the basis of their biometric
    data;
    (35) ‘biometric categorisation system’ means an AI system for the purpose of assigning
    natural persons to specific categories, such as sex, age, hair colour, eye colour,
    tattoos, ethnic origin or sexual or political orientation, on the basis of their biometric
    data;
    (36) ‘remote biometric identification system’ means an AI system for the purpose of
    identifying natural persons at a distance through the comparison of a person’s
    biometric data with the biometric data contained in a reference database, and without
    prior knowledge of the user of the AI system whether the person will be present and
    can be identified ;
    (37) ‘‘real-time’ remote biometric identification system’ means a remote biometric
    identification system whereby the capturing of biometric data, the comparison and
    the identification all occur without a significant delay. This comprises not only
    instant identification, but also limited short delays in order to avoid circumvention.
    (38) ‘‘post’ remote biometric identification system’ means a remote biometric
    identification system other than a ‘real-time’ remote biometric identification system;
    (39) ‘publicly accessible space’ means any physical place accessible to the public,
    regardless of whether certain conditions for access may apply;
    (40) ‘law enforcement authority’ means:
    (a) any public authority competent for the prevention, investigation, detection or
    prosecution of criminal offences or the execution of criminal penalties,
    including the safeguarding against and the prevention of threats to public
    security; or
    (b) any other body or entity entrusted by Member State law to exercise public
    authority and public powers for the purposes of the prevention, investigation,
    detection or prosecution of criminal offences or the execution of criminal
    penalties, including the safeguarding against and the prevention of threats to
    public security;
    (41) ‘law enforcement’ means activities carried out by law enforcement authorities for the
    prevention, investigation, detection or prosecution of criminal offences or the
    execution of criminal penalties, including the safeguarding against and the
    prevention of threats to public security;
    (42) ‘national supervisory authority’ means the authority to which a Member State assigns
    the responsibility for the implementation and application of this Regulation, for
    coordinating the activities entrusted to that Member State, for acting as the single
    contact point for the Commission, and for representing the Member State at the
    European Artificial Intelligence Board;
    EN 43 EN
    (43) ‘national competent authority’ means the national supervisory authority, the
    notifying authority and the market surveillance authority;
    (44) ‘serious incident’ means any incident that directly or indirectly leads, might have led
    or might lead to any of the following:
    (a) the death of a person or serious damage to a person’s health, to property or the
    environment,
    (b) a serious and irreversible disruption of the management and operation of
    critical infrastructure.
    Article 4
    Amendments to Annex I
    The Commission is empowered to adopt delegated acts in accordance with Article 73 to
    amend the list of techniques and approaches listed in Annex I, in order to update that list to
    market and technological developments on the basis of characteristics that are similar to the
    techniques and approaches listed therein.
    TITLE II
    PROHIBITED ARTIFICIAL INTELLIGENCE PRACTICES
    Article 5
    1. The following artificial intelligence practices shall be prohibited:
    (a) the placing on the market, putting into service or use of an AI system that
    deploys subliminal techniques beyond a person’s consciousness in order to
    materially distort a person’s behaviour in a manner that causes or is likely to
    cause that person or another person physical or psychological harm;
    (b) the placing on the market, putting into service or use of an AI system that
    exploits any of the vulnerabilities of a specific group of persons due to their
    age, physical or mental disability, in order to materially distort the behaviour of
    a person pertaining to that group in a manner that causes or is likely to cause
    that person or another person physical or psychological harm;
    (c) the placing on the market, putting into service or use of AI systems by public
    authorities or on their behalf for the evaluation or classification of the
    trustworthiness of natural persons over a certain period of time based on their
    social behaviour or known or predicted personal or personality characteristics,
    with the social score leading to either or both of the following:
    (i) detrimental or unfavourable treatment of certain natural persons or whole
    groups thereof in social contexts which are unrelated to the contexts in
    which the data was originally generated or collected;
    (ii) detrimental or unfavourable treatment of certain natural persons or whole
    groups thereof that is unjustified or disproportionate to their social
    behaviour or its gravity;
    (d) the use of ‘real-time’ remote biometric identification systems in publicly
    accessible spaces for the purpose of law enforcement, unless and in as far as
    such use is strictly necessary for one of the following objectives:
    EN 44 EN
    (i) the targeted search for specific potential victims of crime, including
    missing children;
    (ii) the prevention of a specific, substantial and imminent threat to the life or
    physical safety of natural persons or of a terrorist attack;
    (iii) the detection, localisation, identification or prosecution of a perpetrator
    or suspect of a criminal offence referred to in Article 2(2) of Council
    Framework Decision 2002/584/JHA62
    and punishable in the Member
    State concerned by a custodial sentence or a detention order for a
    maximum period of at least three years, as determined by the law of that
    Member State.
    2. The use of ‘real-time’ remote biometric identification systems in publicly accessible
    spaces for the purpose of law enforcement for any of the objectives referred to in
    paragraph 1 point d) shall take into account the following elements:
    (a) the nature of the situation giving rise to the possible use, in particular the
    seriousness, probability and scale of the harm caused in the absence of the use
    of the system;
    (b) the consequences of the use of the system for the rights and freedoms of all
    persons concerned, in particular the seriousness, probability and scale of those
    consequences.
    In addition, the use of ‘real-time’ remote biometric identification systems in publicly
    accessible spaces for the purpose of law enforcement for any of the objectives
    referred to in paragraph 1 point d) shall comply with necessary and proportionate
    safeguards and conditions in relation to the use, in particular as regards the temporal,
    geographic and personal limitations.
    3. As regards paragraphs 1, point (d) and 2, each individual use for the purpose of law
    enforcement of a ‘real-time’ remote biometric identification system in publicly
    accessible spaces shall be subject to a prior authorisation granted by a judicial
    authority or by an independent administrative authority of the Member State in
    which the use is to take place, issued upon a reasoned request and in accordance with
    the detailed rules of national law referred to in paragraph 4. However, in a duly
    justified situation of urgency, the use of the system may be commenced without an
    authorisation and the authorisation may be requested only during or after the use.
    The competent judicial or administrative authority shall only grant the authorisation
    where it is satisfied, based on objective evidence or clear indications presented to it,
    that the use of the ‘real-time’ remote biometric identification system at issue is
    necessary for and proportionate to achieving one of the objectives specified in
    paragraph 1, point (d), as identified in the request. In deciding on the request, the
    competent judicial or administrative authority shall take into account the elements
    referred to in paragraph 2.
    4. A Member State may decide to provide for the possibility to fully or partially
    authorise the use of ‘real-time’ remote biometric identification systems in publicly
    accessible spaces for the purpose of law enforcement within the limits and under the
    62
    Council Framework Decision 2002/584/JHA of 13 June 2002 on the European arrest warrant and the
    surrender procedures between Member States (OJ L 190, 18.7.2002, p. 1).
    EN 45 EN
    conditions listed in paragraphs 1, point (d), 2 and 3. That Member State shall lay
    down in its national law the necessary detailed rules for the request, issuance and
    exercise of, as well as supervision relating to, the authorisations referred to in
    paragraph 3. Those rules shall also specify in respect of which of the objectives listed
    in paragraph 1, point (d), including which of the criminal offences referred to in
    point (iii) thereof, the competent authorities may be authorised to use those systems
    for the purpose of law enforcement.
    TITLE III
    HIGH-RISK AI SYSTEMS
    CHAPTER 1
    CLASSIFICATION OF AI SYSTEMS AS HIGH-RISK
    Article 6
    Classification rules for high-risk AI systems
    1. Irrespective of whether an AI system is placed on the market or put into service
    independently from the products referred to in points (a) and (b), that AI system shall
    be considered high-risk where both of the following conditions are fulfilled:
    (a) the AI system is intended to be used as a safety component of a product, or is
    itself a product, covered by the Union harmonisation legislation listed in Annex
    II;
    (b) the product whose safety component is the AI system, or the AI system itself as
    a product, is required to undergo a third-party conformity assessment with a
    view to the placing on the market or putting into service of that product
    pursuant to the Union harmonisation legislation listed in Annex II.
    2. In addition to the high-risk AI systems referred to in paragraph 1, AI systems
    referred to in Annex III shall also be considered high-risk.
    Article 7
    Amendments to Annex III
    1. The Commission is empowered to adopt delegated acts in accordance with Article 73
    to update the list in Annex III by adding high-risk AI systems where both of the
    following conditions are fulfilled:
    (a) the AI systems are intended to be used in any of the areas listed in points 1 to 8
    of Annex III;
    (b) the AI systems pose a risk of harm to the health and safety, or a risk of adverse
    impact on fundamental rights, that is, in respect of its severity and probability
    of occurrence, equivalent to or greater than the risk of harm or of adverse
    impact posed by the high-risk AI systems already referred to in Annex III.
    2. When assessing for the purposes of paragraph 1 whether an AI system poses a risk of
    harm to the health and safety or a risk of adverse impact on fundamental rights that is
    equivalent to or greater than the risk of harm posed by the high-risk AI systems
    EN 46 EN
    already referred to in Annex III, the Commission shall take into account the
    following criteria:
    (a) the intended purpose of the AI system;
    (b) the extent to which an AI system has been used or is likely to be used;
    (c) the extent to which the use of an AI system has already caused harm to the
    health and safety or adverse impact on the fundamental rights or has given rise
    to significant concerns in relation to the materialisation of such harm or
    adverse impact, as demonstrated by reports or documented allegations
    submitted to national competent authorities;
    (d) the potential extent of such harm or such adverse impact, in particular in terms
    of its intensity and its ability to affect a plurality of persons;
    (e) the extent to which potentially harmed or adversely impacted persons are
    dependent on the outcome produced with an AI system, in particular because
    for practical or legal reasons it is not reasonably possible to opt-out from that
    outcome;
    (f) the extent to which potentially harmed or adversely impacted persons are in a
    vulnerable position in relation to the user of an AI system, in particular due to
    an imbalance of power, knowledge, economic or social circumstances, or age;
    (g) the extent to which the outcome produced with an AI system is easily
    reversible, whereby outcomes having an impact on the health or safety of
    persons shall not be considered as easily reversible;
    (h) the extent to which existing Union legislation provides for:
    (i) effective measures of redress in relation to the risks posed by an AI
    system, with the exclusion of claims for damages;
    (ii) effective measures to prevent or substantially minimise those risks.
    CHAPTER 2
    REQUIREMENTS FOR HIGH-RISK AI SYSTEMS
    Article 8
    Compliance with the requirements
    1. High-risk AI systems shall comply with the requirements established in this Chapter.
    2. The intended purpose of the high-risk AI system and the risk management system
    referred to in Article 9 shall be taken into account when ensuring compliance with
    those requirements.
    Article 9
    Risk management system
    1. A risk management system shall be established, implemented, documented and
    maintained in relation to high-risk AI systems.
    2. The risk management system shall consist of a continuous iterative process run
    throughout the entire lifecycle of a high-risk AI system, requiring regular systematic
    updating. It shall comprise the following steps:
    EN 47 EN
    (a) identification and analysis of the known and foreseeable risks associated with
    each high-risk AI system;
    (b) estimation and evaluation of the risks that may emerge when the high-risk AI
    system is used in accordance with its intended purpose and under conditions of
    reasonably foreseeable misuse;
    (c) evaluation of other possibly arising risks based on the analysis of data gathered
    from the post-market monitoring system referred to in Article 61;
    (d) adoption of suitable risk management measures in accordance with the
    provisions of the following paragraphs.
    3. The risk management measures referred to in paragraph 2, point (d) shall give due
    consideration to the effects and possible interactions resulting from the combined
    application of the requirements set out in this Chapter 2. They shall take into account
    the generally acknowledged state of the art, including as reflected in relevant
    harmonised standards or common specifications.
    4. The risk management measures referred to in paragraph 2, point (d) shall be such that
    any residual risk associated with each hazard as well as the overall residual risk of
    the high-risk AI systems is judged acceptable, provided that the high-risk AI system
    is used in accordance with its intended purpose or under conditions of reasonably
    foreseeable misuse. Those residual risks shall be communicated to the user.
    In identifying the most appropriate risk management measures, the following shall be
    ensured:
    (a) elimination or reduction of risks as far as possible through adequate design and
    development;
    (b) where appropriate, implementation of adequate mitigation and control
    measures in relation to risks that cannot be eliminated;
    (c) provision of adequate information pursuant to Article 13, in particular as
    regards the risks referred to in paragraph 2, point (b) of this Article, and, where
    appropriate, training to users.
    In eliminating or reducing risks related to the use of the high-risk AI system, due
    consideration shall be given to the technical knowledge, experience, education,
    training to be expected by the user and the environment in which the system is
    intended to be used.
    5. High-risk AI systems shall be tested for the purposes of identifying the most
    appropriate risk management measures. Testing shall ensure that high-risk AI
    systems perform consistently for their intended purpose and they are in compliance
    with the requirements set out in this Chapter.
    6. Testing procedures shall be suitable to achieve the intended purpose of the AI system
    and do not need to go beyond what is necessary to achieve that purpose.
    7. The testing of the high-risk AI systems shall be performed, as appropriate, at any
    point in time throughout the development process, and, in any event, prior to the
    placing on the market or the putting into service. Testing shall be made against
    preliminarily defined metrics and probabilistic thresholds that are appropriate to the
    intended purpose of the high-risk AI system.
    EN 48 EN
    8. When implementing the risk management system described in paragraphs 1 to 7,
    specific consideration shall be given to whether the high-risk AI system is likely to
    be accessed by or have an impact on children.
    9. For credit institutions regulated by Directive 2013/36/EU, the aspects described in
    paragraphs 1 to 8 shall be part of the risk management procedures established by
    those institutions pursuant to Article 74 of that Directive.
    Article 10
    Data and data governance
    1. High-risk AI systems which make use of techniques involving the training of models
    with data shall be developed on the basis of training, validation and testing data sets
    that meet the quality criteria referred to in paragraphs 2 to 5.
    2. Training, validation and testing data sets shall be subject to appropriate data
    governance and management practices. Those practices shall concern in particular,
    (a) the relevant design choices;
    (b) data collection;
    (c) relevant data preparation processing operations, such as annotation, labelling,
    cleaning, enrichment and aggregation;
    (d) the formulation of relevant assumptions, notably with respect to the
    information that the data are supposed to measure and represent;
    (e) a prior assessment of the availability, quantity and suitability of the data sets
    that are needed;
    (f) examination in view of possible biases;
    (g) the identification of any possible data gaps or shortcomings, and how those
    gaps and shortcomings can be addressed.
    3. Training, validation and testing data sets shall be relevant, representative, free of
    errors and complete. They shall have the appropriate statistical properties, including,
    where applicable, as regards the persons or groups of persons on which the high-risk
    AI system is intended to be used. These characteristics of the data sets may be met at
    the level of individual data sets or a combination thereof.
    4. Training, validation and testing data sets shall take into account, to the extent
    required by the intended purpose, the characteristics or elements that are particular to
    the specific geographical, behavioural or functional setting within which the high-
    risk AI system is intended to be used.
    5. To the extent that it is strictly necessary for the purposes of ensuring bias monitoring,
    detection and correction in relation to the high-risk AI systems, the providers of such
    systems may process special categories of personal data referred to in Article 9(1) of
    Regulation (EU) 2016/679, Article 10 of Directive (EU) 2016/680 and Article 10(1)
    of Regulation (EU) 2018/1725, subject to appropriate safeguards for the fundamental
    rights and freedoms of natural persons, including technical limitations on the re-use
    and use of state-of-the-art security and privacy-preserving measures, such as
    pseudonymisation, or encryption where anonymisation may significantly affect the
    purpose pursued.
    EN 49 EN
    6. Appropriate data governance and management practices shall apply for the
    development of high-risk AI systems other than those which make use of techniques
    involving the training of models in order to ensure that those high-risk AI systems
    comply with paragraph 2.
    Article 11
    Technical documentation
    1. The technical documentation of a high-risk AI system shall be drawn up before that
    system is placed on the market or put into service and shall be kept up-to date.
    The technical documentation shall be drawn up in such a way to demonstrate that the
    high-risk AI system complies with the requirements set out in this Chapter and
    provide national competent authorities and notified bodies with all the necessary
    information to assess the compliance of the AI system with those requirements. It
    shall contain, at a minimum, the elements set out in Annex IV.
    2. Where a high-risk AI system related to a product, to which the legal acts listed in
    Annex II, section A apply, is placed on the market or put into service one single
    technical documentation shall be drawn up containing all the information set out in
    Annex IV as well as the information required under those legal acts.
    3. The Commission is empowered to adopt delegated acts in accordance with Article 73
    to amend Annex IV where necessary to ensure that, in the light of technical progress,
    the technical documentation provides all the necessary information to assess the
    compliance of the system with the requirements set out in this Chapter.
    Article 12
    Record-keeping
    1. High-risk AI systems shall be designed and developed with capabilities enabling the
    automatic recording of events (‘logs’) while the high-risk AI systems is operating.
    Those logging capabilities shall conform to recognised standards or common
    specifications.
    2. The logging capabilities shall ensure a level of traceability of the AI system’s
    functioning throughout its lifecycle that is appropriate to the intended purpose of the
    system.
    3. In particular, logging capabilities shall enable the monitoring of the operation of the
    high-risk AI system with respect to the occurrence of situations that may result in the
    AI system presenting a risk within the meaning of Article 65(1) or lead to a
    substantial modification, and facilitate the post-market monitoring referred to in
    Article 61.
    4. For high-risk AI systems referred to in paragraph 1, point (a) of Annex III, the
    logging capabilities shall provide, at a minimum:
    (a) recording of the period of each use of the system (start date and time and end
    date and time of each use);
    (b) the reference database against which input data has been checked by the
    system;
    (c) the input data for which the search has led to a match;
    EN 50 EN
    (d) the identification of the natural persons involved in the verification of the
    results, as referred to in Article 14 (5).
    Article 13
    Transparency and provision of information to users
    1. High-risk AI systems shall be designed and developed in such a way to ensure that
    their operation is sufficiently transparent to enable users to interpret the system’s
    output and use it appropriately. An appropriate type and degree of transparency shall
    be ensured, with a view to achieving compliance with the relevant obligations of the
    user and of the provider set out in Chapter 3 of this Title.
    2. High-risk AI systems shall be accompanied by instructions for use in an appropriate
    digital format or otherwise that include concise, complete, correct and clear
    information that is relevant, accessible and comprehensible to users.
    3. The information referred to in paragraph 2 shall specify:
    (a) the identity and the contact details of the provider and, where applicable, of its
    authorised representative;
    (b) the characteristics, capabilities and limitations of performance of the high-risk
    AI system, including:
    (i) its intended purpose;
    (ii) the level of accuracy, robustness and cybersecurity referred to in Article
    15 against which the high-risk AI system has been tested and validated
    and which can be expected, and any known and foreseeable
    circumstances that may have an impact on that expected level of
    accuracy, robustness and cybersecurity;
    (iii) any known or foreseeable circumstance, related to the use of the high-
    risk AI system in accordance with its intended purpose or under
    conditions of reasonably foreseeable misuse, which may lead to risks to
    the health and safety or fundamental rights;
    (iv) its performance as regards the persons or groups of persons on which the
    system is intended to be used;
    (v) when appropriate, specifications for the input data, or any other relevant
    information in terms of the training, validation and testing data sets used,
    taking into account the intended purpose of the AI system.
    (c) the changes to the high-risk AI system and its performance which have been
    pre-determined by the provider at the moment of the initial conformity
    assessment, if any;
    (d) the human oversight measures referred to in Article 14, including the technical
    measures put in place to facilitate the interpretation of the outputs of AI
    systems by the users;
    (e) the expected lifetime of the high-risk AI system and any necessary
    maintenance and care measures to ensure the proper functioning of that AI
    system, including as regards software updates.
    EN 51 EN
    Article 14
    Human oversight
    1. High-risk AI systems shall be designed and developed in such a way, including with
    appropriate human-machine interface tools, that they can be effectively overseen by
    natural persons during the period in which the AI system is in use.
    2. Human oversight shall aim at preventing or minimising the risks to health, safety or
    fundamental rights that may emerge when a high-risk AI system is used in
    accordance with its intended purpose or under conditions of reasonably foreseeable
    misuse, in particular when such risks persist notwithstanding the application of other
    requirements set out in this Chapter.
    3. Human oversight shall be ensured through either one or all of the following
    measures:
    (a) identified and built, when technically feasible, into the high-risk AI system by
    the provider before it is placed on the market or put into service;
    (b) identified by the provider before placing the high-risk AI system on the market
    or putting it into service and that are appropriate to be implemented by the
    user.
    4. The measures referred to in paragraph 3 shall enable the individuals to whom human
    oversight is assigned to do the following, as appropriate to the circumstances:
    (a) fully understand the capacities and limitations of the high-risk AI system and
    be able to duly monitor its operation, so that signs of anomalies, dysfunctions
    and unexpected performance can be detected and addressed as soon as
    possible;
    (b) remain aware of the possible tendency of automatically relying or over-relying
    on the output produced by a high-risk AI system (‘automation bias’), in
    particular for high-risk AI systems used to provide information or
    recommendations for decisions to be taken by natural persons;
    (c) be able to correctly interpret the high-risk AI system’s output, taking into
    account in particular the characteristics of the system and the interpretation
    tools and methods available;
    (d) be able to decide, in any particular situation, not to use the high-risk AI system
    or otherwise disregard, override or reverse the output of the high-risk AI
    system;
    (e) be able to intervene on the operation of the high-risk AI system or interrupt the
    system through a “stop” button or a similar procedure.
    5. For high-risk AI systems referred to in point 1(a) of Annex III, the measures referred
    to in paragraph 3 shall be such as to ensure that, in addition, no action or decision is
    taken by the user on the basis of the identification resulting from the system unless
    this has been verified and confirmed by at least two natural persons.
    Article 15
    Accuracy, robustness and cybersecurity
    1. High-risk AI systems shall be designed and developed in such a way that they
    achieve, in the light of their intended purpose, an appropriate level of accuracy,
    EN 52 EN
    robustness and cybersecurity, and perform consistently in those respects throughout
    their lifecycle.
    2. The levels of accuracy and the relevant accuracy metrics of high-risk AI systems
    shall be declared in the accompanying instructions of use.
    3. High-risk AI systems shall be resilient as regards errors, faults or inconsistencies that
    may occur within the system or the environment in which the system operates, in
    particular due to their interaction with natural persons or other systems.
    The robustness of high-risk AI systems may be achieved through technical
    redundancy solutions, which may include backup or fail-safe plans.
    High-risk AI systems that continue to learn after being placed on the market or put
    into service shall be developed in such a way to ensure that possibly biased outputs
    due to outputs used as an input for future operations (‘feedback loops’) are duly
    addressed with appropriate mitigation measures.
    4. High-risk AI systems shall be resilient as regards attempts by unauthorised third
    parties to alter their use or performance by exploiting the system vulnerabilities.
    The technical solutions aimed at ensuring the cybersecurity of high-risk AI systems
    shall be appropriate to the relevant circumstances and the risks.
    The technical solutions to address AI specific vulnerabilities shall include, where
    appropriate, measures to prevent and control for attacks trying to manipulate the
    training dataset (‘data poisoning’), inputs designed to cause the model to make a
    mistake (‘adversarial examples’), or model flaws.
    CHAPTER 3
    OBLIGATIONS OF PROVIDERS AND USERS OF HIGH-RISK AI SYSTEMS AND
    OTHER PARTIES
    Article 16
    Obligations of providers of high-risk AI systems
    Providers of high-risk AI systems shall:
    (a) ensure that their high-risk AI systems are compliant with the requirements set out in
    Chapter 2 of this Title;
    (b) have a quality management system in place which complies with Article 17;
    (c) draw-up the technical documentation of the high-risk AI system;
    (d) when under their control, keep the logs automatically generated by their high-risk AI
    systems;
    (e) ensure that the high-risk AI system undergoes the relevant conformity assessment
    procedure, prior to its placing on the market or putting into service;
    (f) comply with the registration obligations referred to in Article 51;
    (g) take the necessary corrective actions, if the high-risk AI system is not in conformity
    with the requirements set out in Chapter 2 of this Title;
    EN 53 EN
    (h) inform the national competent authorities of the Member States in which they made
    the AI system available or put it into service and, where applicable, the notified body
    of the non-compliance and of any corrective actions taken;
    (i) to affix the CE marking to their high-risk AI systems to indicate the conformity with
    this Regulation in accordance with Article 49;
    (j) upon request of a national competent authority, demonstrate the conformity of the
    high-risk AI system with the requirements set out in Chapter 2 of this Title.
    Article 17
    Quality management system
    1. Providers of high-risk AI systems shall put a quality management system in place
    that ensures compliance with this Regulation. That system shall be documented in a
    systematic and orderly manner in the form of written policies, procedures and
    instructions, and shall include at least the following aspects:
    (a) a strategy for regulatory compliance, including compliance with conformity
    assessment procedures and procedures for the management of modifications to
    the high-risk AI system;
    (b) techniques, procedures and systematic actions to be used for the design, design
    control and design verification of the high-risk AI system;
    (c) techniques, procedures and systematic actions to be used for the development,
    quality control and quality assurance of the high-risk AI system;
    (d) examination, test and validation procedures to be carried out before, during and
    after the development of the high-risk AI system, and the frequency with which
    they have to be carried out;
    (e) technical specifications, including standards, to be applied and, where the
    relevant harmonised standards are not applied in full, the means to be used to
    ensure that the high-risk AI system complies with the requirements set out in
    Chapter 2 of this Title;
    (f) systems and procedures for data management, including data collection, data
    analysis, data labelling, data storage, data filtration, data mining, data
    aggregation, data retention and any other operation regarding the data that is
    performed before and for the purposes of the placing on the market or putting
    into service of high-risk AI systems;
    (g) the risk management system referred to in Article 9;
    (h) the setting-up, implementation and maintenance of a post-market monitoring
    system, in accordance with Article 61;
    (i) procedures related to the reporting of serious incidents and of malfunctioning
    in accordance with Article 62;
    (j) the handling of communication with national competent authorities, competent
    authorities, including sectoral ones, providing or supporting the access to data,
    notified bodies, other operators, customers or other interested parties;
    (k) systems and procedures for record keeping of all relevant documentation and
    information;
    (l) resource management, including security of supply related measures;
    EN 54 EN
    (m) an accountability framework setting out the responsibilities of the management
    and other staff with regard to all aspects listed in this paragraph.
    2. The implementation of aspects referred to in paragraph 1 shall be proportionate to the
    size of the provider’s organisation.
    3. For providers that are credit institutions regulated by Directive 2013/36/ EU, the
    obligation to put a quality management system in place shall be deemed to be
    fulfilled by complying with the rules on internal governance arrangements, processes
    and mechanisms pursuant to Article 74 of that Directive. In that context, any
    harmonised standards referred to in Article 40 of this Regulation shall be taken into
    account.
    Article 18
    Obligation to draw up technical documentation
    1. Providers of high-risk AI systems shall draw up the technical documentation referred
    to in Article 11 in accordance with Annex IV.
    2. Providers that are credit institutions regulated by Directive 2013/36/EU shall
    maintain the technical documentation as part of the documentation concerning
    internal governance, arrangements, processes and mechanisms pursuant to Article 74
    of that Directive.
    Article 19
    Conformity assessment
    1. Providers of high-risk AI systems shall ensure that their systems undergo the relevant
    conformity assessment procedure in accordance with Article 43, prior to their placing
    on the market or putting into service. Where the compliance of the AI systems with
    the requirements set out in Chapter 2 of this Title has been demonstrated following
    that conformity assessment, the providers shall draw up an EU declaration of
    conformity in accordance with Article 48 and affix the CE marking of conformity in
    accordance with Article 49.
    2. For high-risk AI systems referred to in point 5(b) of Annex III that are placed on the
    market or put into service by providers that are credit institutions regulated by
    Directive 2013/36/EU, the conformity assessment shall be carried out as part of the
    procedure referred to in Articles 97 to101 of that Directive.
    Article 20
    Automatically generated logs
    1. Providers of high-risk AI systems shall keep the logs automatically generated by
    their high-risk AI systems, to the extent such logs are under their control by virtue of
    a contractual arrangement with the user or otherwise by law. The logs shall be kept
    for a period that is appropriate in the light of the intended purpose of high-risk AI
    system and applicable legal obligations under Union or national law.
    2. Providers that are credit institutions regulated by Directive 2013/36/EU shall
    maintain the logs automatically generated by their high-risk AI systems as part of the
    documentation under Articles 74 of that Directive.
    EN 55 EN
    Article 21
    Corrective actions
    Providers of high-risk AI systems which consider or have reason to consider that a high-risk
    AI system which they have placed on the market or put into service is not in conformity with
    this Regulation shall immediately take the necessary corrective actions to bring that system
    into conformity, to withdraw it or to recall it, as appropriate. They shall inform the
    distributors of the high-risk AI system in question and, where applicable, the authorised
    representative and importers accordingly.
    Article 22
    Duty of information
    Where the high-risk AI system presents a risk within the meaning of Article 65(1) and that
    risk is known to the provider of the system, that provider shall immediately inform the
    national competent authorities of the Member States in which it made the system available
    and, where applicable, the notified body that issued a certificate for the high-risk AI system,
    in particular of the non-compliance and of any corrective actions taken.
    Article 23
    Cooperation with competent authorities
    Providers of high-risk AI systems shall, upon request by a national competent authority,
    provide that authority with all the information and documentation necessary to demonstrate
    the conformity of the high-risk AI system with the requirements set out in Chapter 2 of this
    Title, in an official Union language determined by the Member State concerned. Upon a
    reasoned request from a national competent authority, providers shall also give that authority
    access to the logs automatically generated by the high-risk AI system, to the extent such logs
    are under their control by virtue of a contractual arrangement with the user or otherwise by
    law.
    Article 24
    Obligations of product manufacturers
    Where a high-risk AI system related to products to which the legal acts listed in Annex II,
    section A, apply, is placed on the market or put into service together with the product
    manufactured in accordance with those legal acts and under the name of the product
    manufacturer, the manufacturer of the product shall take the responsibility of the compliance
    of the AI system with this Regulation and, as far as the AI system is concerned, have the same
    obligations imposed by the present Regulation on the provider.
    Article 25
    Authorised representatives
    1. Prior to making their systems available on the Union market, where an importer
    cannot be identified, providers established outside the Union shall, by written
    mandate, appoint an authorised representative which is established in the Union.
    2. The authorised representative shall perform the tasks specified in the mandate
    received from the provider. The mandate shall empower the authorised representative
    to carry out the following tasks:
    EN 56 EN
    (a) keep a copy of the EU declaration of conformity and the technical
    documentation at the disposal of the national competent authorities and
    national authorities referred to in Article 63(7);
    (b) provide a national competent authority, upon a reasoned request, with all the
    information and documentation necessary to demonstrate the conformity of a
    high-risk AI system with the requirements set out in Chapter 2 of this Title,
    including access to the logs automatically generated by the high-risk AI system
    to the extent such logs are under the control of the provider by virtue of a
    contractual arrangement with the user or otherwise by law;
    (c) cooperate with competent national authorities, upon a reasoned request, on any
    action the latter takes in relation to the high-risk AI system.
    Article 26
    Obligations of importers
    1. Before placing a high-risk AI system on the market, importers of such system shall
    ensure that:
    (a) the appropriate conformity assessment procedure has been carried out by the
    provider of that AI system
    (b) the provider has drawn up the technical documentation in accordance with
    Annex IV;
    (c) the system bears the required conformity marking and is accompanied by the
    required documentation and instructions of use.
    2. Where an importer considers or has reason to consider that a high-risk AI system is
    not in conformity with this Regulation, it shall not place that system on the market
    until that AI system has been brought into conformity. Where the high-risk AI
    system presents a risk within the meaning of Article 65(1), the importer shall inform
    the provider of the AI system and the market surveillance authorities to that effect.
    3. Importers shall indicate their name, registered trade name or registered trade mark,
    and the address at which they can be contacted on the high-risk AI system or, where
    that is not possible, on its packaging or its accompanying documentation, as
    applicable.
    4. Importers shall ensure that, while a high-risk AI system is under their responsibility,
    where applicable, storage or transport conditions do not jeopardise its compliance
    with the requirements set out in Chapter 2 of this Title.
    5. Importers shall provide national competent authorities, upon a reasoned request, with
    all necessary information and documentation to demonstrate the conformity of a
    high-risk AI system with the requirements set out in Chapter 2 of this Title in a
    language which can be easily understood by that national competent authority,
    including access to the logs automatically generated by the high-risk AI system to the
    extent such logs are under the control of the provider by virtue of a contractual
    arrangement with the user or otherwise by law. They shall also cooperate with those
    authorities on any action national competent authority takes in relation to that
    system.
    EN 57 EN
    Article 27
    Obligations of distributors
    1. Before making a high-risk AI system available on the market, distributors shall
    verify that the high-risk AI system bears the required CE conformity marking, that it
    is accompanied by the required documentation and instruction of use, and that the
    provider and the importer of the system, as applicable, have complied with the
    obligations set out in this Regulation.
    2. Where a distributor considers or has reason to consider that a high-risk AI system is
    not in conformity with the requirements set out in Chapter 2 of this Title, it shall not
    make the high-risk AI system available on the market until that system has been
    brought into conformity with those requirements. Furthermore, where the system
    presents a risk within the meaning of Article 65(1), the distributor shall inform the
    provider or the importer of the system, as applicable, to that effect.
    3. Distributors shall ensure that, while a high-risk AI system is under their
    responsibility, where applicable, storage or transport conditions do not jeopardise the
    compliance of the system with the requirements set out in Chapter 2 of this Title.
    4. A distributor that considers or has reason to consider that a high-risk AI system
    which it has made available on the market is not in conformity with the requirements
    set out in Chapter 2 of this Title shall take the corrective actions necessary to bring
    that system into conformity with those requirements, to withdraw it or recall it or
    shall ensure that the provider, the importer or any relevant operator, as appropriate,
    takes those corrective actions. Where the high-risk AI system presents a risk within
    the meaning of Article 65(1), the distributor shall immediately inform the national
    competent authorities of the Member States in which it has made the product
    available to that effect, giving details, in particular, of the non-compliance and of any
    corrective actions taken.
    5. Upon a reasoned request from a national competent authority, distributors of high-
    risk AI systems shall provide that authority with all the information and
    documentation necessary to demonstrate the conformity of a high-risk system with
    the requirements set out in Chapter 2 of this Title. Distributors shall also cooperate
    with that national competent authority on any action taken by that authority.
    Article 28
    Obligations of distributors, importers, users or any other third-party
    1. Any distributor, importer, user or other third-party shall be considered a provider for
    the purposes of this Regulation and shall be subject to the obligations of the provider
    under Article 16, in any of the following circumstances:
    (a) they place on the market or put into service a high-risk AI system under their
    name or trademark;
    (b) they modify the intended purpose of a high-risk AI system already placed on
    the market or put into service;
    (c) they make a substantial modification to the high-risk AI system.
    2. Where the circumstances referred to in paragraph 1, point (b) or (c), occur, the
    provider that initially placed the high-risk AI system on the market or put it into
    service shall no longer be considered a provider for the purposes of this Regulation.
    EN 58 EN
    Article 29
    Obligations of users of high-risk AI systems
    1. Users of high-risk AI systems shall use such systems in accordance with the
    instructions of use accompanying the systems, pursuant to paragraphs 2 and 5.
    2. The obligations in paragraph 1 are without prejudice to other user obligations under
    Union or national law and to the user’s discretion in organising its own resources and
    activities for the purpose of implementing the human oversight measures indicated
    by the provider.
    3. Without prejudice to paragraph 1, to the extent the user exercises control over the
    input data, that user shall ensure that input data is relevant in view of the intended
    purpose of the high-risk AI system.
    4. Users shall monitor the operation of the high-risk AI system on the basis of the
    instructions of use. When they have reasons to consider that the use in accordance
    with the instructions of use may result in the AI system presenting a risk within the
    meaning of Article 65(1) they shall inform the provider or distributor and suspend
    the use of the system. They shall also inform the provider or distributor when they
    have identified any serious incident or any malfunctioning within the meaning of
    Article 62 and interrupt the use of the AI system. In case the user is not able to reach
    the provider, Article 62 shall apply mutatis mutandis.
    For users that are credit institutions regulated by Directive 2013/36/EU, the
    monitoring obligation set out in the first subparagraph shall be deemed to be fulfilled
    by complying with the rules on internal governance arrangements, processes and
    mechanisms pursuant to Article 74 of that Directive.
    5. Users of high-risk AI systems shall keep the logs automatically generated by that
    high-risk AI system, to the extent such logs are under their control. The logs shall be
    kept for a period that is appropriate in the light of the intended purpose of the high-
    risk AI system and applicable legal obligations under Union or national law.
    Users that are credit institutions regulated by Directive 2013/36/EU shall maintain
    the logs as part of the documentation concerning internal governance arrangements,
    processes and mechanisms pursuant to Article 74 of that Directive.
    6. Users of high-risk AI systems shall use the information provided under Article 13 to
    comply with their obligation to carry out a data protection impact assessment under
    Article 35 of Regulation (EU) 2016/679 or Article 27 of Directive (EU) 2016/680,
    where applicable.
    CHAPTER 4
    NOTIFIYING AUTHORITIES AND NOTIFIED BODIES
    Article 30
    Notifying authorities
    1. Each Member State shall designate or establish a notifying authority responsible for
    setting up and carrying out the necessary procedures for the assessment, designation
    and notification of conformity assessment bodies and for their monitoring.
    2. Member States may designate a national accreditation body referred to in Regulation
    (EC) No 765/2008 as a notifying authority.
    EN 59 EN
    3. Notifying authorities shall be established, organised and operated in such a way that
    no conflict of interest arises with conformity assessment bodies and the objectivity
    and impartiality of their activities are safeguarded.
    4. Notifying authorities shall be organised in such a way that decisions relating to the
    notification of conformity assessment bodies are taken by competent persons
    different from those who carried out the assessment of those bodies.
    5. Notifying authorities shall not offer or provide any activities that conformity
    assessment bodies perform or any consultancy services on a commercial or
    competitive basis.
    6. Notifying authorities shall safeguard the confidentiality of the information they
    obtain.
    7. Notifying authorities shall have a sufficient number of competent personnel at their
    disposal for the proper performance of their tasks.
    8. Notifying authorities shall make sure that conformity assessments are carried out in a
    proportionate manner, avoiding unnecessary burdens for providers and that notified
    bodies perform their activities taking due account of the size of an undertaking, the
    sector in which it operates, its structure and the degree of complexity of the AI
    system in question.
    Article 31
    Application of a conformity assessment body for notification
    1. Conformity assessment bodies shall submit an application for notification to the
    notifying authority of the Member State in which they are established.
    2. The application for notification shall be accompanied by a description of the
    conformity assessment activities, the conformity assessment module or modules and
    the artificial intelligence technologies for which the conformity assessment body
    claims to be competent, as well as by an accreditation certificate, where one exists,
    issued by a national accreditation body attesting that the conformity assessment body
    fulfils the requirements laid down in Article 33. Any valid document related to
    existing designations of the applicant notified body under any other Union
    harmonisation legislation shall be added.
    3. Where the conformity assessment body concerned cannot provide an accreditation
    certificate, it shall provide the notifying authority with the documentary evidence
    necessary for the verification, recognition and regular monitoring of its compliance
    with the requirements laid down in Article 33. For notified bodies which are
    designated under any other Union harmonisation legislation, all documents and
    certificates linked to those designations may be used to support their designation
    procedure under this Regulation, as appropriate.
    Article 32
    Notification procedure
    1. Notifying authorities may notify only conformity assessment bodies which have
    satisfied the requirements laid down in Article 33.
    2. Notifying authorities shall notify the Commission and the other Member States using
    the electronic notification tool developed and managed by the Commission.
    EN 60 EN
    3. The notification shall include full details of the conformity assessment activities, the
    conformity assessment module or modules and the artificial intelligence technologies
    concerned.
    4. The conformity assessment body concerned may perform the activities of a notified
    body only where no objections are raised by the Commission or the other Member
    States within one month of a notification.
    5. Notifying authorities shall notify the Commission and the other Member States of
    any subsequent relevant changes to the notification.
    Article 33
    Notified bodies
    1. Notified bodies shall verify the conformity of high-risk AI system in accordance with
    the conformity assessment procedures referred to in Article 43.
    2. Notified bodies shall satisfy the organisational, quality management, resources and
    process requirements that are necessary to fulfil their tasks.
    3. The organisational structure, allocation of responsibilities, reporting lines and
    operation of notified bodies shall be such as to ensure that there is confidence in the
    performance by and in the results of the conformity assessment activities that the
    notified bodies conduct.
    4. Notified bodies shall be independent of the provider of a high-risk AI system in
    relation to which it performs conformity assessment activities. Notified bodies shall
    also be independent of any other operator having an economic interest in the high-
    risk AI system that is assessed, as well as of any competitors of the provider.
    5. Notified bodies shall be organised and operated so as to safeguard the independence,
    objectivity and impartiality of their activities. Notified bodies shall document and
    implement a structure and procedures to safeguard impartiality and to promote and
    apply the principles of impartiality throughout their organisation, personnel and
    assessment activities.
    6. Notified bodies shall have documented procedures in place ensuring that their
    personnel, committees, subsidiaries, subcontractors and any associated body or
    personnel of external bodies respect the confidentiality of the information which
    comes into their possession during the performance of conformity assessment
    activities, except when disclosure is required by law. The staff of notified bodies
    shall be bound to observe professional secrecy with regard to all information
    obtained in carrying out their tasks under this Regulation, except in relation to the
    notifying authorities of the Member State in which their activities are carried out.
    7. Notified bodies shall have procedures for the performance of activities which take
    due account of the size of an undertaking, the sector in which it operates, its
    structure, the degree of complexity of the AI system in question.
    8. Notified bodies shall take out appropriate liability insurance for their conformity
    assessment activities, unless liability is assumed by the Member State concerned in
    accordance with national law or that Member State is directly responsible for the
    conformity assessment.
    9. Notified bodies shall be capable of carrying out all the tasks falling to them under
    this Regulation with the highest degree of professional integrity and the requisite
    EN 61 EN
    competence in the specific field, whether those tasks are carried out by notified
    bodies themselves or on their behalf and under their responsibility.
    10. Notified bodies shall have sufficient internal competences to be able to effectively
    evaluate the tasks conducted by external parties on their behalf. To that end, at all
    times and for each conformity assessment procedure and each type of high-risk AI
    system in relation to which they have been designated, the notified body shall have
    permanent availability of sufficient administrative, technical and scientific personnel
    who possess experience and knowledge relating to the relevant artificial intelligence
    technologies, data and data computing and to the requirements set out in Chapter 2 of
    this Title.
    11. Notified bodies shall participate in coordination activities as referred to in Article 38.
    They shall also take part directly or be represented in European standardisation
    organisations, or ensure that they are aware and up to date in respect of relevant
    standards.
    12. Notified bodies shall make available and submit upon request all relevant
    documentation, including the providers’ documentation, to the notifying authority
    referred to in Article 30 to allow it to conduct its assessment, designation,
    notification, monitoring and surveillance activities and to facilitate the assessment
    outlined in this Chapter.
    Article 34
    Subsidiaries of and subcontracting by notified bodies
    1. Where a notified body subcontracts specific tasks connected with the conformity
    assessment or has recourse to a subsidiary, it shall ensure that the subcontractor or
    the subsidiary meets the requirements laid down in Article 33 and shall inform the
    notifying authority accordingly.
    2. Notified bodies shall take full responsibility for the tasks performed by
    subcontractors or subsidiaries wherever these are established.
    3. Activities may be subcontracted or carried out by a subsidiary only with the
    agreement of the provider.
    4. Notified bodies shall keep at the disposal of the notifying authority the relevant
    documents concerning the assessment of the qualifications of the subcontractor or the
    subsidiary and the work carried out by them under this Regulation.
    Article 35
    Identification numbers and lists of notified bodies designated under this Regulation
    1. The Commission shall assign an identification number to notified bodies. It shall
    assign a single number, even where a body is notified under several Union acts.
    2. The Commission shall make publicly available the list of the bodies notified under
    this Regulation, including the identification numbers that have been assigned to them
    and the activities for which they have been notified. The Commission shall ensure
    that the list is kept up to date.
    EN 62 EN
    Article 36
    Changes to notifications
    1. Where a notifying authority has suspicions or has been informed that a notified body
    no longer meets the requirements laid down in Article 33, or that it is failing to fulfil
    its obligations, that authority shall without delay investigate the matter with the
    utmost diligence. In that context, it shall inform the notified body concerned about
    the objections raised and give it the possibility to make its views known. If the
    notifying authority comes to the conclusion that the notified body investigation no
    longer meets the requirements laid down in Article 33 or that it is failing to fulfil its
    obligations, it shall restrict, suspend or withdraw the notification as appropriate,
    depending on the seriousness of the failure. It shall also immediately inform the
    Commission and the other Member States accordingly.
    2. In the event of restriction, suspension or withdrawal of notification, or where the
    notified body has ceased its activity, the notifying authority shall take appropriate
    steps to ensure that the files of that notified body are either taken over by another
    notified body or kept available for the responsible notifying authorities at their
    request.
    Article 37
    Challenge to the competence of notified bodies
    1. The Commission shall, where necessary, investigate all cases where there are reasons
    to doubt whether a notified body complies with the requirements laid down in Article
    33.
    2. The Notifying authority shall provide the Commission, on request, with all relevant
    information relating to the notification of the notified body concerned.
    3. The Commission shall ensure that all confidential information obtained in the course
    of its investigations pursuant to this Article is treated confidentially.
    4. Where the Commission ascertains that a notified body does not meet or no longer
    meets the requirements laid down in Article 33, it shall adopt a reasoned decision
    requesting the notifying Member State to take the necessary corrective measures,
    including withdrawal of notification if necessary. That implementing act shall be
    adopted in accordance with the examination procedure referred to in Article 74(2).
    Article 38
    Coordination of notified bodies
    1. The Commission shall ensure that, with regard to the areas covered by this
    Regulation, appropriate coordination and cooperation between notified bodies active
    in the conformity assessment procedures of AI systems pursuant to this Regulation
    are put in place and properly operated in the form of a sectoral group of notified
    bodies.
    2. Member States shall ensure that the bodies notified by them participate in the work
    of that group, directly or by means of designated representatives.
    EN 63 EN
    Article 39
    Conformity assessment bodies of third countries
    Conformity assessment bodies established under the law of a third country with which the
    Union has concluded an agreement may be authorised to carry out the activities of notified
    Bodies under this Regulation.
    CHAPTER 5
    STANDARDS, CONFORMITY ASSESSMENT, CERTIFICATES, REGISTRATION
    Article 40
    Harmonised standards
    High-risk AI systems which are in conformity with harmonised standards or parts thereof the
    references of which have been published in the Official Journal of the European Union shall
    be presumed to be in conformity with the requirements set out in Chapter 2 of this Title, to the
    extent those standards cover those requirements.
    Article 41
    Common specifications
    1. Where harmonised standards referred to in Article 40 do not exist or where the
    Commission considers that the relevant harmonised standards are insufficient or that
    there is a need to address specific safety or fundamental right concerns, the
    Commission may, by means of implementing acts, adopt common specifications in
    respect of the requirements set out in Chapter 2 of this Title. Those implementing
    acts shall be adopted in accordance with the examination procedure referred to in
    Article 74(2).
    2. The Commission, when preparing the common specifications referred to in
    paragraph 1, shall gather the views of relevant bodies or expert groups established
    under relevant sectorial Union law.
    3. High-risk AI systems which are in conformity with the common specifications
    referred to in paragraph 1 shall be presumed to be in conformity with the
    requirements set out in Chapter 2 of this Title, to the extent those common
    specifications cover those requirements.
    4. Where providers do not comply with the common specifications referred to in
    paragraph 1, they shall duly justify that they have adopted technical solutions that are
    at least equivalent thereto.
    Article 42
    Presumption of conformity with certain requirements
    1. Taking into account their intended purpose, high-risk AI systems that have been
    trained and tested on data concerning the specific geographical, behavioural and
    functional setting within which they are intended to be used shall be presumed to be
    in compliance with the requirement set out in Article 10(4).
    EN 64 EN
    2. High-risk AI systems that have been certified or for which a statement of conformity
    has been issued under a cybersecurity scheme pursuant to Regulation (EU) 2019/881
    of the European Parliament and of the Council63
    and the references of which have
    been published in the Official Journal of the European Union shall be presumed to be
    in compliance with the cybersecurity requirements set out in Article 15 of this
    Regulation in so far as the cybersecurity certificate or statement of conformity or
    parts thereof cover those requirements.
    Article 43
    Conformity assessment
    1. For high-risk AI systems listed in point 1 of Annex III, where, in demonstrating the
    compliance of a high-risk AI system with the requirements set out in Chapter 2 of
    this Title, the provider has applied harmonised standards referred to in Article 40, or,
    where applicable, common specifications referred to in Article 41, the provider shall
    follow one of the following procedures:
    (a) the conformity assessment procedure based on internal control referred to in
    Annex VI;
    (b) the conformity assessment procedure based on assessment of the quality
    management system and assessment of the technical documentation, with the
    involvement of a notified body, referred to in Annex VII.
    Where, in demonstrating the compliance of a high-risk AI system with the
    requirements set out in Chapter 2 of this Title, the provider has not applied or has
    applied only in part harmonised standards referred to in Article 40, or where such
    harmonised standards do not exist and common specifications referred to in Article
    41 are not available, the provider shall follow the conformity assessment procedure
    set out in Annex VII.
    For the purpose of the conformity assessment procedure referred to in Annex VII, the
    provider may choose any of the notified bodies. However, when the system is
    intended to be put into service by law enforcement, immigration or asylum
    authorities as well as EU institutions, bodies or agencies, the market surveillance
    authority referred to in Article 63(5) or (6), as applicable, shall act as a notified body.
    2. For high-risk AI systems referred to in points 2 to 8 of Annex III, providers shall
    follow the conformity assessment procedure based on internal control as referred to
    in Annex VI, which does not provide for the involvement of a notified body. For
    high-risk AI systems referred to in point 5(b) of Annex III, placed on the market or
    put into service by credit institutions regulated by Directive 2013/36/EU, the
    conformity assessment shall be carried out as part of the procedure referred to in
    Articles 97 to101 of that Directive.
    3. For high-risk AI systems, to which legal acts listed in Annex II, section A, apply, the
    provider shall follow the relevant conformity assessment as required under those
    legal acts. The requirements set out in Chapter 2 of this Title shall apply to those
    63
    Regulation (EU) 2019/881 of the European Parliament and of the Council of 17 April 2019 on ENISA
    (the European Union Agency for Cybersecurity) and on information and communications technology
    cybersecurity certification and repealing Regulation (EU) No 526/2013 (Cybersecurity Act) (OJ L 151,
    7.6.2019, p. 1).
    EN 65 EN
    high-risk AI systems and shall be part of that assessment. Points 4.3., 4.4., 4.5. and
    the fifth paragraph of point 4.6 of Annex VII shall also apply.
    For the purpose of that assessment, notified bodies which have been notified under
    those legal acts shall be entitled to control the conformity of the high-risk AI systems
    with the requirements set out in Chapter 2 of this Title, provided that the compliance
    of those notified bodies with requirements laid down in Article 33(4), (9) and (10)
    has been assessed in the context of the notification procedure under those legal acts.
    Where the legal acts listed in Annex II, section A, enable the manufacturer of the
    product to opt out from a third-party conformity assessment, provided that that
    manufacturer has applied all harmonised standards covering all the relevant
    requirements, that manufacturer may make use of that option only if he has also
    applied harmonised standards or, where applicable, common specifications referred
    to in Article 41, covering the requirements set out in Chapter 2 of this Title.
    4. High-risk AI systems shall undergo a new conformity assessment procedure
    whenever they are substantially modified, regardless of whether the modified system
    is intended to be further distributed or continues to be used by the current user.
    For high-risk AI systems that continue to learn after being placed on the market or
    put into service, changes to the high-risk AI system and its performance that have
    been pre-determined by the provider at the moment of the initial conformity
    assessment and are part of the information contained in the technical documentation
    referred to in point 2(f) of Annex IV, shall not constitute a substantial modification.
    5. The Commission is empowered to adopt delegated acts in accordance with Article 73
    for the purpose of updating Annexes VI and Annex VII in order to introduce
    elements of the conformity assessment procedures that become necessary in light of
    technical progress.
    6. The Commission is empowered to adopt delegated acts to amend paragraphs 1 and 2
    in order to subject high-risk AI systems referred to in points 2 to 8 of Annex III to
    the conformity assessment procedure referred to in Annex VII or parts thereof. The
    Commission shall adopt such delegated acts taking into account the effectiveness of
    the conformity assessment procedure based on internal control referred to in Annex
    VI in preventing or minimizing the risks to health and safety and protection of
    fundamental rights posed by such systems as well as the availability of adequate
    capacities and resources among notified bodies.
    Article 44
    Certificates
    1. Certificates issued by notified bodies in accordance with Annex VII shall be drawn-
    up in an official Union language determined by the Member State in which the
    notified body is established or in an official Union language otherwise acceptable to
    the notified body.
    2. Certificates shall be valid for the period they indicate, which shall not exceed five
    years. On application by the provider, the validity of a certificate may be extended
    for further periods, each not exceeding five years, based on a re-assessment in
    accordance with the applicable conformity assessment procedures.
    3. Where a notified body finds that an AI system no longer meets the requirements set
    out in Chapter 2 of this Title, it shall, taking account of the principle of
    EN 66 EN
    proportionality, suspend or withdraw the certificate issued or impose any restrictions
    on it, unless compliance with those requirements is ensured by appropriate corrective
    action taken by the provider of the system within an appropriate deadline set by the
    notified body. The notified body shall give reasons for its decision.
    Article 45
    Appeal against decisions of notified bodies
    Member States shall ensure that an appeal procedure against decisions of the notified bodies
    is available to parties having a legitimate interest in that decision.
    Article 46
    Information obligations of notified bodies
    1. Notified bodies shall inform the notifying authority of the following:
    (a) any Union technical documentation assessment certificates, any supplements to
    those certificates, quality management system approvals issued in accordance
    with the requirements of Annex VII;
    (b) any refusal, restriction, suspension or withdrawal of a Union technical
    documentation assessment certificate or a quality management system approval
    issued in accordance with the requirements of Annex VII;
    (c) any circumstances affecting the scope of or conditions for notification;
    (d) any request for information which they have received from market surveillance
    authorities regarding conformity assessment activities;
    (e) on request, conformity assessment activities performed within the scope of
    their notification and any other activity performed, including cross-border
    activities and subcontracting.
    2. Each notified body shall inform the other notified bodies of:
    (a) quality management system approvals which it has refused, suspended or
    withdrawn, and, upon request, of quality system approvals which it has issued;
    (b) EU technical documentation assessment certificates or any supplements thereto
    which it has refused, withdrawn, suspended or otherwise restricted, and, upon
    request, of the certificates and/or supplements thereto which it has issued.
    3. Each notified body shall provide the other notified bodies carrying out similar
    conformity assessment activities covering the same artificial intelligence
    technologies with relevant information on issues relating to negative and, on request,
    positive conformity assessment results.
    Article 47
    Derogation from conformity assessment procedure
    1. By way of derogation from Article 43, any market surveillance authority may
    authorise the placing on the market or putting into service of specific high-risk AI
    systems within the territory of the Member State concerned, for exceptional reasons
    of public security or the protection of life and health of persons, environmental
    protection and the protection of key industrial and infrastructural assets. That
    authorisation shall be for a limited period of time, while the necessary conformity
    EN 67 EN
    assessment procedures are being carried out, and shall terminate once those
    procedures have been completed. The completion of those procedures shall be
    undertaken without undue delay.
    2. The authorisation referred to in paragraph 1 shall be issued only if the market
    surveillance authority concludes that the high-risk AI system complies with the
    requirements of Chapter 2 of this Title. The market surveillance authority shall
    inform the Commission and the other Member States of any authorisation issued
    pursuant to paragraph 1.
    3. Where, within 15 calendar days of receipt of the information referred to in paragraph
    2, no objection has been raised by either a Member State or the Commission in
    respect of an authorisation issued by a market surveillance authority of a Member
    State in accordance with paragraph 1, that authorisation shall be deemed justified.
    4. Where, within 15 calendar days of receipt of the notification referred to in paragraph
    2, objections are raised by a Member State against an authorisation issued by a
    market surveillance authority of another Member State, or where the Commission
    considers the authorisation to be contrary to Union law or the conclusion of the
    Member States regarding the compliance of the system as referred to in paragraph 2
    to be unfounded, the Commission shall without delay enter into consultation with the
    relevant Member State; the operator(s) concerned shall be consulted and have the
    possibility to present their views. In view thereof, the Commission shall decide
    whether the authorisation is justified or not. The Commission shall address its
    decision to the Member State concerned and the relevant operator or operators.
    5. If the authorisation is considered unjustified, this shall be withdrawn by the market
    surveillance authority of the Member State concerned.
    6. By way of derogation from paragraphs 1 to 5, for high-risk AI systems intended to be
    used as safety components of devices, or which are themselves devices, covered by
    Regulation (EU) 2017/745 and Regulation (EU) 2017/746, Article 59 of Regulation
    (EU) 2017/745 and Article 54 of Regulation (EU) 2017/746 shall apply also with
    regard to the derogation from the conformity assessment of the compliance with the
    requirements set out in Chapter 2 of this Title.
    Article 48
    EU declaration of conformity
    1. The provider shall draw up a written EU declaration of conformity for each AI
    system and keep it at the disposal of the national competent authorities for 10 years
    after the AI system has been placed on the market or put into service. The EU
    declaration of conformity shall identify the AI system for which it has been drawn
    up. A copy of the EU declaration of conformity shall be given to the relevant
    national competent authorities upon request.
    2. The EU declaration of conformity shall state that the high-risk AI system in question
    meets the requirements set out in Chapter 2 of this Title. The EU declaration of
    conformity shall contain the information set out in Annex V and shall be translated
    into an official Union language or languages required by the Member State(s) in
    which the high-risk AI system is made available.
    3. Where high-risk AI systems are subject to other Union harmonisation legislation
    which also requires an EU declaration of conformity, a single EU declaration of
    conformity shall be drawn up in respect of all Union legislations applicable to the
    EN 68 EN
    high-risk AI system. The declaration shall contain all the information required for
    identification of the Union harmonisation legislation to which the declaration relates.
    4. By drawing up the EU declaration of conformity, the provider shall assume
    responsibility for compliance with the requirements set out in Chapter 2 of this Title.
    The provider shall keep the EU declaration of conformity up-to-date as appropriate.
    5. The Commission shall be empowered to adopt delegated acts in accordance with
    Article 73 for the purpose of updating the content of the EU declaration of
    conformity set out in Annex V in order to introduce elements that become necessary
    in light of technical progress.
    Article 49
    CE marking of conformity
    1. The CE marking shall be affixed visibly, legibly and indelibly for high-risk AI
    systems. Where that is not possible or not warranted on account of the nature of the
    high-risk AI system, it shall be affixed to the packaging or to the accompanying
    documentation, as appropriate.
    2. The CE marking referred to in paragraph 1 of this Article shall be subject to the
    general principles set out in Article 30 of Regulation (EC) No 765/2008.
    3. Where applicable, the CE marking shall be followed by the identification number of
    the notified body responsible for the conformity assessment procedures set out in
    Article 43. The identification number shall also be indicated in any promotional
    material which mentions that the high-risk AI system fulfils the requirements for CE
    marking.
    Article 50
    Document retention
    The provider shall, for a period ending 10 years after the AI system has been placed on the
    market or put into service, keep at the disposal of the national competent authorities:
    (a) the technical documentation referred to in Article 11;
    (b) the documentation concerning the quality management system referred to Article 17;
    (c) the documentation concerning the changes approved by notified bodies where
    applicable;
    (d) the decisions and other documents issued by the notified bodies where applicable;
    (e) the EU declaration of conformity referred to in Article 48.
    Article 51
    Registration
    Before placing on the market or putting into service a high-risk AI system referred to in
    Article 6(2), the provider or, where applicable, the authorised representative shall register that
    system in the EU database referred to in Article 60.
    EN 69 EN
    TITLE IV
    TRANSPARENCY OBLIGATIONS FOR CERTAIN AI SYSTEMS
    Article 52
    Transparency obligations for certain AI systems
    1. Providers shall ensure that AI systems intended to interact with natural persons are
    designed and developed in such a way that natural persons are informed that they are
    interacting with an AI system, unless this is obvious from the circumstances and the
    context of use. This obligation shall not apply to AI systems authorised by law to
    detect, prevent, investigate and prosecute criminal offences, unless those systems are
    available for the public to report a criminal offence.
    2. Users of an emotion recognition system or a biometric categorisation system shall
    inform of the operation of the system the natural persons exposed thereto. This
    obligation shall not apply to AI systems used for biometric categorisation, which are
    permitted by law to detect, prevent and investigate criminal offences.
    3. Users of an AI system that generates or manipulates image, audio or video content
    that appreciably resembles existing persons, objects, places or other entities or events
    and would falsely appear to a person to be authentic or truthful (‘deep fake’), shall
    disclose that the content has been artificially generated or manipulated.
    However, the first subparagraph shall not apply where the use is authorised by law to
    detect, prevent, investigate and prosecute criminal offences or it is necessary for the
    exercise of the right to freedom of expression and the right to freedom of the arts and
    sciences guaranteed in the Charter of Fundamental Rights of the EU, and subject to
    appropriate safeguards for the rights and freedoms of third parties.
    4. Paragraphs 1, 2 and 3 shall not affect the requirements and obligations set out in Title
    III of this Regulation.
    TITLE V
    MEASURES IN SUPPORT OF INNOVATION
    Article 53
    AI regulatory sandboxes
    1. AI regulatory sandboxes established by one or more Member States competent
    authorities or the European Data Protection Supervisor shall provide a controlled
    environment that facilitates the development, testing and validation of innovative AI
    systems for a limited time before their placement on the market or putting into
    service pursuant to a specific plan. This shall take place under the direct supervision
    and guidance by the competent authorities with a view to ensuring compliance with
    the requirements of this Regulation and, where relevant, other Union and Member
    States legislation supervised within the sandbox.
    2. Member States shall ensure that to the extent the innovative AI systems involve the
    processing of personal data or otherwise fall under the supervisory remit of other
    national authorities or competent authorities providing or supporting access to data,
    EN 70 EN
    the national data protection authorities and those other national authorities are
    associated to the operation of the AI regulatory sandbox.
    3. The AI regulatory sandboxes shall not affect the supervisory and corrective powers
    of the competent authorities. Any significant risks to health and safety and
    fundamental rights identified during the development and testing of such systems
    shall result in immediate mitigation and, failing that, in the suspension of the
    development and testing process until such mitigation takes place.
    4. Participants in the AI regulatory sandbox shall remain liable under applicable Union
    and Member States liability legislation for any harm inflicted on third parties as a
    result from the experimentation taking place in the sandbox.
    5. Member States’ competent authorities that have established AI regulatory sandboxes
    shall coordinate their activities and cooperate within the framework of the European
    Artificial Intelligence Board. They shall submit annual reports to the Board and the
    Commission on the results from the implementation of those scheme, including good
    practices, lessons learnt and recommendations on their setup and, where relevant, on
    the application of this Regulation and other Union legislation supervised within the
    sandbox.
    6. The modalities and the conditions of the operation of the AI regulatory sandboxes,
    including the eligibility criteria and the procedure for the application, selection,
    participation and exiting from the sandbox, and the rights and obligations of the
    participants shall be set out in implementing acts. Those implementing acts shall be
    adopted in accordance with the examination procedure referred to in Article 74(2).
    Article 54
    Further processing of personal data for developing certain AI systems in the public interest in
    the AI regulatory sandbox
    1. In the AI regulatory sandbox personal data lawfully collected for other purposes shall
    be processed for the purposes of developing and testing certain innovative AI
    systems in the sandbox under the following conditions:
    (a) the innovative AI systems shall be developed for safeguarding substantial
    public interest in one or more of the following areas:
    (i) the prevention, investigation, detection or prosecution of criminal
    offences or the execution of criminal penalties, including the
    safeguarding against and the prevention of threats to public security,
    under the control and responsibility of the competent authorities. The
    processing shall be based on Member State or Union law;
    (ii) public safety and public health, including disease prevention, control and
    treatment;
    (iii) a high level of protection and improvement of the quality of the
    environment;
    (b) the data processed are necessary for complying with one or more of the
    requirements referred to in Title III, Chapter 2 where those requirements
    cannot be effectively fulfilled by processing anonymised, synthetic or other
    non-personal data;
    EN 71 EN
    (c) there are effective monitoring mechanisms to identify if any high risks to the
    fundamental rights of the data subjects may arise during the sandbox
    experimentation as well as response mechanism to promptly mitigate those
    risks and, where necessary, stop the processing;
    (d) any personal data to be processed in the context of the sandbox are in a
    functionally separate, isolated and protected data processing environment
    under the control of the participants and only authorised persons have access to
    that data;
    (e) any personal data processed are not be transmitted, transferred or otherwise
    accessed by other parties;
    (f) any processing of personal data in the context of the sandbox do not lead to
    measures or decisions affecting the data subjects;
    (g) any personal data processed in the context of the sandbox are deleted once the
    participation in the sandbox has terminated or the personal data has reached the
    end of its retention period;
    (h) the logs of the processing of personal data in the context of the sandbox are
    kept for the duration of the participation in the sandbox and 1 year after its
    termination, solely for the purpose of and only as long as necessary for
    fulfilling accountability and documentation obligations under this Article or
    other application Union or Member States legislation;
    (i) complete and detailed description of the process and rationale behind the
    training, testing and validation of the AI system is kept together with the
    testing results as part of the technical documentation in Annex IV;
    (j) a short summary of the AI project developed in the sandbox, its objectives and
    expected results published on the website of the competent authorities.
    2. Paragraph 1 is without prejudice to Union or Member States legislation excluding
    processing for other purposes than those explicitly mentioned in that legislation.
    Article 55
    Measures for small-scale providers and users
    1. Member States shall undertake the following actions:
    (a) provide small-scale providers and start-ups with priority access to the AI
    regulatory sandboxes to the extent that they fulfil the eligibility conditions;
    (b) organise specific awareness raising activities about the application of this
    Regulation tailored to the needs of the small-scale providers and users;
    (c) where appropriate, establish a dedicated channel for communication with
    small-scale providers and user and other innovators to provide guidance and
    respond to queries about the implementation of this Regulation.
    2. The specific interests and needs of the small-scale providers shall be taken into
    account when setting the fees for conformity assessment under Article 43, reducing
    those fees proportionately to their size and market size.
    EN 72 EN
    TITLE VI
    GOVERNANCE
    CHAPTER 1
    EUROPEAN ARTIFICIAL INTELLIGENCE BOARD
    Article 56
    Establishment of the European Artificial Intelligence Board
    1. A ‘European Artificial Intelligence Board’ (the ‘Board’) is established.
    2. The Board shall provide advice and assistance to the Commission in order to:
    (a) contribute to the effective cooperation of the national supervisory authorities
    and the Commission with regard to matters covered by this Regulation;
    (b) coordinate and contribute to guidance and analysis by the Commission and the
    national supervisory authorities and other competent authorities on emerging
    issues across the internal market with regard to matters covered by this
    Regulation;
    (c) assist the national supervisory authorities and the Commission in ensuring the
    consistent application of this Regulation.
    Article 57
    Structure of the Board
    1. The Board shall be composed of the national supervisory authorities, who shall be
    represented by the head or equivalent high-level official of that authority, and the
    European Data Protection Supervisor. Other national authorities may be invited to
    the meetings, where the issues discussed are of relevance for them.
    2. The Board shall adopt its rules of procedure by a simple majority of its members,
    following the consent of the Commission. The rules of procedure shall also contain
    the operational aspects related to the execution of the Board’s tasks as listed in
    Article 58. The Board may establish sub-groups as appropriate for the purpose of
    examining specific questions.
    3. The Board shall be chaired by the Commission. The Commission shall convene the
    meetings and prepare the agenda in accordance with the tasks of the Board pursuant
    to this Regulation and with its rules of procedure. The Commission shall provide
    administrative and analytical support for the activities of the Board pursuant to this
    Regulation.
    4. The Board may invite external experts and observers to attend its meetings and may
    hold exchanges with interested third parties to inform its activities to an appropriate
    extent. To that end the Commission may facilitate exchanges between the Board and
    other Union bodies, offices, agencies and advisory groups.
    EN 73 EN
    Article 58
    Tasks of the Board
    When providing advice and assistance to the Commission in the context of Article 56(2), the
    Board shall in particular:
    (a) collect and share expertise and best practices among Member States;
    (b) contribute to uniform administrative practices in the Member States, including for
    the functioning of regulatory sandboxes referred to in Article 53;
    (c) issue opinions, recommendations or written contributions on matters related to the
    implementation of this Regulation, in particular
    (i) on technical specifications or existing standards regarding the requirements set
    out in Title III, Chapter 2,
    (ii) on the use of harmonised standards or common specifications referred to in
    Articles 40 and 41,
    (iii) on the preparation of guidance documents, including the guidelines concerning
    the setting of administrative fines referred to in Article 71.
    CHAPTER 2
    NATIONAL COMPETENT AUTHORITIES
    Article 59
    Designation of national competent authorities
    1. National competent authorities shall be established or designated by each Member
    State for the purpose of ensuring the application and implementation of this
    Regulation. National competent authorities shall be organised so as to safeguard the
    objectivity and impartiality of their activities and tasks.
    2. Each Member State shall designate a national supervisory authority among the
    national competent authorities. The national supervisory authority shall act as
    notifying authority and market surveillance authority unless a Member State has
    organisational and administrative reasons to designate more than one authority.
    3. Member States shall inform the Commission of their designation or designations and,
    where applicable, the reasons for designating more than one authority.
    4. Member States shall ensure that national competent authorities are provided with
    adequate financial and human resources to fulfil their tasks under this Regulation. In
    particular, national competent authorities shall have a sufficient number of personnel
    permanently available whose competences and expertise shall include an in-depth
    understanding of artificial intelligence technologies, data and data computing,
    fundamental rights, health and safety risks and knowledge of existing standards and
    legal requirements.
    5. Member States shall report to the Commission on an annual basis on the status of the
    financial and human resources of the national competent authorities with an
    assessment of their adequacy. The Commission shall transmit that information to the
    Board for discussion and possible recommendations.
    6. The Commission shall facilitate the exchange of experience between national
    competent authorities.
    EN 74 EN
    7. National competent authorities may provide guidance and advice on the
    implementation of this Regulation, including to small-scale providers. Whenever
    national competent authorities intend to provide guidance and advice with regard to
    an AI system in areas covered by other Union legislation, the competent national
    authorities under that Union legislation shall be consulted, as appropriate. Member
    States may also establish one central contact point for communication with operators.
    8. When Union institutions, agencies and bodies fall within the scope of this
    Regulation, the European Data Protection Supervisor shall act as the competent
    authority for their supervision.
    TITLE VII
    EU DATABASE FOR STAND-ALONE HIGH-RISK AI SYSTEMS
    Article 60
    EU database for stand-alone high-risk AI systems
    1. The Commission shall, in collaboration with the Member States, set up and maintain
    a EU database containing information referred to in paragraph 2 concerning high-risk
    AI systems referred to in Article 6(2) which are registered in accordance with Article
    51.
    2. The data listed in Annex VIII shall be entered into the EU database by the providers.
    The Commission shall provide them with technical and administrative support.
    3. Information contained in the EU database shall be accessible to the public.
    4. The EU database shall contain personal data only insofar as necessary for collecting
    and processing information in accordance with this Regulation. That information
    shall include the names and contact details of natural persons who are responsible for
    registering the system and have the legal authority to represent the provider.
    5. The Commission shall be the controller of the EU database. It shall also ensure to
    providers adequate technical and administrative support.
    TITLE VIII
    POST-MARKET MONITORING, INFORMATION SHARING, MARKET
    SURVEILLANCE
    CHAPTER 1
    POST-MARKET MONITORING
    Article 61
    Post-market monitoring by providers and post-market monitoring plan for high-risk AI
    systems
    1. Providers shall establish and document a post-market monitoring system in a manner
    that is proportionate to the nature of the artificial intelligence technologies and the
    risks of the high-risk AI system.
    EN 75 EN
    2. The post-market monitoring system shall actively and systematically collect,
    document and analyse relevant data provided by users or collected through other
    sources on the performance of high-risk AI systems throughout their lifetime, and
    allow the provider to evaluate the continuous compliance of AI systems with the
    requirements set out in Title III, Chapter 2.
    3. The post-market monitoring system shall be based on a post-market monitoring plan.
    The post-market monitoring plan shall be part of the technical documentation
    referred to in Annex IV. The Commission shall adopt an implementing act laying
    down detailed provisions establishing a template for the post-market monitoring plan
    and the list of elements to be included in the plan.
    4. For high-risk AI systems covered by the legal acts referred to in Annex II, where a
    post-market monitoring system and plan is already established under that legislation,
    the elements described in paragraphs 1, 2 and 3 shall be integrated into that system
    and plan as appropriate.
    The first subparagraph shall also apply to high-risk AI systems referred to in point
    5(b) of Annex III placed on the market or put into service by credit institutions
    regulated by Directive 2013/36/EU.
    CHAPTER 2
    SHARING OF INFORMATION ON INCIDENTS AND MALFUNCTIONING
    Article 62
    Reporting of serious incidents and of malfunctioning
    1. Providers of high-risk AI systems placed on the Union market shall report any
    serious incident or any malfunctioning of those systems which constitutes a breach of
    obligations under Union law intended to protect fundamental rights to the market
    surveillance authorities of the Member States where that incident or breach occurred.
    Such notification shall be made immediately after the provider has established a
    causal link between the AI system and the incident or malfunctioning or the
    reasonable likelihood of such a link, and, in any event, not later than 15 days after the
    providers becomes aware of the serious incident or of the malfunctioning.
    2. Upon receiving a notification related to a breach of obligations under Union law
    intended to protect fundamental rights, the market surveillance authority shall inform
    the national public authorities or bodies referred to in Article 64(3). The Commission
    shall develop dedicated guidance to facilitate compliance with the obligations set out
    in paragraph 1. That guidance shall be issued 12 months after the entry into force of
    this Regulation, at the latest.
    3. For high-risk AI systems referred to in point 5(b) of Annex III which are placed on
    the market or put into service by providers that are credit institutions regulated by
    Directive 2013/36/EU and for high-risk AI systems which are safety components of
    devices, or are themselves devices, covered by Regulation (EU) 2017/745 and
    Regulation (EU) 2017/746, the notification of serious incidents or malfunctioning
    shall be limited to those that that constitute a breach of obligations under Union law
    intended to protect fundamental rights.
    EN 76 EN
    CHAPTER 3
    ENFORCEMENT
    Article 63
    Market surveillance and control of AI systems in the Union market
    1. Regulation (EU) 2019/1020 shall apply to AI systems covered by this Regulation.
    However, for the purpose of the effective enforcement of this Regulation:
    (a) any reference to an economic operator under Regulation (EU) 2019/1020 shall
    be understood as including all operators identified in Title III, Chapter 3 of this
    Regulation;
    (b) any reference to a product under Regulation (EU) 2019/1020 shall be
    understood as including all AI systems falling within the scope of this
    Regulation.
    2. The national supervisory authority shall report to the Commission on a regular basis
    the outcomes of relevant market surveillance activities. The national supervisory
    authority shall report, without delay, to the Commission and relevant national
    competition authorities any information identified in the course of market
    surveillance activities that may be of potential interest for the application of Union
    law on competition rules.
    3. For high-risk AI systems, related to products to which legal acts listed in Annex II,
    section A apply, the market surveillance authority for the purposes of this Regulation
    shall be the authority responsible for market surveillance activities designated under
    those legal acts.
    4. For AI systems placed on the market, put into service or used by financial institutions
    regulated by Union legislation on financial services, the market surveillance
    authority for the purposes of this Regulation shall be the relevant authority
    responsible for the financial supervision of those institutions under that legislation.
    5. For AI systems listed in point 1(a) in so far as the systems are used for law
    enforcement purposes, points 6 and 7 of Annex III, Member States shall designate as
    market surveillance authorities for the purposes of this Regulation either the
    competent data protection supervisory authorities under Directive (EU) 2016/680, or
    Regulation 2016/679 or the national competent authorities supervising the activities
    of the law enforcement, immigration or asylum authorities putting into service or
    using those systems.
    6. Where Union institutions, agencies and bodies fall within the scope of this
    Regulation, the European Data Protection Supervisor shall act as their market
    surveillance authority.
    7. Member States shall facilitate the coordination between market surveillance
    authorities designated under this Regulation and other relevant national authorities or
    bodies which supervise the application of Union harmonisation legislation listed in
    Annex II or other Union legislation that might be relevant for the high-risk AI
    systems referred to in Annex III.
    EN 77 EN
    Article 64
    Access to data and documentation
    1. Access to data and documentation in the context of their activities, the market
    surveillance authorities shall be granted full access to the training, validation and
    testing datasets used by the provider, including through application programming
    interfaces (‘API’) or other appropriate technical means and tools enabling remote
    access.
    2. Where necessary to assess the conformity of the high-risk AI system with the
    requirements set out in Title III, Chapter 2 and upon a reasoned request, the market
    surveillance authorities shall be granted access to the source code of the AI system.
    3. National public authorities or bodies which supervise or enforce the respect of
    obligations under Union law protecting fundamental rights in relation to the use of
    high-risk AI systems referred to in Annex III shall have the power to request and
    access any documentation created or maintained under this Regulation when access
    to that documentation is necessary for the fulfilment of the competences under their
    mandate within the limits of their jurisdiction. The relevant public authority or body
    shall inform the market surveillance authority of the Member State concerned of any
    such request.
    4. By 3 months after the entering into force of this Regulation, each Member State shall
    identify the public authorities or bodies referred to in paragraph 3 and make a list
    publicly available on the website of the national supervisory authority. Member
    States shall notify the list to the Commission and all other Member States and keep
    the list up to date.
    5. Where the documentation referred to in paragraph 3 is insufficient to ascertain
    whether a breach of obligations under Union law intended to protect fundamental
    rights has occurred, the public authority or body referred to paragraph 3 may make a
    reasoned request to the market surveillance authority to organise testing of the high-
    risk AI system through technical means. The market surveillance authority shall
    organise the testing with the close involvement of the requesting public authority or
    body within reasonable time following the request.
    6. Any information and documentation obtained by the national public authorities or
    bodies referred to in paragraph 3 pursuant to the provisions of this Article shall be
    treated in compliance with the confidentiality obligations set out in Article 70.
    Article 65
    Procedure for dealing with AI systems presenting a risk at national level
    1. AI systems presenting a risk shall be understood as a product presenting a risk
    defined in Article 3, point 19 of Regulation (EU) 2019/1020 insofar as risks to the
    health or safety or to the protection of fundamental rights of persons are concerned.
    2. Where the market surveillance authority of a Member State has sufficient reasons to
    consider that an AI system presents a risk as referred to in paragraph 1, they shall
    carry out an evaluation of the AI system concerned in respect of its compliance with
    all the requirements and obligations laid down in this Regulation. When risks to the
    protection of fundamental rights are present, the market surveillance authority shall
    also inform the relevant national public authorities or bodies referred to in Article
    64(3). The relevant operators shall cooperate as necessary with the market
    EN 78 EN
    surveillance authorities and the other national public authorities or bodies referred to
    in Article 64(3).
    Where, in the course of that evaluation, the market surveillance authority finds that
    the AI system does not comply with the requirements and obligations laid down in
    this Regulation, it shall without delay require the relevant operator to take all
    appropriate corrective actions to bring the AI system into compliance, to withdraw
    the AI system from the market, or to recall it within a reasonable period,
    commensurate with the nature of the risk, as it may prescribe.
    The market surveillance authority shall inform the relevant notified body
    accordingly. Article 18 of Regulation (EU) 2019/1020 shall apply to the measures
    referred to in the second subparagraph.
    3. Where the market surveillance authority considers that non-compliance is not
    restricted to its national territory, it shall inform the Commission and the other
    Member States of the results of the evaluation and of the actions which it has
    required the operator to take.
    4. The operator shall ensure that all appropriate corrective action is taken in respect of
    all the AI systems concerned that it has made available on the market throughout the
    Union.
    5. Where the operator of an AI system does not take adequate corrective action within
    the period referred to in paragraph 2, the market surveillance authority shall take all
    appropriate provisional measures to prohibit or restrict the AI system's being made
    available on its national market, to withdraw the product from that market or to recall
    it. That authority shall inform the Commission and the other Member States, without
    delay, of those measures.
    6. The information referred to in paragraph 5 shall include all available details, in
    particular the data necessary for the identification of the non-compliant AI system,
    the origin of the AI system, the nature of the non-compliance alleged and the risk
    involved, the nature and duration of the national measures taken and the arguments
    put forward by the relevant operator. In particular, the market surveillance authorities
    shall indicate whether the non-compliance is due to one or more of the following:
    (a) a failure of the AI system to meet requirements set out in Title III, Chapter 2;
    (b) shortcomings in the harmonised standards or common specifications referred to
    in Articles 40 and 41 conferring a presumption of conformity.
    7. The market surveillance authorities of the Member States other than the market
    surveillance authority of the Member State initiating the procedure shall without
    delay inform the Commission and the other Member States of any measures adopted
    and of any additional information at their disposal relating to the non-compliance of
    the AI system concerned, and, in the event of disagreement with the notified national
    measure, of their objections.
    8. Where, within three months of receipt of the information referred to in paragraph 5,
    no objection has been raised by either a Member State or the Commission in respect
    of a provisional measure taken by a Member State, that measure shall be deemed
    justified. This is without prejudice to the procedural rights of the concerned operator
    in accordance with Article 18 of Regulation (EU) 2019/1020.
    EN 79 EN
    9. The market surveillance authorities of all Member States shall ensure that
    appropriate restrictive measures are taken in respect of the product concerned, such
    as withdrawal of the product from their market, without delay.
    Article 66
    Union safeguard procedure
    1. Where, within three months of receipt of the notification referred to in Article 65(5),
    objections are raised by a Member State against a measure taken by another Member
    State, or where the Commission considers the measure to be contrary to Union law,
    the Commission shall without delay enter into consultation with the relevant Member
    State and operator or operators and shall evaluate the national measure. On the basis
    of the results of that evaluation, the Commission shall decide whether the national
    measure is justified or not within 9 months from the notification referred to in Article
    65(5) and notify such decision to the Member State concerned.
    2. If the national measure is considered justified, all Member States shall take the
    measures necessary to ensure that the non-compliant AI system is withdrawn from
    their market, and shall inform the Commission accordingly. If the national measure
    is considered unjustified, the Member State concerned shall withdraw the measure.
    3. Where the national measure is considered justified and the non-compliance of the AI
    system is attributed to shortcomings in the harmonised standards or common
    specifications referred to in Articles 40 and 41 of this Regulation, the Commission
    shall apply the procedure provided for in Article 11 of Regulation (EU) No
    1025/2012.
    Article 67
    Compliant AI systems which present a risk
    1. Where, having performed an evaluation under Article 65, the market surveillance
    authority of a Member State finds that although an AI system is in compliance with
    this Regulation, it presents a risk to the health or safety of persons, to the compliance
    with obligations under Union or national law intended to protect fundamental rights
    or to other aspects of public interest protection, it shall require the relevant operator
    to take all appropriate measures to ensure that the AI system concerned, when placed
    on the market or put into service, no longer presents that risk, to withdraw the AI
    system from the market or to recall it within a reasonable period, commensurate with
    the nature of the risk, as it may prescribe.
    2. The provider or other relevant operators shall ensure that corrective action is taken in
    respect of all the AI systems concerned that they have made available on the market
    throughout the Union within the timeline prescribed by the market surveillance
    authority of the Member State referred to in paragraph 1.
    3. The Member State shall immediately inform the Commission and the other Member
    States. That information shall include all available details, in particular the data
    necessary for the identification of the AI system concerned, the origin and the supply
    chain of the AI system, the nature of the risk involved and the nature and duration of
    the national measures taken.
    4. The Commission shall without delay enter into consultation with the Member States
    and the relevant operator and shall evaluate the national measures taken. On the basis
    EN 80 EN
    of the results of that evaluation, the Commission shall decide whether the measure is
    justified or not and, where necessary, propose appropriate measures.
    5. The Commission shall address its decision to the Member States.
    Article 68
    Formal non-compliance
    1. Where the market surveillance authority of a Member State makes one of the
    following findings, it shall require the relevant provider to put an end to the non-
    compliance concerned:
    (a) the conformity marking has been affixed in violation of Article 49;
    (b) the conformity marking has not been affixed;
    (c) the EU declaration of conformity has not been drawn up;
    (d) the EU declaration of conformity has not been drawn up correctly;
    (e) the identification number of the notified body, which is involved in the
    conformity assessment procedure, where applicable, has not been affixed;
    2. Where the non-compliance referred to in paragraph 1 persists, the Member State
    concerned shall take all appropriate measures to restrict or prohibit the high-risk AI
    system being made available on the market or ensure that it is recalled or withdrawn
    from the market.
    TITLE IX
    CODES OF CONDUCT
    Article 69
    Codes of conduct
    1. The Commission and the Member States shall encourage and facilitate the drawing
    up of codes of conduct intended to foster the voluntary application to AI systems
    other than high-risk AI systems of the requirements set out in Title III, Chapter 2 on
    the basis of technical specifications and solutions that are appropriate means of
    ensuring compliance with such requirements in light of the intended purpose of the
    systems.
    2. The Commission and the Board shall encourage and facilitate the drawing up of
    codes of conduct intended to foster the voluntary application to AI systems of
    requirements related for example to environmental sustainability, accessibility for
    persons with a disability, stakeholders participation in the design and development of
    the AI systems and diversity of development teams on the basis of clear objectives
    and key performance indicators to measure the achievement of those objectives.
    3. Codes of conduct may be drawn up by individual providers of AI systems or by
    organisations representing them or by both, including with the involvement of users
    and any interested stakeholders and their representative organisations. Codes of
    conduct may cover one or more AI systems taking into account the similarity of the
    intended purpose of the relevant systems.
    EN 81 EN
    4. The Commission and the Board shall take into account the specific interests and
    needs of the small-scale providers and start-ups when encouraging and facilitating
    the drawing up of codes of conduct.
    TITLE X
    CONFIDENTIALITY AND PENALTIES
    Article 70
    Confidentiality
    1. National competent authorities and notified bodies involved in the application of this
    Regulation shall respect the confidentiality of information and data obtained in
    carrying out their tasks and activities in such a manner as to protect, in particular:
    (a) intellectual property rights, and confidential business information or trade
    secrets of a natural or legal person, including source code, except the cases
    referred to in Article 5 of Directive 2016/943 on the protection of undisclosed
    know-how and business information (trade secrets) against their unlawful
    acquisition, use and disclosure apply.
    (b) the effective implementation of this Regulation, in particular for the purpose of
    inspections, investigations or audits;(c) public and national security interests;
    (c) integrity of criminal or administrative proceedings.
    2. Without prejudice to paragraph 1, information exchanged on a confidential basis
    between the national competent authorities and between national competent
    authorities and the Commission shall not be disclosed without the prior consultation
    of the originating national competent authority and the user when high-risk AI
    systems referred to in points 1, 6 and 7 of Annex III are used by law enforcement,
    immigration or asylum authorities, when such disclosure would jeopardise public and
    national security interests.
    When the law enforcement, immigration or asylum authorities are providers of high-
    risk AI systems referred to in points 1, 6 and 7 of Annex III, the technical
    documentation referred to in Annex IV shall remain within the premises of those
    authorities. Those authorities shall ensure that the market surveillance authorities
    referred to in Article 63(5) and (6), as applicable, can, upon request, immediately
    access the documentation or obtain a copy thereof. Only staff of the market
    surveillance authority holding the appropriate level of security clearance shall be
    allowed to access that documentation or any copy thereof.
    3. Paragraphs 1 and 2 shall not affect the rights and obligations of the Commission,
    Member States and notified bodies with regard to the exchange of information and
    the dissemination of warnings, nor the obligations of the parties concerned to provide
    information under criminal law of the Member States.
    4. The Commission and Member States may exchange, where necessary, confidential
    information with regulatory authorities of third countries with which they have
    concluded bilateral or multilateral confidentiality arrangements guaranteeing an
    adequate level of confidentiality.
    EN 82 EN
    Article 71
    Penalties
    1. In compliance with the terms and conditions laid down in this Regulation, Member
    States shall lay down the rules on penalties, including administrative fines, applicable
    to infringements of this Regulation and shall take all measures necessary to ensure
    that they are properly and effectively implemented. The penalties provided for shall
    be effective, proportionate, and dissuasive. They shall take into particular account the
    interests of small-scale providers and start-up and their economic viability.
    2. The Member States shall notify the Commission of those rules and of those measures
    and shall notify it, without delay, of any subsequent amendment affecting them.
    3. The following infringements shall be subject to administrative fines of up to 30 000
    000 EUR or, if the offender is company, up to 6 % of its total worldwide annual
    turnover for the preceding financial year, whichever is higher:
    (a) non-compliance with the prohibition of the artificial intelligence practices
    referred to in Article 5;
    (b) non-compliance of the AI system with the requirements laid down in Article
    10.
    4. The non-compliance of the AI system with any requirements or obligations under
    this Regulation, other than those laid down in Articles 5 and 10, shall be subject to
    administrative fines of up to 20 000 000 EUR or, if the offender is a company, up to
    4 % of its total worldwide annual turnover for the preceding financial year,
    whichever is higher.
    5. The supply of incorrect, incomplete or misleading information to notified bodies and
    national competent authorities in reply to a request shall be subject to administrative
    fines of up to 10 000 000 EUR or, if the offender is a company, up to 2 % of its total
    worldwide annual turnover for the preceding financial year, whichever is higher.
    6. When deciding on the amount of the administrative fine in each individual case, all
    relevant circumstances of the specific situation shall be taken into account and due
    regard shall be given to the following:
    (a) the nature, gravity and duration of the infringement and of its consequences;
    (b) whether administrative fines have been already applied by other market
    surveillance authorities to the same operator for the same infringement.
    (c) the size and market share of the operator committing the infringement;
    7. Each Member State shall lay down rules on whether and to what extent
    administrative fines may be imposed on public authorities and bodies established in
    that Member State.
    8. Depending on the legal system of the Member States, the rules on administrative
    fines may be applied in such a manner that the fines are imposed by competent
    national courts of other bodies as applicable in those Member States. The application
    of such rules in those Member States shall have an equivalent effect.
    EN 83 EN
    Article 72
    Administrative fines on Union institutions, agencies and bodies
    1. The European Data Protection Supervisor may impose administrative fines on Union
    institutions, agencies and bodies falling within the scope of this Regulation. When
    deciding whether to impose an administrative fine and deciding on the amount of the
    administrative fine in each individual case, all relevant circumstances of the specific
    situation shall be taken into account and due regard shall be given to the following:
    (a) the nature, gravity and duration of the infringement and of its consequences;
    (b) the cooperation with the European Data Protection Supervisor in order to
    remedy the infringement and mitigate the possible adverse effects of the
    infringement, including compliance with any of the measures previously
    ordered by the European Data Protection Supervisor against the Union
    institution or agency or body concerned with regard to the same subject matter;
    (c) any similar previous infringements by the Union institution, agency or body;
    2. The following infringements shall be subject to administrative fines of up to 500 000
    EUR:
    (a) non-compliance with the prohibition of the artificial intelligence practices
    referred to in Article 5;
    (b) non-compliance of the AI system with the requirements laid down in Article
    10.
    3. The non-compliance of the AI system with any requirements or obligations under
    this Regulation, other than those laid down in Articles 5 and 10, shall be subject to
    administrative fines of up to 250 000 EUR.
    4. Before taking decisions pursuant to this Article, the European Data Protection
    Supervisor shall give the Union institution, agency or body which is the subject of
    the proceedings conducted by the European Data Protection Supervisor the
    opportunity of being heard on the matter regarding the possible infringement. The
    European Data Protection Supervisor shall base his or her decisions only on elements
    and circumstances on which the parties concerned have been able to comment.
    Complainants, if any, shall be associated closely with the proceedings.
    5. The rights of defense of the parties concerned shall be fully respected in the
    proceedings. They shall be entitled to have access to the European Data Protection
    Supervisor’s file, subject to the legitimate interest of individuals or undertakings in
    the protection of their personal data or business secrets.
    6. Funds collected by imposition of fines in this Article shall be the income of the
    general budget of the Union.
    TITLE XI
    DELEGATION OF POWER AND COMMITTEE PROCEDURE
    Article 73
    Exercise of the delegation
    1. The power to adopt delegated acts is conferred on the Commission subject to the
    conditions laid down in this Article.
    EN 84 EN
    2. The delegation of power referred to in Article 4, Article 7(1), Article 11(3), Article
    43(5) and (6) and Article 48(5) shall be conferred on the Commission for an
    indeterminate period of time from [entering into force of the Regulation].
    3. The delegation of power referred to in Article 4, Article 7(1), Article 11(3), Article
    43(5) and (6) and Article 48(5) may be revoked at any time by the European
    Parliament or by the Council. A decision of revocation shall put an end to the
    delegation of power specified in that decision. It shall take effect the day following
    that of its publication in the Official Journal of the European Union or at a later date
    specified therein. It shall not affect the validity of any delegated acts already in force.
    4. As soon as it adopts a delegated act, the Commission shall notify it simultaneously to
    the European Parliament and to the Council.
    5. Any delegated act adopted pursuant to Article 4, Article 7(1), Article 11(3), Article
    43(5) and (6) and Article 48(5) shall enter into force only if no objection has been
    expressed by either the European Parliament or the Council within a period of three
    months of notification of that act to the European Parliament and the Council or if,
    before the expiry of that period, the European Parliament and the Council have both
    informed the Commission that they will not object. That period shall be extended by
    three months at the initiative of the European Parliament or of the Council.
    Article 74
    Committee procedure
    1. The Commission shall be assisted by a committee. That committee shall be a
    committee within the meaning of Regulation (EU) No 182/2011.
    2. Where reference is made to this paragraph, Article 5 of Regulation (EU) No
    182/2011 shall apply.
    TITLE XII
    FINAL PROVISIONS
    Article 75
    Amendment to Regulation (EC) No 300/2008
    In Article 4(3) of Regulation (EC) No 300/2008, the following subparagraph is added:
    “When adopting detailed measures related to technical specifications and procedures for
    approval and use of security equipment concerning Artificial Intelligence systems in the
    meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament
    and of the Council*, the requirements set out in Chapter 2, Title III of that Regulation shall be
    taken into account.”
    __________
    * Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”
    Article 76
    Amendment to Regulation (EU) No 167/2013
    In Article 17(5) of Regulation (EU) No 167/2013, the following subparagraph is added:
    EN 85 EN
    “When adopting delegated acts pursuant to the first subparagraph concerning artificial
    intelligence systems which are safety components in the meaning of Regulation (EU)
    YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, the
    requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.
    __________
    * Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”
    Article 77
    Amendment to Regulation (EU) No 168/2013
    In Article 22(5) of Regulation (EU) No 168/2013, the following subparagraph is added:
    “When adopting delegated acts pursuant to the first subparagraph concerning Artificial
    Intelligence systems which are safety components in the meaning of Regulation (EU)
    YYY/XX on [Artificial Intelligence] of the European Parliament and of the Council*, the
    requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.
    __________
    * Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”
    Article 78
    Amendment to Directive 2014/90/EU
    In Article 8 of Directive 2014/90/EU, the following paragraph is added:
    “4. For Artificial Intelligence systems which are safety components in the meaning of
    Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the
    Council*, when carrying out its activities pursuant to paragraph 1 and when adopting
    technical specifications and testing standards in accordance with paragraphs 2 and 3, the
    Commission shall take into account the requirements set out in Title III, Chapter 2 of that
    Regulation.
    __________
    * Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”.
    Article 79
    Amendment to Directive (EU) 2016/797
    In Article 5 of Directive (EU) 2016/797, the following paragraph is added:
    “12. When adopting delegated acts pursuant to paragraph 1 and implementing acts pursuant to
    paragraph 11 concerning Artificial Intelligence systems which are safety components in the
    meaning of Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament
    and of the Council*, the requirements set out in Title III, Chapter 2 of that Regulation shall be
    taken into account.
    __________
    * Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”.
    EN 86 EN
    Article 80
    Amendment to Regulation (EU) 2018/858
    In Article 5 of Regulation (EU) 2018/858 the following paragraph is added:
    “4. When adopting delegated acts pursuant to paragraph 3 concerning Artificial Intelligence
    systems which are safety components in the meaning of Regulation (EU) YYY/XX [on
    Artificial Intelligence] of the European Parliament and of the Council *, the requirements set
    out in Title III, Chapter 2 of that Regulation shall be taken into account.
    __________
    * Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”.
    Article 81
    Amendment to Regulation (EU) 2018/1139
    Regulation (EU) 2018/1139 is amended as follows:
    (1) In Article 17, the following paragraph is added:
    “3. Without prejudice to paragraph 2, when adopting implementing acts pursuant to paragraph
    1 concerning Artificial Intelligence systems which are safety components in the meaning of
    Regulation (EU) YYY/XX [on Artificial Intelligence] of the European Parliament and of the
    Council*, the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into
    account.
    __________
    * Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”
    (2) In Article 19, the following paragraph is added:
    “4. When adopting delegated acts pursuant to paragraphs 1 and 2 concerning Artificial
    Intelligence systems which are safety components in the meaning of Regulation (EU)
    YYY/XX [on Artificial Intelligence], the requirements set out in Title III, Chapter 2 of that
    Regulation shall be taken into account.”
    (3) In Article 43, the following paragraph is added:
    “4. When adopting implementing acts pursuant to paragraph 1 concerning Artificial
    Intelligence systems which are safety components in the meaning of Regulation (EU)
    YYY/XX [on Artificial Intelligence], the requirements set out in Title III, Chapter 2 of that
    Regulation shall be taken into account.”
    (4) In Article 47, the following paragraph is added:
    “3. When adopting delegated acts pursuant to paragraphs 1 and 2 concerning Artificial
    Intelligence systems which are safety components in the meaning of Regulation (EU)
    YYY/XX [on Artificial Intelligence], the requirements set out in Title III, Chapter 2 of that
    Regulation shall be taken into account.”
    (5) In Article 57, the following paragraph is added:
    “When adopting those implementing acts concerning Artificial Intelligence systems which are
    safety components in the meaning of Regulation (EU) YYY/XX [on Artificial Intelligence],
    the requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.”
    (6) In Article 58, the following paragraph is added:
    EN 87 EN
    “3. When adopting delegated acts pursuant to paragraphs 1 and 2 concerning Artificial
    Intelligence systems which are safety components in the meaning of Regulation (EU)
    YYY/XX [on Artificial Intelligence] , the requirements set out in Title III, Chapter 2 of that
    Regulation shall be taken into account.”.
    Article 82
    Amendment to Regulation (EU) 2019/2144
    In Article 11 of Regulation (EU) 2019/2144, the following paragraph is added:
    “3. When adopting the implementing acts pursuant to paragraph 2, concerning artificial
    intelligence systems which are safety components in the meaning of Regulation (EU)
    YYY/XX [on Artificial Intelligence] of the European Parliament and of the Council*, the
    requirements set out in Title III, Chapter 2 of that Regulation shall be taken into account.
    __________
    * Regulation (EU) YYY/XX [on Artificial Intelligence] (OJ …).”.
    Article 83
    AI systems already placed on the market or put into service
    1. This Regulation shall not apply to the AI systems which are components of the large-
    scale IT systems established by the legal acts listed in Annex IX that have been
    placed on the market or put into service before [12 months after the date of
    application of this Regulation referred to in Article 85(2)], unless the replacement or
    amendment of those legal acts leads to a significant change in the design or intended
    purpose of the AI system or AI systems concerned.
    The requirements laid down in this Regulation shall be taken into account, where
    applicable, in the evaluation of each large-scale IT systems established by the legal
    acts listed in Annex IX to be undertaken as provided for in those respective acts.
    2. This Regulation shall apply to the high-risk AI systems, other than the ones referred
    to in paragraph 1, that have been placed on the market or put into service before
    [date of application of this Regulation referred to in Article 85(2)], only if, from that
    date, those systems are subject to significant changes in their design or intended
    purpose.
    Article 84
    Evaluation and review
    1. The Commission shall assess the need for amendment of the list in Annex III once a
    year following the entry into force of this Regulation.
    2. By [three years after the date of application of this Regulation referred to in Article
    85(2)] and every four years thereafter, the Commission shall submit a report on the
    evaluation and review of this Regulation to the European Parliament and to the
    Council. The reports shall be made public.
    3. The reports referred to in paragraph 2 shall devote specific attention to the following:
    (a) the status of the financial and human resources of the national competent
    authorities in order to effectively perform the tasks assigned to them under this
    Regulation;
    EN 88 EN
    (b) the state of penalties, and notably administrative fines as referred to in Article
    71(1), applied by Member States to infringements of the provisions of this
    Regulation.
    4. Within [three years after the date of application of this Regulation referred to in
    Article 85(2)] and every four years thereafter, the Commission shall evaluate the
    impact and effectiveness of codes of conduct to foster the application of the
    requirements set out in Title III, Chapter 2 and possibly other additional requirements
    for AI systems other than high-risk AI systems.
    5. For the purpose of paragraphs 1 to 4 the Board, the Member States and national
    competent authorities shall provide the Commission with information on its request.
    6. In carrying out the evaluations and reviews referred to in paragraphs 1 to 4 the
    Commission shall take into account the positions and findings of the Board, of the
    European Parliament, of the Council, and of other relevant bodies or sources.
    7. The Commission shall, if necessary, submit appropriate proposals to amend this
    Regulation, in particular taking into account developments in technology and in the
    light of the state of progress in the information society.
    Article 85
    Entry into force and application
    1. This Regulation shall enter into force on the twentieth day following that of its
    publication in the Official Journal of the European Union.
    2. This Regulation shall apply from [24 months following the entering into force of the
    Regulation].
    3. By way of derogation from paragraph 2:
    (a) Title III, Chapter 4 and Title VI shall apply from [three months following the
    entry into force of this Regulation];
    (b) Article 71 shall apply from [twelve months following the entry into force of
    this Regulation].
    This Regulation shall be binding in its entirety and directly applicable in all Member States.
    Done at Brussels,
    For the European Parliament For the Council
    The President The President
    EN 89 EN
    LEGISLATIVE FINANCIAL STATEMENT
    1. FRAMEWORK OF THE PROPOSAL/INITIATIVE
    1.1. Title of the proposal/initiative
    1.2. Policy area(s) concerned
    1.3. The proposal/initiative relates to:
    1.4. Objective(s)
    1.4.1. General objective(s)
    1.4.2. Specific objective(s)
    1.4.3. Expected result(s) and impact
    1.4.4. Indicators of performance
    1.5. Grounds for the proposal/initiative
    1.5.1. Requirement(s) to be met in the short or long term including a detailed
    timeline for roll-out of the implementation of the initiative
    1.5.2. Added value of Union involvement (it may result from different factors, e.g.
    coordination gains, legal certainty, greater effectiveness or complementarities). For
    the purposes of this point 'added value of Union involvement' is the value resulting
    from Union intervention which is additional to the value that would have been
    otherwise created by Member States alone
    1.5.3. Lessons learned from similar experiences in the past
    1.5.4. Compatibility with the Multiannual Financial Framework and possible
    synergies with other appropriate instruments
    1.5.5 Assessment of the different available financing options, including scope for
    redeployment
    1.6. Duration and financial impact of the proposal/initiative
    1.7. Management mode(s) planned
    2. MANAGEMENT MEASURES
    2.1. Monitoring and reporting rules
    2.2. Management and control system
    2.2.1. Justification of the management mode(s), the funding implementation
    mechanism(s), the payment modalities and the control strategy proposed
    2.2.2. Information concerning the risks identified and the internal control system(s)
    set up to mitigate them
    2.2.3. Estimation and justification of the cost-effectiveness of the controls (ratio of
    "control costs ÷ value of the related funds managed"), and assessment of the
    expected levels of risk of error (at payment & at closure)
    EN 90 EN
    2.3. Measures to prevent fraud and irregularities
    3. ESTIMATED FINANCIAL IMPACT OF THE PROPOSAL/INITIATIVE
    3.1. Heading(s) of the multiannual financial framework and expenditure budget
    line(s) affected
    3.2. Estimated financial impact of the proposal on appropriations
    3.2.1. Summary of estimated impact on operational appropriations
    3.2.2. Estimated output funded with operational appropriations
    3.2.3. Summary of estimated impact on administrative appropriations
    3.2.4. Compatibility with the current multiannual financial framework
    3.2.5. Third-party contributions
    3.3. Estimated impact on revenue
    EN 91 EN
    LEGISLATIVE FINANCIAL STATEMENT
    1. FRAMEWORK OF THE PROPOSAL/INITIATIVE
    1.1. Title of the proposal/initiative
    Regulation of the European Parliament and of the Council Laying Down Harmonised
    Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain
    Union Legislative Acts
    1.2. Policy area(s) concerned
    Communications Networks, Content and Technology;
    Internal Market, Industry, Entrepreneurship and SMEs;
    The budgetary impact concerns the new tasks entrusted with the Commission,
    including the support to the EU AI Board;
    Activity: Shaping Europe's digital future.
    1.3. The proposal/initiative relates to:
    X a new action
     a new action following a pilot project/preparatory action64
     the extension of an existing action
     an action redirected towards a new action
    1.4. Objective(s)
    1.4.1. General objective(s)
    The general objective of the intervention is to ensure the proper functioning of the
    single market by creating the conditions for the development and use of trustworthy
    artificial intelligence in the Union.
    1.4.2. Specific objective(s)
    Specific objective No 1
    To set requirements specific to AI systems and obligations on all value chain
    participants in order to ensure that AI systems placed on the market and used are safe
    and respect existing law on fundamental rights and Union values;
    Specific objective No 2
    To ensure legal certainty to facilitate investment and innovation in AI by making it
    clear what essential requirements, obligations, as well as conformity and compliance
    procedures must be followed to place or use an AI system in the Union market;
    Specific objective No 3
    To enhance governance and effective enforcement of existing law on fundamental
    rights and safety requirements applicable to AI systems by providing new powers,
    resources and clear rules for relevant authorities on conformity assessment and ex
    64
    As referred to in Article 54(2)(a) or (b) of the Financial Regulation
    EN 92 EN
    post monitoring procedures and the division of governance and supervision tasks
    between national and EU levels;
    Specific objective No 4
    To facilitate the development of a single market for lawful, safe and trustworthy AI
    applications and prevent market fragmentation by taking EU action to set minimum
    requirement for AI systems to be placed and used in the Union market in compliance
    with existing law on fundamental rights and safety.
    EN 93 EN
    1.4.3. Expected result(s) and impact
    Specify the effects which the proposal/initiative should have on the beneficiaries/groups targeted.
    AI suppliers should benefit from a minimal but clear set of requirements, creating
    legal certainty and ensuring access to the entire single market.
    AI users should benefit from legal certainty that the high-risk AI systems they buy
    comply with European laws and values.
    Consumers should benefit by reducing the risk of violations of their safety or
    fundamental rights.
    1.4.4. Indicators of performance
    Specify the indicators for monitoring implementation of the proposal/initiative.
    Indicator 1
    Number of serious incidents or AI performances which constitute a serious incident
    or a breach of fundamental rights obligations (semi-annual) by fields of applications
    and calculated a) in absolute terms, b) as share of applications deployed and c) as
    share of citizens concerned.
    Indicator 2
    a) Total AI investment in the EU (annual)
    b) Total AI investment by Member State (annual)
    c) Share of companies using AI (annual)
    d) Share of SMEs using AI (annual)
    a) and b) will be calculated based on official sources and benchmarked against
    private estimates
    c) and d) will be collected by regular company surveys
    1.5. Grounds for the proposal/initiative
    1.5.1. Requirement(s) to be met in the short or long term including a detailed timeline for
    roll-out of the implementation of the initiative
    The Regulation should be fully applicable one year and a half after its adoption.
    However, elements of the governance structure should be in place before then. In
    particular, Member States shall have appointed existing authorities and/or established
    new authorities performing the tasks set out in the legislation earlier, and the EU AI
    Board should be set-up and effective. By the time of applicability, the European
    database of AI systems should be fully operative. In parallel to the adoption process,
    it is therefore necessary to develop the database, so that its development has come to
    an end when the regulation enters into force.
    1.5.2. Added value of Union involvement (it may result from different factors, e.g.
    coordination gains, legal certainty, greater effectiveness or complementarities). For
    the purposes of this point 'added value of Union involvement' is the value resulting
    from Union intervention which is additional to the value that would have been
    otherwise created by Member States alone.
    An emerging patchy framework of potentially divergent national rules will hamper
    the seamless provision of AI systems across the EU and is ineffective in ensuring the
    EN 94 EN
    safety and protection of fundamental rights and Union values across the different
    Member States. A common EU legislative action on AI could boost the internal
    market and has great potential to provide European industry with a competitive edge
    at the global scene and economies of scale that cannot be achieved by individual
    Member States alone.
    1.5.3. Lessons learned from similar experiences in the past
    The E-commerce Directive 2000/31/EC provides the core framework for the
    functioning of the single market and the supervision of digital services and sets a
    basic structure for a general cooperation mechanism among Member States, covering
    in principle all requirements applicable to digital services. The evaluation of the
    Directive pointed to shortcomings in several aspects of this cooperation mechanism,
    including important procedural aspects such as the lack of clear timeframes for
    response from Member States coupled with a general lack of responsiveness to
    requests from their counterparts. This has led over the years to a lack of trust
    between Member States in addressing concerns about providers offering digital
    services cross-border. The evaluation of the Directive showed the need to define a
    differentiated set of rules and requirements at European level. For this reason, the
    implementation of the specific obligations laid down in this Regulation would
    require a specific cooperation mechanism at EU level, with a governance structure
    ensuring coordination of specific responsible bodies at EU level.
    1.5.4. Compatibility with the Multiannual Financial Framework and possible synergies
    with other appropriate instruments
    The Regulation Laying Down Harmonised Rules on Artificial Intelligence and
    Amending Certain Union Legislative Acts defines a new common framework of
    requirements applicable to AI systems, which goes well beyond the framework
    provided by existing legislation. For this reason, a new national and European
    regulatory and coordination function needs to be established with this proposal.
    As regards possible synergies with other appropriate instruments, the role of
    notifying authorities at national level can be performed by national authorities
    fulfilling similar functions sunder other EU regulations.
    Moreover, by increasing trust in AI and thus encouraging investment in development
    and adoption of AI, it complements Digital Europe, for which promoting the
    diffusion of AI is one of five priorities.
    1.5.5. Assessment of the different available financing options, including scope for
    redeployment
    The staff will be redeployed. The other costs will be supported from the DEP.
    envelope, given that the objective of this regulation – ensuring trustworthy AI –
    contributes directly to one key objective of Digital Europe – accelerating AI
    development and deployment in Europe.
    EN 95 EN
    1.6. Duration and financial impact of the proposal/initiative
     limited duration
    –  in effect from [DD/MM]YYYY to [DD/MM]YYYY
    –  Financial impact from YYYY to YYYY for commitment appropriations and
    from YYYY to YYYY for payment appropriations.
    X unlimited duration
    – Implementation with a start-up period from one/two (tbc) year,
    – followed by full-scale operation.
    1.7. Management mode(s) planned65
    X Direct management by the Commission
    –  by its departments, including by its staff in the Union delegations;
    –  by the executive agencies
     Shared management with the Member States
     Indirect management by entrusting budget implementation tasks to:
    –  third countries or the bodies they have designated;
    –  international organisations and their agencies (to be specified);
    –  the EIB and the European Investment Fund;
    –  bodies referred to in Articles 70 and 71 of the Financial Regulation;
    –  public law bodies;
    –  bodies governed by private law with a public service mission to the extent that
    they provide adequate financial guarantees;
    –  bodies governed by the private law of a Member State that are entrusted with
    the implementation of a public-private partnership and that provide adequate
    financial guarantees;
    –  persons entrusted with the implementation of specific actions in the CFSP
    pursuant to Title V of the TEU, and identified in the relevant basic act.
    – If more than one management mode is indicated, please provide details in the ‘Comments’ section.
    Comments
    65
    Details of management modes and references to the Financial Regulation may be found on the
    BudgWeb site: http://www.cc.cec/budg/man/budgmanag/budgmanag_en.html
    EN 96 EN
    2. MANAGEMENT MEASURES
    2.1. Monitoring and reporting rules
    Specify frequency and conditions.
    The Regulation will be reviewed and evaluated five years from the entry into force of
    the regulation. The Commission will report on the findings of the evaluation to the
    European Parliament, the Council and the European Economic and Social
    Committee.
    2.2. Management and control system(s)
    2.2.1. Justification of the management mode(s), the funding implementation mechanism(s),
    the payment modalities and the control strategy proposed
    The Regulation establishes a new policy with regard to harmonised rules for the
    provision of artificial intelligence systems in the internal market while ensuring the
    respect of safety and fundamental rights. These new rules require a consistency
    mechanism for the cross-border application of the obligations under this Regulation
    in the form of a new advisory group coordinating the activities of national
    authorities.
    In order to face these new tasks, it is necessary to appropriately resource the
    Commission’s services. The enforcement of the new Regulation is estimated to
    require 10 FTE à regime (5 FTE for the support to the activities of the Board and 5
    FTE for the European Data Protection Supervisor acting as a notifying body for AI
    systems deployed by a body of the European Union).
    2.2.2. Information concerning the risks identified and the internal control system(s) set up
    to mitigate them
    In order to ensure that the members of the Board have the possibility to make
    informed analysis on the basis of factual evidence, it is foreseen that the Board
    should be supported by the administrative structure of the Commission and that an
    expert group be created to provide additional expertise where required.
    2.2.3. Estimate and justification of the cost-effectiveness of the controls (ratio of "control
    costs ÷ value of the related funds managed"), and assessment of the expected levels
    of risk of error (at payment & at closure)
    For the meeting expenditure, given the low value per transaction (e.g. refunding
    travel costs for a delegate for a meeting), standard control procedures seem
    sufficient. Regarding the development of the database, contract attribution has a
    strong internal control system in place in DG CNECT through centralised
    procurement activities.
    2.3. Measures to prevent fraud and irregularities
    Specify existing or envisaged prevention and protection measures, e.g. from the Anti-Fraud Strategy.
    The existing fraud prevention measures applicable to the Commission will cover the
    additional appropriations necessary for this Regulation.
    EN 97 EN
    3. ESTIMATED FINANCIAL IMPACT OF THE PROPOSAL/INITIATIVE
    3.1. Heading(s) of the multiannual financial framework and expenditure budget line(s) affected
     Existing budget lines
    In order of multiannual financial framework headings and budget lines.
    Heading of
    multiannual
    financial
    framework
    Budget line
    Type of
    expenditure
    Contribution
    Number Diff./Non-
    diff.
    66
    from
    EFTA
    countries
    67
    from
    candidate
    countries
    68
    from third
    countries
    within the
    meaning of
    Article 21(2)(b) of
    the Financial
    Regulation
    7 20 02 06 Administrative expenditure Non-diff. NO NO NO NO
    1 02 04 03 DEP Artificial Intelligence Diff. YES NO NO NO
    1
    02 01 30 01 Support expenditure for
    the Digital Europe programme
    Non-diff. YES NO NO NO
    3.2. Estimated financial impact of the proposal on appropriations
    3.2.1. Summary of estimated impact on expenditure on operational appropriations
    –  The proposal/initiative does not require the use of operational appropriations
    – X The proposal/initiative requires the use of operational appropriations, as explained below:
    EUR million (to three decimal places)
    66
    Diff. = Differentiated appropriations / Non-diff. = Non-differentiated appropriations.
    67
    EFTA: European Free Trade Association.
    68
    Candidate countries and, where applicable, potential candidate countries from the Western Balkans.
    EN 98 EN
    Heading of multiannual financial
    framework
    1
    DG: CNECT
    Year
    2022
    Year
    2023
    Year
    2024
    Year
    2025
    Year
    2026
    Year
    2027
    69 TOTAL
     Operational appropriations
    Budget line
    70
    02 04 03
    Commitments (1a) 1.000 1.000
    Payments (2a) 0.600 0.100 0.100 0.100 0.100 1.000
    Budget line
    Commitments (1b)
    Payments (2b)
    Appropriations of an administrative nature financed from the envelope of specific
    programmes
    71
    Budget line 02 01 30 01 (3) 0.240 0.240 0.240 0.240 0.240 1.200
    TOTAL appropriations
    for DG CNECT
    Commitments =1a+1b +3 1.240 0.240 0.240 0.240 2.200
    Payments
    =2a+2b
    +3
    0.840 0.340 0.340 0.340 0.340 2.200
    69
    Indicative and dependent on budget availability.
    70
    According to the official budget nomenclature.
    71
    Technical and/or administrative assistance and expenditure in support of the implementation of EU programmes and/or actions (former ‘BA’ lines), indirect research,
    direct research.
    EN 99 EN
     TOTAL operational appropriations
    Commitments (4) 1.000 1.000
    Payments (5) 0.600 0.100 0.100 0.100 0.100 1.000
     TOTAL appropriations of an administrative nature financed from the
    envelope for specific programmes
    (6) 0.240 0.240 0.240 0.240 0.240 1.200
    TOTAL appropriations
    under HEADING 1
    of the multiannual financial framework
    Commitments =4+ 6 1.240 0.240 0.240 .0.240 0.240 2.200
    Payments =5+ 6 0.840 0.340 0.340 0.340 0.340 2.200
    If more than one heading is affected by the proposal / initiative, repeat the section above:
     TOTAL operational appropriations (all
    operational headings)
    Commitments (4)
    Payments (5)
     TOTAL appropriations of an administrative nature
    financed from the envelope for specific programmes (all
    operational headings)
    (6)
    TOTAL appropriations
    under HEADINGS 1 to 6
    of the multiannual financial framework
    (Reference amount)
    Commitments =4+ 6
    Payments =5+ 6
    EN 100 EN
    Heading of multiannual financial
    framework
    7 ‘Administrative expenditure’
    This section should be filled in using the 'budget data of an administrative nature' to be firstly introduced in the Annex to the Legislative
    Financial Statement (Annex V to the internal rules), which is uploaded to DECIDE for interservice consultation purposes.
    EUR million (to three decimal places)
    Year
    2023
    Year
    2024
    Year
    2025
    Year
    2026
    Year 2027
    After
    2027
    72 TOTAL
    DG: CNECT
     Human resources 0.760 0.760 0.760 0.760 0.760 0.760 3.800
     Other administrative expenditure 0.010 0.010 0.010 0.010 0.010 0.010 0.050
    TOTAL DG CNECT Appropriations 0.760 0.760 0.760 0.760 0.760 0.760 3.850
    European Data Protection Supervisor
     Human resources 0.760 0.760 0.760 0.760 0.760 0.760 3.800
     Other administrative expenditure
    TOTAL EDPS Appropriations 0.760 0.760 0.760 0.760 0.760
    0.760 3.800
    TOTAL appropriations
    under HEADING 7
    of the multiannual financial framework
    (Total commitments = Total payments) 1.530 1.530 1.530 1.530 1.530 1.530 7.650
    EUR million (to three decimal places)
    Year
    2022
    Year
    2023
    Year
    2024
    Year
    2025
    Year 2026 Year 2027 TOTAL
    TOTAL appropriations Commitments 2.770 1.770 1.770 1.770 1.770 9.850
    72
    All figures in this column are indicative and subject to the continuation of the programmes and availability of appropriations
    EN 101 EN
    under HEADINGS 1 to 7
    of the multiannual financial framework Payments 2.370 1.870 1.870 1.870 1.870 9.850
    EN 102 EN
    3.2.2. Estimated output funded with operational appropriations
    Commitment appropriations in EUR million (to three decimal places)
    Indicate objectives
    and outputs
    
    Year
    2022
    Year
    2023
    Year
    2024
    Year
    2025
    Year
    2026
    Year
    2027
    After
    2027
    73 TOTAL
    OUTPUTS
    Type Average
    cost
    No
    Cost
    No
    Cost
    No
    Cost
    No
    Cost
    No
    Cost
    No
    Cost
    No
    Cost
    Tota
    l No
    Total
    cost
    SPECIFIC OBJECTIVE No 1
    74
    …
    Database 1 1.000 1 1 1 1 1 0.100 1 1.000
    Meetings- Output 10 0.200 10 0.200 10 0.200 10 0.200 10 0.200 10 0.200 50 1.000
    Communication
    activities
    2 0.040 2 0.040 2 0.040 2 0.040 2 0.040 2 0.040 10 0.040
    Subtotal for specific objective No 1
    SPECIFIC OBJECTIVE No 2 ...
    - Output
    Subtotal for specific objective No 2
    TOTALS 13 0.240 13 0.240 13 0.240 13 0.240 13 0.240 13 0.100 65 2.200
    73
    All figures in this column are indicative and subject to the continuation of the programmes and availability of appropriations
    74
    As described in point 1.4.2. ‘Specific objective(s)…’
    EN 103 EN
    3.2.3. Summary of estimated impact on administrative appropriations
    –  The proposal/initiative does not require the use of appropriations of an
    administrative nature
    – X The proposal/initiative requires the use of appropriations of an administrative
    nature, as explained below:
    EUR million (to three decimal places)
    Year
    2022
    Year
    2023
    Year
    2024
    Year
    2025
    Year
    2026
    Year
    2027
    Yearly after
    2027
    75 TOTAL
    HEADING 7
    of the multiannual
    financial framework
    Human resources 1.520 1.520 1.520 1.520 1.520 1.520 7.600
    Other administrative
    expenditure
    0.010 0.010 0.010 0.010 0.010 0.010 0.050
    Subtotal HEADING 7
    of the multiannual
    financial framework
    1.530 1.530 1.530 1.530 1.530 1.530 7.650
    Outside HEADING 7
    76
    of the multiannual
    financial framework
    Human resources
    Other expenditure
    of an administrative
    nature
    0.240 0.240 0.240 0.240 0.240 0.240 1.20
    Subtotal
    outside HEADING 7
    of the multiannual
    financial framework
    0.240 0.240 0.240 0.240 0.240 0.240 1.20
    TOTAL 1.770 1.770 1.770 1.770 1.770 1.770 8.850
    The appropriations required for human resources and other expenditure of an administrative nature will be met by
    appropriations from the DG that are already assigned to management of the action and/or have been redeployed within the
    DG, together if necessary with any additional allocation which may be granted to the managing DG under the annual
    allocation procedure and in the light of budgetary constraints.
    75
    All figures in this column are indicative and subject to the continuation of the programmes and availability of
    appropriations.
    76
    Technical and/or administrative assistance and expenditure in support of the implementation of
    EU programmes and/or actions (former ‘BA’ lines), indirect research, direct research.
    EN 104 EN
    3.2.3.1. Estimated requirements of human resources
    –  The proposal/initiative does not require the use of human resources.
    – X The proposal/initiative requires the use of human resources, as explained
    below:
    Estimate to be expressed in full time equivalent units
    .
    Year
    2023
    Year
    2024
    Year
    2025
    2026 2027
    After
    202777
     Establishment plan posts (officials and temporary staff)
    20 01 02 01 (Headquarters and Commission’s Representation
    Offices)
    10 10 10 10 10 10
    20 01 02 03 (Delegations)
    01 01 01 01 (Indirect research)
    01 01 01 11 (Direct research)
    Other budget lines (specify)
     External staff (in Full Time Equivalent unit: FTE)
    78
    20 02 01 (AC, END, INT from the ‘global envelope’)
    20 02 03 (AC, AL, END, INT and JPD in the delegations)
    XX 01 xx yy zz
    79 - at Headquarters
    - in Delegations
    01 01 01 02 (AC, END, INT - Indirect research)
    01 01 01 12 (AC, END, INT - Direct research)
    Other budget lines (specify)
    TOTAL 10 10 10 10 10 10
    XX is the policy area or budget title concerned.
    The human resources required will be met by staff from the DG who are already assigned to management of the
    action and/or have been redeployed within the DG, together if necessary with any additional allocation which
    may be granted to the managing DG under the annual allocation procedure and in the light of budgetary
    constraints.
    EDPS is expected to provide half of the resources required.
    Description of tasks to be carried out:
    Officials and temporary staff To prepare a total of 13-16 meetings, draft reports, continue policy work, e.g.
    regarding future amendments of the list of high-risk AI applications, and maintain
    relations with Member States’ authorities will require four AD FTE and 1 AST FTE.
    For AI systems developed by the EU institutions, the European Data Protection
    Supervisor is responsible. Based on past experience, it can be estimated that 5 AD FTE
    are reuqired to fulfill the EDPS responsibilites under the draft legislation.
    77
    All figures in this column are indicative and subject to the continuation of the programmes and
    availability of appropriations.
    78
    AC = Contract Staff; AL = Local Staff; END = Seconded National Expert; INT = agency staff; JPD
    = Junior Professionals in Delegations.
    79
    Sub-ceiling for external staff covered by operational appropriations (former ‘BA’ lines).
    EN 105 EN
    External staff
    EN 106 EN
    3.2.4. Compatibility with the current multiannual financial framework
    The proposal/initiative:
    – X can be fully financed through redeployment within the relevant heading of the
    Multiannual Financial Framework (MFF).
    No reporgramming is needed.
    –  requires use of the unallocated margin under the relevant heading of the MFF
    and/or use of the special instruments as defined in the MFF Regulation.
    Explain what is required, specifying the headings and budget lines concerned, the corresponding
    amounts, and the instruments proposed to be used.
    –  requires a revision of the MFF.
    Explain what is required, specifying the headings and budget lines concerned and the corresponding
    amounts.
    3.2.5. Third-party contributions
    The proposal/initiative:
    – X does not provide for co-financing by third parties
    –  provides for the co-financing by third parties estimated below:
    Appropriations in EUR million (to three decimal places)
    Year
    N
    80
    Year
    N+1
    Year
    N+2
    Year
    N+3
    Enter as many years as necessary
    to show the duration of the
    impact (see point 1.6)
    Total
    Specify the co-financing
    body
    TOTAL appropriations
    co-financed
    80
    Year N is the year in which implementation of the proposal/initiative starts. Please replace "N" by the
    expected first year of implementation (for instance: 2021). The same for the following years.
    EN 107 EN
    3.3. Estimated impact on revenue
    –  The proposal/initiative has the following financial impact:
    –  The proposal/initiative has the following financial impact:
    –  on other revenue
    –  on other revenue
    – Please indicate, if the revenue is assigned to expenditure lines 
    EUR million (to three decimal places)
    Budget revenue line:
    Appropriation
    s available for
    the current
    financial year
    Impact of the proposal/initiative
    81
    Year
    N
    Year
    N+1
    Year
    N+2
    Year
    N+3
    Enter as many years as necessary to show
    the duration of the impact (see point 1.6)
    Article ………….
    For assigned revenue, specify the budget expenditure line(s) affected.
    Other remarks (e.g. method/formula used for calculating the impact on revenue or any other
    information).
    81
    As regards traditional own resources (customs duties, sugar levies), the amounts indicated must be net
    amounts, i.e. gross amounts after deduction of 20 % for collection costs.
    

    1_EN_annexe_proposition_part1_v7.pdf

    https://www.ft.dk/samling/20211/kommissionsforslag/kom(2021)0206/forslag/1773316/2379082.pdf

    EN EN
    EUROPEAN
    COMMISSION
    Brussels, 21.4.2021
    COM(2021) 206 final
    ANNEXES 1 to 9
    ANNEXES
    to the
    Proposal for a Regulation of the European Parliament and of the Council
    LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE
    (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION
    LEGISLATIVE ACTS
    {SEC(2021) 167 final} - {SWD(2021) 84 final} - {SWD(2021) 85 final}
    Europaudvalget 2021
    KOM (2021) 0206 - Forslag til forordning
    Offentligt
    EN 1 EN
    ANNEX I
    ARTIFICIAL INTELLIGENCE TECHNIQUES AND APPROACHES
    referred to in Article 3, point 1
    (a) Machine learning approaches, including supervised, unsupervised and reinforcement
    learning, using a wide variety of methods including deep learning;
    (b) Logic- and knowledge-based approaches, including knowledge representation,
    inductive (logic) programming, knowledge bases, inference and deductive engines,
    (symbolic) reasoning and expert systems;
    (c) Statistical approaches, Bayesian estimation, search and optimization methods.
    EN 2 EN
    ANNEX II
    LIST OF UNION HARMONISATION LEGISLATION
    Section A – List of Union harmonisation legislation based on the New Legislative
    Framework
    1. Directive 2006/42/EC of the European Parliament and of the Council of 17 May
    2006 on machinery, and amending Directive 95/16/EC (OJ L 157, 9.6.2006, p. 24)
    [as repealed by the Machinery Regulation];
    2. Directive 2009/48/EC of the European Parliament and of the Council of 18 June
    2009 on the safety of toys (OJ L 170, 30.6.2009, p. 1);
    3. Directive 2013/53/EU of the European Parliament and of the Council of 20
    November 2013 on recreational craft and personal watercraft and repealing Directive
    94/25/EC (OJ L 354, 28.12.2013, p. 90);
    4. Directive 2014/33/EU of the European Parliament and of the Council of 26 February
    2014 on the harmonisation of the laws of the Member States relating to lifts and
    safety components for lifts (OJ L 96, 29.3.2014, p. 251);
    5. Directive 2014/34/EU of the European Parliament and of the Council of 26 February
    2014 on the harmonisation of the laws of the Member States relating to equipment
    and protective systems intended for use in potentially explosive atmospheres (OJ L
    96, 29.3.2014, p. 309);
    6. Directive 2014/53/EU of the European Parliament and of the Council of 16 April
    2014 on the harmonisation of the laws of the Member States relating to the making
    available on the market of radio equipment and repealing Directive 1999/5/EC (OJ L
    153, 22.5.2014, p. 62);
    7. Directive 2014/68/EU of the European Parliament and of the Council of 15 May
    2014 on the harmonisation of the laws of the Member States relating to the making
    available on the market of pressure equipment (OJ L 189, 27.6.2014, p. 164);
    8. Regulation (EU) 2016/424 of the European Parliament and of the Council of 9 March
    2016 on cableway installations and repealing Directive 2000/9/EC (OJ L 81,
    31.3.2016, p. 1);
    9. Regulation (EU) 2016/425 of the European Parliament and of the Council of 9 March
    2016 on personal protective equipment and repealing Council Directive 89/686/EEC
    (OJ L 81, 31.3.2016, p. 51);
    10. Regulation (EU) 2016/426 of the European Parliament and of the Council of 9 March
    2016 on appliances burning gaseous fuels and repealing Directive 2009/142/EC (OJ
    L 81, 31.3.2016, p. 99);
    11. Regulation (EU) 2017/745 of the European Parliament and of the Council of 5 April
    2017 on medical devices, amending Directive 2001/83/EC, Regulation (EC) No
    178/2002 and Regulation (EC) No 1223/2009 and repealing Council Directives
    90/385/EEC and 93/42/EEC (OJ L 117, 5.5.2017, p. 1;
    12. Regulation (EU) 2017/746 of the European Parliament and of the Council of 5 April
    2017 on in vitro diagnostic medical devices and repealing Directive 98/79/EC and
    Commission Decision 2010/227/EU (OJ L 117, 5.5.2017, p. 176).
    EN 3 EN
    Section B. List of other Union harmonisation legislation
    1. Regulation (EC) No 300/2008 of the European Parliament and of the Council of 11
    March 2008 on common rules in the field of civil aviation security and repealing
    Regulation (EC) No 2320/2002 (OJ L 97, 9.4.2008, p. 72).
    2. Regulation (EU) No 168/2013 of the European Parliament and of the Council of 15
    January 2013 on the approval and market surveillance of two- or three-wheel
    vehicles and quadricycles (OJ L 60, 2.3.2013, p. 52);
    3. Regulation (EU) No 167/2013 of the European Parliament and of the Council of 5
    February 2013 on the approval and market surveillance of agricultural and forestry
    vehicles (OJ L 60, 2.3.2013, p. 1);
    4. Directive 2014/90/EU of the European Parliament and of the Council of 23 July 2014
    on marine equipment and repealing Council Directive 96/98/EC (OJ L 257,
    28.8.2014, p. 146);
    5. Directive (EU) 2016/797 of the European Parliament and of the Council of 11 May
    2016 on the interoperability of the rail system within the European Union (OJ L 138,
    26.5.2016, p. 44).
    6. Regulation (EU) 2018/858 of the European Parliament and of the Council of 30 May
    2018 on the approval and market surveillance of motor vehicles and their trailers,
    and of systems, components and separate technical units intended for such vehicles,
    amending Regulations (EC) No 715/2007 and (EC) No 595/2009 and repealing
    Directive 2007/46/EC (OJ L 151, 14.6.2018, p. 1); 3. Regulation (EU) 2019/2144 of
    the European Parliament and of the Council of 27 November 2019 on type-approval
    requirements for motor vehicles and their trailers, and systems, components and
    separate technical units intended for such vehicles, as regards their general safety and
    the protection of vehicle occupants and vulnerable road users, amending Regulation
    (EU) 2018/858 of the European Parliament and of the Council and repealing
    Regulations (EC) No 78/2009, (EC) No 79/2009 and (EC) No 661/2009 of the
    European Parliament and of the Council and Commission Regulations (EC) No
    631/2009, (EU) No 406/2010, (EU) No 672/2010, (EU) No 1003/2010, (EU) No
    1005/2010, (EU) No 1008/2010, (EU) No 1009/2010, (EU) No 19/2011, (EU) No
    109/2011, (EU) No 458/2011, (EU) No 65/2012, (EU) No 130/2012, (EU) No
    347/2012, (EU) No 351/2012, (EU) No 1230/2012 and (EU) 2015/166 (OJ L 325,
    16.12.2019, p. 1);
    7. Regulation (EU) 2018/1139 of the European Parliament and of the Council of 4 July
    2018 on common rules in the field of civil aviation and establishing a European
    Union Aviation Safety Agency, and amending Regulations (EC) No 2111/2005, (EC)
    No 1008/2008, (EU) No 996/2010, (EU) No 376/2014 and Directives 2014/30/EU
    and 2014/53/EU of the European Parliament and of the Council, and repealing
    Regulations (EC) No 552/2004 and (EC) No 216/2008 of the European Parliament
    and of the Council and Council Regulation (EEC) No 3922/91 (OJ L 212, 22.8.2018,
    p. 1), in so far as the design, production and placing on the market of aircrafts
    referred to in points (a) and (b) of Article 2(1) thereof, where it concerns unmanned
    aircraft and their engines, propellers, parts and equipment to control them remotely,
    are concerned.
    EN 4 EN
    ANNEX III
    HIGH-RISK AI SYSTEMS REFERRED TO IN ARTICLE 6(2)
    High-risk AI systems pursuant to Article 6(2) are the AI systems listed in any of the following
    areas:
    1. Biometric identification and categorisation of natural persons:
    (a) AI systems intended to be used for the ‘real-time’ and ‘post’ remote biometric
    identification of natural persons;
    2. Management and operation of critical infrastructure:
    (a) AI systems intended to be used as safety components in the management and
    operation of road traffic and the supply of water, gas, heating and electricity.
    3. Education and vocational training:
    (a) AI systems intended to be used for the purpose of determining access or
    assigning natural persons to educational and vocational training institutions;
    (b) AI systems intended to be used for the purpose of assessing students in
    educational and vocational training institutions and for assessing participants in
    tests commonly required for admission to educational institutions.
    4. Employment, workers management and access to self-employment:
    (a) AI systems intended to be used for recruitment or selection of natural persons,
    notably for advertising vacancies, screening or filtering applications, evaluating
    candidates in the course of interviews or tests;
    (b) AI intended to be used for making decisions on promotion and termination of
    work-related contractual relationships, for task allocation and for monitoring
    and evaluating performance and behavior of persons in such relationships.
    5. Access to and enjoyment of essential private services and public services and
    benefits:
    (a) AI systems intended to be used by public authorities or on behalf of public
    authorities to evaluate the eligibility of natural persons for public assistance
    benefits and services, as well as to grant, reduce, revoke, or reclaim such
    benefits and services;
    (b) AI systems intended to be used to evaluate the creditworthiness of natural
    persons or establish their credit score, with the exception of AI systems put into
    service by small scale providers for their own use;
    (c) AI systems intended to be used to dispatch, or to establish priority in the
    dispatching of emergency first response services, including by firefighters and
    medical aid.
    6. Law enforcement:
    (a) AI systems intended to be used by law enforcement authorities for making
    individual risk assessments of natural persons in order to assess the risk of a
    natural person for offending or reoffending or the risk for potential victims of
    criminal offences;
    (b) AI systems intended to be used by law enforcement authorities as polygraphs
    and similar tools or to detect the emotional state of a natural person;
    EN 5 EN
    (c) AI systems intended to be used by law enforcement authorities to detect deep
    fakes as referred to in article 52(3);
    (d) AI systems intended to be used by law enforcement authorities for evaluation
    of the reliability of evidence in the course of investigation or prosecution of
    criminal offences;
    (e) AI systems intended to be used by law enforcement authorities for predicting
    the occurrence or reoccurrence of an actual or potential criminal offence
    based on profiling of natural persons as referred to in Article 3(4) of Directive
    (EU) 2016/680 or assessing personality traits and characteristics or past
    criminal behaviour of natural persons or groups;
    (f) AI systems intended to be used by law enforcement authorities for profiling of
    natural persons as referred to in Article 3(4) of Directive (EU) 2016/680 in the
    course of detection, investigation or prosecution of criminal offences;
    (g) AI systems intended to be used for crime analytics regarding natural persons,
    allowing law enforcement authorities to search complex related and unrelated
    large data sets available in different data sources or in different data formats in
    order to identify unknown patterns or discover hidden relationships in the data.
    7. Migration, asylum and border control management:
    (a) AI systems intended to be used by competent public authorities as polygraphs
    and similar tools or to detect the emotional state of a natural person;
    (b) AI systems intended to be used by competent public authorities to assess a risk,
    including a security risk, a risk of irregular immigration, or a health risk, posed
    by a natural person who intends to enter or has entered into the territory of a
    Member State;
    (c) AI systems intended to be used by competent public authorities for the
    verification of the authenticity of travel documents and supporting
    documentation of natural persons and detect non-authentic documents by
    checking their security features;
    (d) AI systems intended to assist competent public authorities for the examination
    of applications for asylum, visa and residence permits and associated
    complaints with regard to the eligibility of the natural persons applying for a
    status.
    8. Administration of justice and democratic processes:
    (a) AI systems intended to assist a judicial authority in researching and
    interpreting facts and the law and in applying the law to a concrete set of facts.
    EN 6 EN
    ANNEX IV
    TECHNICAL DOCUMENTATION referred to in Article 11(1)
    The technical documentation referred to in Article 11(1) shall contain at least the following
    information, as applicable to the relevant AI system:
    1. A general description of the AI system including:
    (a) its intended purpose, the person/s developing the system the date and the
    version of the system;
    (b) how the AI system interacts or can be used to interact with hardware or
    software that is not part of the AI system itself, where applicable;
    (c) the versions of relevant software or firmware and any requirement related to
    version update;
    (d) the description of all forms in which the AI system is placed on the market or
    put into service;
    (e) the description of hardware on which the AI system is intended to run;
    (f) where the AI system is a component of products, photographs or illustrations
    showing external features, marking and internal layout of those products;
    (g) instructions of use for the user and, where applicable installation instructions;
    2. A detailed description of the elements of the AI system and of the process for its
    development, including:
    (a) the methods and steps performed for the development of the AI system,
    including, where relevant, recourse to pre-trained systems or tools provided by
    third parties and how these have been used, integrated or modified by the
    provider;
    (b) the design specifications of the system, namely the general logic of the AI
    system and of the algorithms; the key design choices including the rationale
    and assumptions made, also with regard to persons or groups of persons on
    which the system is intended to be used; the main classification choices; what
    the system is designed to optimise for and the relevance of the different
    parameters; the decisions about any possible trade-off made regarding the
    technical solutions adopted to comply with the requirements set out in Title III,
    Chapter 2;
    (c) the description of the system architecture explaining how software components
    build on or feed into each other and integrate into the overall processing; the
    computational resources used to develop, train, test and validate the AI system;
    (d) where relevant, the data requirements in terms of datasheets describing the
    training methodologies and techniques and the training data sets used,
    including information about the provenance of those data sets, their scope and
    main characteristics; how the data was obtained and selected; labelling
    procedures (e.g. for supervised learning), data cleaning methodologies (e.g.
    outliers detection);
    (e) assessment of the human oversight measures needed in accordance with Article
    14, including an assessment of the technical measures needed to facilitate the
    interpretation of the outputs of AI systems by the users, in accordance with
    Articles 13(3)(d);
    EN 7 EN
    (f) where applicable, a detailed description of pre-determined changes to the AI
    system and its performance, together with all the relevant information related
    to the technical solutions adopted to ensure continuous compliance of the AI
    system with the relevant requirements set out in Title III, Chapter 2;
    (g) the validation and testing procedures used, including information about the
    validation and testing data used and their main characteristics; metrics used to
    measure accuracy, robustness, cybersecurity and compliance with other
    relevant requirements set out in Title III, Chapter 2 as well as potentially
    discriminatory impacts; test logs and all test reports dated and signed by the
    responsible persons, including with regard to pre-determined changes as
    referred to under point (f).
    3. Detailed information about the monitoring, functioning and control of the AI system,
    in particular with regard to: its capabilities and limitations in performance, including
    the degrees of accuracy for specific persons or groups of persons on which the
    system is intended to be used and the overall expected level of accuracy in relation to
    its intended purpose; the foreseeable unintended outcomes and sources of risks to
    health and safety, fundamental rights and discrimination in view of the intended
    purpose of the AI system; the human oversight measures needed in accordance with
    Article 14, including the technical measures put in place to facilitate the
    interpretation of the outputs of AI systems by the users; specifications on input data,
    as appropriate;
    4. A detailed description of the risk management system in accordance with Article 9;
    5. A description of any change made to the system through its lifecycle;
    6. A list of the harmonised standards applied in full or in part the references of which
    have been published in the Official Journal of the European Union; where no such
    harmonised standards have been applied, a detailed description of the solutions
    adopted to meet the requirements set out in Title III, Chapter 2, including a list of
    other relevant standards and technical specifications applied;
    7. A copy of the EU declaration of conformity;
    8. A detailed description of the system in place to evaluate the AI system performance
    in the post-market phase in accordance with Article 61, including the post-market
    monitoring plan referred to in Article 61(3).
    EN 8 EN
    ANNEX V
    EU DECLARATION OF CONFORMITY
    The EU declaration of conformity referred to in Article 48, shall contain all of the following
    information:
    1. AI system name and type and any additional unambiguous reference allowing
    identification and traceability of the AI system;
    2. Name and address of the provider or, where applicable, their authorised
    representative;
    3. A statement that the EU declaration of conformity is issued under the sole
    responsibility of the provider;
    4. A statement that the AI system in question is in conformity with this Regulation and,
    if applicable, with any other relevant Union legislation that provides for the issuing
    of an EU declaration of conformity;
    5. References to any relevant harmonised standards used or any other common
    specification in relation to which conformity is declared;
    6. Where applicable, the name and identification number of the notified body, a
    description of the conformity assessment procedure performed and identification of
    the certificate issued;
    7. Place and date of issue of the declaration, name and function of the person who
    signed it as well as an indication for, and on behalf of whom, that person signed,
    signature.
    EN 9 EN
    ANNEX VI
    CONFORMITY ASSESSMENT PROCEDURE BASED ON INTERNAL CONTROL
    1. The conformity assessment procedure based on internal control is the conformity
    assessment procedure based on points 2 to 4.
    2. The provider verifies that the established quality management system is in
    compliance with the requirements of Article 17.
    3. The provider examines the information contained in the technical documentation in
    order to assess the compliance of the AI system with the relevant essential
    requirements set out in Title III, Chapter 2.
    4. The provider also verifies that the design and development process of the AI system
    and its post-market monitoring as referred to in Article 61 is consistent with the
    technical documentation.
    EN 10 EN
    ANNEX VII
    CONFORMITY BASED ON ASSESSMENT OF QUALITY MANAGEMENT
    SYSTEM AND ASSESSMENT OF TECHNICAL DOCUMENTATION
    1. Introduction
    Conformity based on assessment of quality management system and assessment of
    the technical documentation is the conformity assessment procedure based on points
    2 to 5.
    2. Overview
    The approved quality management system for the design, development and testing of
    AI systems pursuant to Article 17 shall be examined in accordance with point 3 and
    shall be subject to surveillance as specified in point 5. The technical documentation
    of the AI system shall be examined in accordance with point 4.
    3. Quality management system
    3.1. The application of the provider shall include:
    (a) the name and address of the provider and, if the application is lodged by the
    authorised representative, their name and address as well;
    (b) the list of AI systems covered under the same quality management system;
    (c) the technical documentation for each AI system covered under the same quality
    management system;
    (d) the documentation concerning the quality management system which shall
    cover all the aspects listed under Article 17;
    (e) a description of the procedures in place to ensure that the quality management
    system remains adequate and effective;
    (f) a written declaration that the same application has not been lodged with any
    other notified body.
    3.2. The quality management system shall be assessed by the notified body, which shall
    determine whether it satisfies the requirements referred to in Article 17.
    The decision shall be notified to the provider or its authorised representative.
    The notification shall contain the conclusions of the assessment of the quality
    management system and the reasoned assessment decision.
    3.3. The quality management system as approved shall continue to be implemented and
    maintained by the provider so that it remains adequate and efficient.
    3.4. Any intended change to the approved quality management system or the list of AI
    systems covered by the latter shall be brought to the attention of the notified body by
    the provider.
    The proposed changes shall be examined by the notified body, which shall decide
    whether the modified quality management system continues to satisfy the
    requirements referred to in point 3.2 or whether a reassessment is necessary.
    The notified body shall notify the provider of its decision. The notification shall
    contain the conclusions of the examination of the changes and the reasoned
    assessment decision.
    4. Control of the technical documentation.
    EN 11 EN
    4.1. In addition to the application referred to in point 3, an application with a notified
    body of their choice shall be lodged by the provider for the assessment of the
    technical documentation relating to the AI system which the provider intends to
    place on the market or put into service and which is covered by the quality
    management system referred to under point 3.
    4.2. The application shall include:
    (a) the name and address of the provider;
    (b) a written declaration that the same application has not been lodged with any
    other notified body;
    (c) the technical documentation referred to in Annex IV.
    4.3. The technical documentation shall be examined by the notified body. To this
    purpose, the notified body shall be granted full access to the training and testing
    datasets used by the provider, including through application programming interfaces
    (API) or other appropriate means and tools enabling remote access.
    4.4. In examining the technical documentation, the notified body may require that the
    provider supplies further evidence or carries out further tests so as to enable a proper
    assessment of conformity of the AI system with the requirements set out in Title III,
    Chapter 2. Whenever the notified body is not satisfied with the tests carried out by
    the provider, the notified body shall directly carry out adequate tests, as appropriate.
    4.5. Where necessary to assess the conformity of the high-risk AI system with the
    requirements set out in Title III, Chapter 2 and upon a reasoned request, the notified
    body shall also be granted access to the source code of the AI system.
    4.6. The decision shall be notified to the provider or its authorised representative. The
    notification shall contain the conclusions of the assessment of the technical
    documentation and the reasoned assessment decision.
    Where the AI system is in conformity with the requirements set out in Title III,
    Chapter 2, an EU technical documentation assessment certificate shall be issued by
    the notified body. The certificate shall indicate the name and address of the provider,
    the conclusions of the examination, the conditions (if any) for its validity and the
    data necessary for the identification of the AI system.
    The certificate and its annexes shall contain all relevant information to allow the
    conformity of the AI system to be evaluated, and to allow for control of the AI
    system while in use, where applicable.
    Where the AI system is not in conformity with the requirements set out in Title III,
    Chapter 2, the notified body shall refuse to issue an EU technical documentation
    assessment certificate and shall inform the applicant accordingly, giving detailed
    reasons for its refusal.
    Where the AI system does not meet the requirement relating to the data used to train
    it, re-training of the AI system will be needed prior to the application for a new
    conformity assessment. In this case, the reasoned assessment decision of the notified
    body refusing to issue the EU technical documentation assessment certificate shall
    contain specific considerations on the quality data used to train the AI system,
    notably on the reasons for non-compliance.
    4.7. Any change to the AI system that could affect the compliance of the AI system with
    the requirements or its intended purpose shall be approved by the notified body
    EN 12 EN
    which issued the EU technical documentation assessment certificate. The provider
    shall inform such notified body of its intention to introduce any of the above-
    mentioned changes or if it becomes otherwise aware of the occurrence of such
    changes. The intended changes shall be assessed by the notified body which shall
    decide whether those changes require a new conformity assessment in accordance
    with Article 43(4) or whether they could be addressed by means of a supplement to
    the EU technical documentation assessment certificate. In the latter case, the notified
    body shall assess the changes, notify the provider of its decision and, where the
    changes are approved, issue to the provider a supplement to the EU technical
    documentation assessment certificate.
    5. Surveillance of the approved quality management system.
    5.1. The purpose of the surveillance carried out by the notified body referred to in Point 3
    is to make sure that the provider duly fulfils the terms and conditions of the approved
    quality management system.
    5.2. For assessment purposes, the provider shall allow the notified body to access the
    premises where the design, development, testing of the AI systems is taking place.
    The provider shall further share with the notified body all necessary information.
    5.3. The notified body shall carry out periodic audits to make sure that the provider
    maintains and applies the quality management system and shall provide the provider
    with an audit report. In the context of those audits, the notified body may carry out
    additional tests of the AI systems for which an EU technical documentation
    assessment certificate was issued.
    EN 13 EN
    ANNEX VIII
    INFORMATION TO BE SUBMITTED UPON THE REGISTRATION OF HIGH-
    RISK AI SYSTEMS IN ACCORDANCE WITH ARTICLE 51
    The following information shall be provided and thereafter kept up to date with regard to
    high-risk AI systems to be registered in accordance with Article 51.
    1. Name, address and contact details of the provider;
    2. Where submission of information is carried out by another person on behalf of the
    provider, the name, address and contact details of that person;
    3. Name, address and contact details of the authorised representative, where applicable;
    4. AI system trade name and any additional unambiguous reference allowing
    identification and traceability of the AI system;
    5. Description of the intended purpose of the AI system;
    6. Status of the AI system (on the market, or in service; no longer placed on the
    market/in service, recalled);
    7. Type, number and expiry date of the certificate issued by the notified body and the
    name or identification number of that notified body, when applicable;
    8. A scanned copy of the certificate referred to in point 7, when applicable;
    9. Member States in which the AI system is or has been placed on the market, put into
    service or made available in the Union;
    10. A copy of the EU declaration of conformity referred to in Article 48;
    11. Electronic instructions for use; this information shall not be provided for high-risk AI
    systems in the areas of law enforcement and migration, asylum and border control
    management referred to in Annex III, points 1, 6 and 7.
    12. URL for additional information (optional).
    EN 14 EN
    ANNEX IX
    UNION LEGISLATION ON LARGE-SCALE IT SYSTEMS IN THE AREA OF
    FREEDOM, SECURITY AND JUSTICE
    1. Schengen Information System
    (a) Regulation (EU) 2018/1860 of the European Parliament and of the Council of
    28 November 2018 on the use of the Schengen Information System for the
    return of illegally staying third-country nationals (OJ L 312, 7.12.2018, p. 1).
    (b) Regulation (EU) 2018/1861 of the European Parliament and of the Council of
    28 November 2018 on the establishment, operation and use of the Schengen
    Information System (SIS) in the field of border checks, and amending the
    Convention implementing the Schengen Agreement, and amending and
    repealing Regulation (EC) No 1987/2006 (OJ L 312, 7.12.2018, p. 14)
    (c) Regulation (EU) 2018/1862 of the European Parliament and of the Council of
    28 November 2018 on the establishment, operation and use of the Schengen
    Information System (SIS) in the field of police cooperation and judicial
    cooperation in criminal matters, amending and repealing Council Decision
    2007/533/JHA, and repealing Regulation (EC) No 1986/2006 of the European
    Parliament and of the Council and Commission Decision 2010/261/EU (OJ L
    312, 7.12.2018, p. 56).
    2. Visa Information System
    (a) Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND
    OF THE COUNCIL amending Regulation (EC) No 767/2008, Regulation (EC)
    No 810/2009, Regulation (EU) 2017/2226, Regulation (EU) 2016/399,
    Regulation XX/2018 [Interoperability Regulation], and Decision 2004/512/EC
    and repealing Council Decision 2008/633/JHA - COM(2018) 302 final. To be
    updated once the Regulation is adopted (April/May 2021) by the co-legislators.
    3. Eurodac
    (a) Amended proposal for a REGULATION OF THE EUROPEAN
    PARLIAMENT AND OF THE COUNCIL on the establishment of 'Eurodac'
    for the comparison of biometric data for the effective application of Regulation
    (EU) XXX/XXX [Regulation on Asylum and Migration Management] and of
    Regulation (EU) XXX/XXX [Resettlement Regulation], for identifying an
    illegally staying third-country national or stateless person and on requests for
    the comparison with Eurodac data by Member States' law enforcement
    authorities and Europol for law enforcement purposes and amending
    Regulations (EU) 2018/1240 and (EU) 2019/818 – COM(2020) 614 final.
    4. Entry/Exit System
    (a) Regulation (EU) 2017/2226 of the European Parliament and of the Council of
    30 November 2017 establishing an Entry/Exit System (EES) to register entry
    and exit data and refusal of entry data of third-country nationals crossing the
    external borders of the Member States and determining the conditions for
    access to the EES for law enforcement purposes, and amending the Convention
    implementing the Schengen Agreement and Regulations (EC) No 767/2008
    and (EU) No 1077/2011 (OJ L 327, 9.12.2017, p. 20).
    5. European Travel Information and Authorisation System
    EN 15 EN
    (a) Regulation (EU) 2018/1240 of the European Parliament and of the Council of
    12 September 2018 establishing a European Travel Information and
    Authorisation System (ETIAS) and amending Regulations (EU) No 1077/2011,
    (EU) No 515/2014, (EU) 2016/399, (EU) 2016/1624 and (EU) 2017/2226 (OJ
    L 236, 19.9.2018, p. 1).
    (b) Regulation (EU) 2018/1241 of the European Parliament and of the Council of
    12 September 2018 amending Regulation (EU) 2016/794 for the purpose of
    establishing a European Travel Information and Authorisation System (ETIAS)
    (OJ L 236, 19.9.2018, p. 72).
    6. European Criminal Records Information System on third-country nationals and
    stateless persons
    (a) Regulation (EU) 2019/816 of the European Parliament and of the Council of 17
    April 2019 establishing a centralised system for the identification of Member
    States holding conviction information on third-country nationals and stateless
    persons (ECRIS-TCN) to supplement the European Criminal Records
    Information System and amending Regulation (EU) 2018/1726 (OJ L 135,
    22.5.2019, p. 1).
    7. Interoperability
    (a) Regulation (EU) 2019/817 of the European Parliament and of the Council of 20
    May 2019 on establishing a framework for interoperability between EU
    information systems in the field of borders and visa (OJ L 135, 22.5.2019, p.
    27).
    (b) Regulation (EU) 2019/818 of the European Parliament and of the Council of 20
    May 2019 on establishing a framework for interoperability between EU
    information systems in the field of police and judicial cooperation, asylum and
    migration (OJ L 135, 22.5.2019, p. 85).
    EN 16 EN
    

    1_DA_ACT_part1_v2.pdf

    https://www.ft.dk/samling/20211/kommissionsforslag/kom(2021)0206/forslag/1773316/2410668.pdf

    DA DA
    EUROPA-
    KOMMISSIONEN
    Bruxelles, den 21.4.2021
    COM(2021) 206 final
    2021/0106 (COD)
    Forslag til
    EUROPA-PARLAMENTETS OG RÅDETS FORORDNING
    OM HARMONISEREDE REGLER FOR KUNSTIG INTELLIGENS (RETSAKTEN
    OM KUNSTIG INTELLIGENS) OG OM ÆNDRING AF VISSE AF UNIONENS
    LOVGIVNINGSMÆSSIGE RETSAKTER
    {SEC(2021) 167 final} - {SWD(2021) 84 final} - {SWD(2021) 85 final}
    Europaudvalget 2021
    KOM (2021) 0206 - Forslag til forordning
    Offentligt
    DA 1 DA
    BEGRUNDELSE
    1. BAGGRUND FOR FORSLAGET
    1.1. Forslagets begrundelse og formål
    Denne begrundelse ledsager forslaget til forordning om harmoniserede regler for kunstig
    intelligens (retsakten om kunstig intelligens). Kunstig intelligens (AI) er en vifte af
    teknologier i hurtig udvikling, som kan medføre brede økonomiske og samfundsmæssige
    fordele på tværs af hele spektret af industrier og sociale aktiviteter. Ved at forbedre prognoser,
    optimere drift og ressourceallokering og personalisere leveringen af tjenester kan anvendelsen
    af kunstig intelligens fremme sociale og miljømæssige fremskridt og give virksomhederne og
    den europæiske økonomi afgørende konkurrencemæssige fordele. Der er især behov for en
    sådan indsats inden for vigtige sektorer, herunder klimaændringer, miljø og sundhed, den
    offentlige sektor, finans, mobilitet, indre anliggender og landbrug. De samme elementer og
    teknikker, der skaber de socioøkonomiske fordele ved kunstig intelligens, kan imidlertid også
    medføre nye risici eller negative konsekvenser for enkeltpersoner eller samfundet. I lyset af
    den hurtige teknologiske udvikling og de mulige udfordringer er EU fast besluttet på at stræbe
    efter en afbalanceret tilgang. Det er i Unionens interesse at bevare EU's teknologiske
    førerposition og sikre, at europæerne kan drage fordel af nye teknologier, der udvikles og som
    fungerer i overensstemmelse med Unionens værdier, grundlæggende rettigheder og
    principper.
    Dette forslag lever op til det politiske tilsagn fra kommissionsformand Ursula von der Leyen,
    som i sine politiske retningslinjer for Kommissionen for 2019-2024 "En mere ambitiøs
    Union"1
    bebudede, at Kommissionen ville fremsætte forslag til lovgivning om en koordineret
    europæisk tilgang til de menneskelige og etiske konsekvenser af kunstig intelligens. I
    forlængelse heraf offentliggjorde Kommissionen den 19. februar 2020 "Hvidbog om kunstig
    intelligens – en europæisk tilgang til ekspertise og tillid"2
    . Hvidbogen indeholder politiske
    valgmuligheder, der har til formål både at fremme anvendelsen af kunstig intelligens og at
    håndtere de risici, der er forbundet med visse anvendelser af denne teknologi. Sigtet med dette
    forslag er at gennemføre den anden målsætning om udvikling af et tillidsmiljø ved at foreslå
    en retlig ramme for pålidelig kunstig intelligens. Forslaget er baseret på EU's værdier og
    grundlæggende rettigheder og har til formål at give brugere og befolkningen i bred forstand
    tillid til at anvende AI-baserede løsninger, samtidig med at virksomhederne tilskyndes til at
    udvikle dem. Kunstig intelligens bør være et redskab, der tjener mennesker og udgør en
    positiv kraft i samfundet med det endelige mål at øge menneskers velfærd. Regler for kunstig
    intelligens, der vedrører EU-markedet eller på anden måde påvirker mennesker i Unionen, bør
    derfor være menneskecentrerede, således at folk kan have tillid til, at teknologien anvendes på
    en måde, der er sikker og i overensstemmelse med lovgivningen, herunder respekten for de
    grundlæggende rettigheder. Efter offentliggørelsen af hvidbogen iværksatte Kommissionen en
    bred interessenthøring, som blev mødt med stor interesse af en lang række interessenter, som i
    vid udstrækning støttede regulerende indgreb til imødegåelse af de udfordringer og
    bekymringer, som den stigende brug af kunstig intelligens giver anledning til.
    Med forslaget imødekommes også eksplicitte anmodninger fra Europa-Parlamentet og Det
    Europæiske Råd, som gentagne gange har opfordret til lovgivningsmæssige tiltag for at sikre
    et velfungerende indre marked for kunstig intelligens-systemer ("AI-systemer"), hvor både
    1
    https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_da.pdf.
    2
    Europa-Kommissionen, Hvidbog om kunstig intelligens - en europæisk tilgang til ekspertise og tillid
    (COM (2020) 65 final).
    DA 2 DA
    fordele og risici ved kunstig intelligens håndteres tilfredsstillende på EU-plan. Hermed støttes
    målet om, at Unionen skal være førende på verdensplan inden for udvikling af sikker,
    pålidelig og etisk kunstig intelligens som anført af Det Europæiske Råd3
    , og der sikres
    beskyttelse af etiske principper, som Europa-Parlamentet specifikt har anmodet om4
    .
    I 2017 opfordrede Det Europæiske Råd til "en erkendelse af, at det haster med at se nærmere
    på nye tendenser", herunder "spørgsmål som kunstig intelligens ..., samtidig med at der sikres
    et højt niveau af databeskyttelse, digitale rettigheder og etiske standarder."5
    I sine
    konklusioner fra 2019 om den koordinerede plan for udviklingen og anvendelsen af kunstig
    intelligens produceret i Europa6
    fremhævede Rådet endvidere betydningen af at sikre, at de
    europæiske borgeres rettigheder respekteres fuldt ud, og opfordrede til en revision af den
    relevante lovgivning for at gøre den egnet til formålet med de nye muligheder og
    udfordringer, der skyldes kunstig intelligens. Det Europæiske Råd har også opfordret til en
    klar definition af de AI-anvendelser, der bør betragtes som højrisiko-anvendelser7
    .
    I de seneste konklusioner af 21. oktober 2020 opfordres der endvidere til at tackle visse AI-
    systemers uigennemsigtighed, kompleksitet, forudindtagethed, en vis grad af uforudsigelighed
    og delvis autonome adfærd for at sikre, at de er forenelige med de grundlæggende rettigheder
    og for at lette håndhævelsen af retsforskrifter8
    .
    Europa-Parlamentet har også ydet en betydelig indsats i forbindelse med kunstig intelligens. I
    oktober 2020 vedtog det en række beslutninger vedrørende kunstig intelligens, herunder om
    etik9
    , ansvar10
    og ophavsret11
    . I 2021 blev disse efterfulgt af resolutioner om brugen af
    kunstig intelligens i straffesager12
    og inden for uddannelse, kultur og den audiovisuelle
    sektor13
    . Europa-Parlamentets beslutning om en ramme for etiske aspekter af kunstig
    intelligens, robotteknologi og relaterede teknologier anbefaler specifikt Kommissionen at
    foreslå lovgivningsmæssige tiltag for at udnytte mulighederne og fordelene ved kunstig
    intelligens, men også for at sikre beskyttelse af etiske principper. Beslutningen indeholder en
    tekst til det lovgivningsmæssige forslag til en forordning om etiske principper for udvikling,
    3
    Det Europæiske Råd, Ekstraordinært møde i Det Europæiske Råd (1. og 2. oktober 2020) −
    Konklusioner, EUCO 13/20, 2020, s. 6.
    4
    Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en ramme
    for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier, 2020/2012(INL).
    5
    Det Europæiske Råd, Møde i Det Europæiske Råd (19. oktober 2017) − Konklusioner, EUCO 14/17,
    2017, s. 8.
    6
    Rådet for Den Europæiske Union, Kunstig intelligens b) Konklusioner om en koordineret plan for
    kunstig intelligens - Vedtagelse 6177/19, 2019.
    7
    Det Europæiske Råd, Ekstraordinært møde i Det Europæiske Råd (1. og 2. oktober 2020) −
    Konklusioner, EUCO 13/20, 2020.
    8
    Rådet for Den Europæiske Union, Formandskabets konklusioner – Chartret om grundlæggende
    rettigheder i forbindelse med kunstig intelligens og digital forandring, 11481/20, 2020.
    9
    Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en ramme
    for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier, 2020/2012(INL).
    10
    Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en
    civilretlig erstatningsansvarsordning for kunstig intelligens, 2020/2014(INL).
    11
    Europa-Parlamentets beslutning af 20. oktober 2020 om intellektuel ejendomsret i forbindelse med
    udvikling af teknologier vedrørende kunstig intelligens, 2020/2015(INI).
    12
    Europa-Parlamentet. Udkast til betænkning om kunstig intelligens inden for strafferet og politiets og de
    retlige myndigheders anvendelse heraf i strafferetlige sager, 2020/2016(INI).
    13
    Europa-Parlamentet. Udkast til betænkning om kunstig intelligens inden for uddannelse, kultur og den
    audiovisuelle sektor 2020/2017(INI). I den forbindelse har Kommissionen vedtaget handlingsplanen for
    digital uddannelse 2021-2027: Omstilling af uddannelsessystemerne med henblik på den digitale
    tidsalder, som forudsætter udviklingen af etiske retningslinjer for AI og anvendelsen af data i
    undervisning — COM(2020) 624 final.
    DA 3 DA
    udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier. I
    overensstemmelse med det politiske tilsagn, som kommissionsformand Ursula von der Leyen
    gav i sine politiske retningslinjer for så vidt angår beslutninger vedtaget af Europa-
    Parlamentet i henhold til artikel 225 i TEUF, tager dette forslag hensyn til Europa-
    Parlamentets ovennævnte beslutning i fuld overensstemmelse med proportionalitetsprincippet,
    nærhedsprincippet og princippet om bedre lovgivning.
    På denne politiske baggrund fremlægger Kommissionen den foreslåede lovgivningsmæssige
    ramme for kunstig intelligens med følgende specifikke mål:
     at sørge for, at AI-systemer, der bringes i omsætning og anvendes på EU-
    markedet, er sikre og i overensstemmelse med eksisterende lovgivning om
    grundlæggende rettigheder og Unionens værdier
     at sikre retssikkerheden med henblik på at fremme investering og innovation
    inden for kunstig intelligens
     at forbedre forvaltning og effektiv håndhævelse af den eksisterende lovgivning
    om grundlæggende rettigheder og sikkerhedskrav til AI-systemer
     at fremme udviklingen af et indre marked for lovlige, sikre og pålidelige AI-
    anvendelser og forhindre markedsfragmentering.
    For at nå disse mål indeholder dette forslag en afbalanceret og forholdsmæssigt afpasset
    horisontal lovgivningsmæssig tilgang til kunstig intelligens, som er begrænset til de
    mindstekrav, der er nødvendige for at håndtere de risici og problemer, der er forbundet med
    kunstig intelligens, uden unødigt at begrænse eller hindre den teknologiske udvikling eller på
    anden måde uforholdsmæssigt øge omkostningerne ved at omsætte AI-løsninger. Med
    forslaget fastlægges en robust og fleksibel retlig ramme. På den ene side er det omfattende og
    fremtidssikret med hensyn til de grundlæggende lovgivningsmæssige valg, herunder de
    principbaserede krav, som AI-systemer bør overholde. På den anden side indføres der et
    proportionalt reguleringssystem, der er baseret på en veldefineret risikobaseret
    reguleringstilgang, som ikke skaber unødvendige handelsrestriktioner, hvorved retlig
    indgriben er skræddersyet til de konkrete situationer, hvor der er en berettiget grund til
    bekymring, eller hvor en sådan bekymring med rimelighed kan forventes i den nærmeste
    fremtid. Samtidig indeholder de retlige rammer fleksible mekanismer, der gør det muligt at
    tilpasse dem dynamisk, efterhånden som teknologien udvikler sig og nye problemstillinger
    opstår.
    Følgende en proportional risikobaseret tilgang fastsættes der med forslaget harmoniserede
    regler for udvikling, markedsføring og anvendelse af AI-systemer i Unionen. Der foreslås en
    enkelt fremtidssikret definition af kunstig intelligens. Visse særligt skadelige former for AI-
    praksis forbydes som værende i strid med Unionens værdier, mens der foreslås specifikke
    restriktioner og sikkerhedsforanstaltninger i forbindelse med visse anvendelser af systemer til
    biometrisk fjernidentifikation med henblik på retshåndhævelse. I forslaget fastsættes en robust
    metode til definition af "højrisiko-AI-systemer", som udgør en betydelig risiko for
    menneskers sundhed og sikkerhed eller grundlæggende rettigheder. Disse AI-systemer skal
    opfylde et sæt horisontale obligatoriske krav til pålidelig kunstig intelligens og der skal følges
    en procedure for overensstemmelsesvurdering, inden disse systemer kan bringes i omsætning
    på EU-markedet. Udbydere og brugere af disse systemer pålægges også gennemskuelige,
    proportionale og klare forpligtelser til at garantere sikkerhed og overholdelse af eksisterende
    lovgivning, der beskytter de grundlæggende rettigheder, i hele AI-systemets livscyklus. For
    visse specifikke AI-systemer foreslås der kun minimale gennemsigtighedsforpligtelser,
    navnlig ved anvendelse af chatbots eller "deep fakes".
    DA 4 DA
    De foreslåede regler vil blive håndhævet gennem et forvaltningssystem på medlemsstatsplan,
    der bygger på allerede eksisterende strukturer, og en samarbejdsmekanisme på EU-plan med
    oprettelsen af Det Europæiske Udvalg for Kunstig Intelligens. Der foreslås også yderligere
    foranstaltninger til støtte for innovation, navnlig gennem reguleringsmæssige sandkasser for
    kunstig intelligens og andre foranstaltninger til at mindske regelbyrden og støtte små og
    mellemstore virksomheder (SMV'er) og startup-virksomheder.
    1.2. Sammenhæng med de gældende regler på samme område
    Forslagets horisontale karakter kræver fuld overensstemmelse med eksisterende EU-
    lovgivning, der finder anvendelse på sektorer, hvor der allerede anvendes eller sandsynligvis
    vil blive anvendt højrisiko-AI-systemer i den nærmeste fremtid.
    Der sikres også overensstemmelse med EU's charter om grundlæggende rettigheder og den
    eksisterende afledte EU-lovgivning om databeskyttelse, forbrugerbeskyttelse,
    ikkeforskelsbehandling og ligestilling mellem kønnene. Forslaget berører ikke den generelle
    forordning om databeskyttelse (forordning (EU) 2016/679) og retshåndhævelsesdirektivet
    (direktiv (EU) 2016/680), men supplerer disse med et sæt harmoniserede regler for
    udformning, udvikling og anvendelse af visse højrisiko-AI-systemer og begrænsninger for
    visse anvendelser af systemer til biometrisk fjernidentifikation. Forslaget supplerer desuden
    den eksisterende EU-lovgivning om ikkeforskelsbehandling med specifikke krav, der har til
    formål at minimere risikoen for algoritmisk forskelsbehandling, navnlig i forbindelse med
    udformningen og kvaliteten af de datasæt, der anvendes til udvikling af AI-systemer,
    suppleret med krav om testning, risikostyring, dokumentation og menneskeligt tilsyn i hele
    AI-systemernes livscyklus. Forslaget berører ikke anvendelsen af EU-konkurrenceretten.
    For så vidt angår højrisiko-AI-systemer, der indgår som sikkerhedskomponenter i produkter,
    vil dette forslag blive integreret i den eksisterende sektorspecifikke sikkerhedslovgivning for
    at sikre konsekvens, undgå overlap og minimere yderligere byrder. Navnlig for så vidt angår
    højrisiko-AI-systemer i forbindelse med produkter, der er omfattet af lovgivning under den
    nye lovgivningsmæssige ramme (f.eks. maskiner, medicinsk udstyr, legetøj), vil de krav til
    AI-systemer, der er fastsat i dette forslag, blive kontrolleret som led i de eksisterende
    procedurer for overensstemmelsesvurdering i henhold til den relevante lovgivning under den
    nye lovgivningsmæssige ramme. Hvad angår samspillet mellem kravene, er det meningen, at
    de sikkerhedsrisici, der er specifikke for AI-systemer, omfattes af kravene i dette forslag,
    mens lovgivning under den nye lovgivningsmæssige ramme har til formål at sikre det
    endelige produkts samlede sikkerhed og derfor kan indeholde specifikke krav vedrørende
    sikker integration af et AI-system i det endelige produkt. Forslaget til en maskinforordning,
    der vedtages samme dag som dette forslag, afspejler fuldt ud denne tilgang. For så vidt angår
    højrisiko-AI-systemer i forbindelse med produkter, der er omfattet af en relevant lovgivning
    efter den gamle metode (f.eks. luftfart og biler), finder dette forslag ikke direkte anvendelse.
    De forudgående væsentlige krav til højrisiko-AI-systemer, der er fastsat i dette forslag, skal
    der dog tages højde for når der vedtages relevant gennemførelseslovgivning eller delegeret
    lovgivning i henhold til disse retsakter.
    For så vidt angår AI-systemer, der leveres eller anvendes af regulerede kreditinstitutter, bør de
    myndigheder, der er ansvarlige for tilsynet med EU-lovgivningen om finansielle
    tjenesteydelser, udpeges som kompetente myndigheder til at føre tilsyn med kravene i dette
    forslag for at sikre en sammenhængende håndhævelse af forpligtelserne i henhold til dette
    forslag og Unionens lovgivning om finansielle tjenesteydelser, hvor AI-systemer til en vis
    grad er regulerede implicit i forhold til kreditinstitutternes interne forvaltningssystem. For
    yderligere at styrke sammenhængen er proceduren for overensstemmelsesvurdering og nogle
    af udbydernes proceduremæssige forpligtelser i henhold til dette forslag integreret i
    DA 5 DA
    procedurerne i direktiv 2013/36/EU om adgang til at udøve virksomhed som kreditinstitut og
    om tilsyn14
    .
    Dette forslag er også i overensstemmelse med den gældende EU-lovgivning om
    tjenesteydelser, herunder om formidlingstjenester, der er reguleret af direktiv 2000/31/EF15
    om elektronisk handel og Kommissionens nylige forslag til en retsakt om digitale tjenester16
    .
    For så vidt angår AI-systemer, der er komponenter til store IT-systemer inden for området
    med frihed, sikkerhed og retfærdighed, der forvaltes af Den Europæiske Unions Agentur for
    den Operationelle Forvaltning af Store IT-Systemer (eu-LISA), finder forslaget ikke
    anvendelse på de AI-systemer, der er bragt i omsætning eller taget i brug, før der er gået et år
    fra datoen for denne forordnings anvendelse, medmindre erstatningen eller ændringen af disse
    retsakter medfører en væsentlig ændring af det pågældende AI-systems eller -systemers
    design eller tilsigtede formål.
    1.3. Sammenhæng med Unionens politik på andre områder
    Forslaget er en del af en bredere omfattende pakke af foranstaltninger, der tager fat på de
    problemer, som udviklingen og anvendelsen af kunstig intelligens medfører, som behandlet i
    hvidbogen om kunstig intelligens. Der sikres derfor overensstemmelse og komplementaritet
    med andre igangværende eller planlagte initiativer fra Kommissionens side, som også tager
    fat på disse problemer, herunder revisionen af den sektorspecifikke produktlovgivning (f.eks.
    maskindirektivet og direktivet om produktsikkerhed i almindelighed) og initiativer, der
    omhandler ansvarsspørgsmål i forbindelse med nye teknologier, herunder AI-systemer. Disse
    initiativer bygger videre på og supplerer dette forslag med henblik på at skabe juridisk klarhed
    og fremme udviklingen af et tillidsmiljø i forbindelse med kunstig intelligens i Europa.
    Forslaget hænger også sammen med Kommissionens digitale strategi, idet det bidrager til at
    fremme teknologi, der tjener alle, som er en af de tre hovedsøjler til støtte for de politiske
    retningslinjer og målsætninger, der blev annonceret i meddelelsen om "Europas digitale
    fremtid i støbeskeen"17
    . Det fastlægger en sammenhængende, effektiv og proportional ramme
    for at sikre, at kunstig intelligens udvikles på måder, der respekterer borgernes rettigheder og
    fortjener deres tillid, gør Europa klar til den digitale tidsalder og omdanner de næste ti år til
    det digitale årti18
    .
    Desuden er fremme af AI-drevet innovation tæt forbundet med datastyringsforordningen19
    ,
    direktivet om åbne data20
    og andre initiativer under EU's strategi for data21
    , som vil
    14
    Europa-Parlamentets og Rådets direktiv 2013/36/EU af 26. juni 2013 om adgang til at udøve
    virksomhed som kreditinstitut og om tilsyn med kreditinstitutter og investeringsselskaber, om ændring
    af direktiv 2002/87/EF og om ophævelse af direktiv 2006/48/EF og 2006/49/EF (EUT L 176 af
    27.6.2013, s. 338).
    15
    Europa-Parlamentets og Rådets direktiv 2000/31/EF af 8. juni 2000 om visse retlige aspekter af
    informationssamfundstjenester, navnlig elektronisk handel, i det indre marked ("Direktivet om
    elektronisk handel") (EFT L 178 af 17.7.2000, s. 1).
    16
    Forslag til Europa-Parlamentets og Rådets forordning om et indre marked for digitale tjenester (retsakt
    om digitale tjenester) og om ændring af direktiv 2000/31/EF (COM(2020) 825 final).
    17
    Meddelelse fra Kommissionen: Europas digitale fremtid i støbeskeen, COM/2020/67 final.
    18
    kompas: den.
    19
    Forslag til Europa-Parlamentets og Rådets forordning om europæisk datastyring (forordning om
    datastyring), COM(2020) 767.
    20
    Europa-Parlamentets og Rådets direktiv (EU) 2019/1024 af 20. juni 2019 om åbne data og
    videreanvendelse af den offentlige sektors informationer PE/28/2019/REV/1 (EUT L 172 af 26.6.2019,
    s. 56).
    21
    Meddelelse om "En europæisk strategi for data", COM(2020) 66 final.
    DA 6 DA
    etablere pålidelige mekanismer og tjenester til videreanvendelse, udveksling og samling af
    data, som er afgørende for udviklingen af datadrevne AI-modeller af høj kvalitet.
    Forslaget styrker også i væsentlig grad Unionens rolle med hensyn til at bidrage til
    udformningen af globale normer og standarder og fremme pålidelig kunstig intelligens, der er
    i overensstemmelse med Unionens værdier og interesser. Den giver Unionen et stærkt
    grundlag for yderligere dialog med sine eksterne partnere, herunder tredjelande, og i
    internationale fora om spørgsmål vedrørende kunstig intelligens.
    2. RETSGRUNDLAG, NÆRHEDSPRINCIPPET OG
    PROPORTIONALITETSPRINCIPPET
    2.1. Retsgrundlag
    Retsgrundlaget for forslaget er først og fremmest artikel 114 i traktaten om Den Europæiske
    Unions funktionsmåde (TEUF), som indeholder bestemmelser om vedtagelse af
    foranstaltninger, der skal sikre det indre markeds oprettelse og funktion.
    Dette forslag udgør en central del af EU's strategi for et digitalt indre marked. Hovedformålet
    med dette forslag er at sikre et velfungerende indre marked ved at fastsætte harmoniserede
    regler, navnlig for udvikling, markedsføring på EU-markedet og brug af produkter og
    tjenester, der gør brug af AI-teknologier eller leveres som selvstændige AI-systemer. Nogle
    medlemsstater overvejer allerede nationale regler for at sikre, at kunstig intelligens er sikker,
    og at den udvikles og anvendes i overensstemmelse med forpligtelserne vedrørende
    grundlæggende rettigheder. Dette vil sandsynligvis medføre to hovedproblemer: i) en
    fragmentering af det indre marked på væsentlige punkter, navnlig vedrørende kravene til AI-
    produkter og -tjenester, deres markedsføring, deres anvendelse, ansvarsspørgsmål og de
    offentlige myndigheders tilsyn, og ii) den betydelige forringelse af retssikkerheden for både
    udbydere og brugere af AI-systemer med hensyn til, hvordan eksisterende og nye regler vil
    finde anvendelse på disse systemer inden for Unionen. I betragtning af den omfattende
    bevægelighed af varer og tjenesteydelser på tværs af grænserne kan disse to problemer bedst
    løses gennem harmonisering af lovgivningen på EU-plan.
    Ved forslaget fastlægges der således vedrørende udformningen og udviklingen af visse AI-
    systemer, inden de bringes i omsætning, fælles obligatoriske krav, som vil blive gjort
    yderligere operationelle gennem harmoniserede tekniske standarder. Der tages også højde for
    situationer, efter at AI-systemer er blevet bragt i omsætning, ved at harmonisere den måde,
    hvorpå efterfølgende kontrol gennemføres.
    I betragtning af at dette forslag indeholder visse specifikke regler om beskyttelse af fysiske
    personer i forbindelse med behandling af personoplysninger, navnlig begrænsninger i
    anvendelsen af AI-systemer til biometrisk fjernidentifikation i realtid på offentlige steder med
    henblik på retshåndhævelse, er det desuden hensigtsmæssigt at basere denne forordning på
    artikel 16 i TEUF for så vidt angår disse specifikke regler.
    2.2. Nærhedsprincippet (for områder, der ikke er omfattet af enekompetence)
    Eftersom kunstig intelligens ofte afhænger af store og varierede datasæt, og kan være indlejret
    i ethvert produkt eller tjeneste, der cirkulerer frit på det indre marked, kan målene med dette
    forslag ikke opfyldes effektivt af medlemsstaterne alene. Desuden vil et kludetæppe af
    potentielt divergerende nationale regler forhindre produkter og tjenester i forbindelse med AI-
    systemer i at cirkulere gnidningsløst i hele EU og vil være ineffektivt med hensyn til at
    garantere sikkerheden og beskyttelsen af de grundlæggende rettigheder og Unionens værdier i
    de forskellige medlemsstater. Nationale tilgange til løsning af problemerne vil kun skabe
    DA 7 DA
    yderligere retsusikkerhed og hindringer og vil forsinke markedsaccepten af kunstig
    intelligens.
    Målene med dette forslag kan bedre nås på EU-plan for at undgå en yderligere opsplitning af
    det indre marked i potentielt modstridende nationale rammer, der forhindrer fri bevægelighed
    for varer og tjenesteydelser, der integrerer kunstig intelligens. En solid europæisk
    lovgivningsmæssig ramme for pålidelig kunstig intelligens vil også sikre lige vilkår og
    beskytte alle borgere samt styrke Europas konkurrenceevne og industrielle grundlag inden for
    kunstig intelligens. Kun fælles handling på EU-plan kan også beskytte Unionens digitale
    suverænitet og udnytte dens redskaber og lovgivningsmæssige beføjelser til at forme globale
    regler og standarder.
    2.3. Proportionalitetsprincippet
    Forslaget bygger på eksisterende retlige rammer og er rimeligt og nødvendigt for at nå
    målene, da det følger en risikobaseret tilgang og kun pålægger reguleringsmæssige byrder, når
    et AI-system sandsynligvis vil udgøre en stor risiko for grundlæggende rettigheder og
    sikkerhed. For andre AI-systemer, der ikke er højrisikosystemer, pålægges der kun meget
    begrænsede gennemsigtighedsforpligtelser, f.eks. med hensyn til markering af et AI-system,
    når det bruges til at interagere med mennesker. For højrisiko-AI-systemer er kravene om data
    af høj kvalitet, dokumentation og sporbarhed, gennemsigtighed, menneskeligt tilsyn,
    robusthed og modstandsdygtighed strengt nødvendige for at mindske de risici, som kunstig
    intelligens medfører for grundlæggende rettigheder og sikkerhed, og som ikke er omfattet af
    andre eksisterende retlige rammer. Harmoniserede standarder, vejledning og
    overholdelsesfremmende værktøjer vil hjælpe udbydere og brugere med at overholde de krav,
    der er fastsat i forslaget, og minimere deres omkostninger. Operatørernes omkostninger står i
    et rimeligt forhold til de opnåede mål og de økonomiske og omdømmemæssige fordele, som
    operatørerne kan forvente af dette forslag.
    2.4. Valg af retsakt
    Valget af en forordning som juridisk instrument er begrundet i behovet for en ensartet
    anvendelse af de nye regler, såsom definitionen af kunstig intelligens, forbuddet mod visse
    former for skadelig AI-baseret praksis og klassificeringen af visse AI-systemer. Da en
    forordning finder direkte anvendelse i overensstemmelse med artikel 288 i TEUF vil det
    mindske retlig fragmentering og lette udviklingen af et indre marked for lovlige, sikre og
    pålidelige AI-systemer. Dette vil navnlig ske ved at indføre et harmoniseret sæt centrale krav
    med hensyn til højrisiko-AI-systemer og forpligtelser for udbydere og brugere af disse
    systemer, forbedre beskyttelsen af grundlæggende rettigheder og skabe retssikkerhed for både
    operatører og forbrugere.
    Samtidig er forordningens bestemmelser ikke unødigt præskriptive og giver plads til
    medlemsstaternes indsats på flere niveauer for elementer, der ikke underminerer initiativets
    mål, navnlig den interne tilrettelæggelse af systemet til markedsovervågning og indførelsen af
    foranstaltninger til fremme af innovation.
    3. RESULTATER AF EFTERFØLGENDE EVALUERINGER, HØRINGER AF
    INTERESSEREDE PARTER OG KONSEKVENSANALYSER
    3.1. Høringer af interesserede parter
    Dette forslag er resultatet af en omfattende høring af alle de vigtigste interesserede parter,
    hvor de generelle principper og minimumsstandarder for Kommissionens høring af
    interesserede parter blev anvendt.
    DA 8 DA
    Samtidig med offentliggørelsen af hvidbogen om kunstig intelligens blev der den 19. februar
    2020 iværksat en offentlig onlinehøring, som løb indtil den 14. juni 2020. Formålet med
    denne høring var at indsamle synspunkter og udtalelser om hvidbogen. Den var henvendt til
    alle interesserede parter fra den offentlige og private sektor, herunder regeringer, lokale
    myndigheder, kommercielle og ikkekommercielle organisationer, arbejdsmarkedets parter,
    eksperter, akademikere og borgere. Efter at have analyseret alle de modtagne svar
    offentliggjorde Kommissionen et resumé af resultaterne og de individuelle svar på sit
    websted22
    .
    I alt blev der modtaget 1215 bidrag, heraf 352 fra virksomheder eller
    erhvervsorganisationer/sammenslutninger, 406 fra enkeltpersoner (92 % enkeltpersoner fra
    EU), 152 på vegne af akademiske institutioner/forskningsinstitutioner og 73 fra offentlige
    myndigheder. Civilsamfundets stemme var repræsenteret af 160 respondenter (heriblandt 9
    forbrugerorganisationer, 129 ikkestatslige organisationer og 22 fagforeninger), og 72
    respondenter bidrog som "andre". Af de 352 repræsentanter for erhvervslivet og industrien var
    222 repræsentanter for virksomheder, hvoraf 41,5 % var mikrovirksomheder og små og
    mellemstore virksomheder. Resten kom fra erhvervssammenslutninger. Samlet set kom 84 %
    af besvarelserne fra erhvervslivet og industrien i EU-27. Afhængigt af spørgsmålet brugte
    mellem 81 og 598 af respondenterne muligheden for at indsætte kommentarer i fri tekst. Der
    blev indsendt over 450 holdningsdokumenter via EUSurvey-webstedet, enten som supplement
    til spørgeskemabesvarelser (over 400) eller som selvstændige bidrag (over 50).
    Der er generel enighed blandt interessenterne om, at der er behov for handling. Et stort flertal
    af interessenterne er enige i, at der er huller i lovgivningen, eller at der er behov for ny
    lovgivning. Flere interessenter advarer imidlertid Kommissionen om at undgå overlap,
    modstridende forpligtelser og overregulering. Der var mange bemærkninger, der
    understregede vigtigheden af en teknologineutral og proportional lovgivningsmæssig ramme.
    Interessenterne efterlyste for det meste en snæver, klar og præcis definition af kunstig
    intelligens. Interessenterne fremhævede også, at det ud over præciseringen af begrebet kunstig
    intelligens er vigtigt at definere "risiko", "højrisiko", "lavrisiko", "biometrisk
    fjernidentifikation" og "skade".
    De fleste respondenter går udtrykkeligt ind for den risikobaserede tilgang. Anvendelse af en
    risikobaseret ramme blev anset for at være en bedre løsning end en generel regulering af alle
    AI-systemer. Risiko- og trusselstyperne bør baseres på en sektorspecifik og individuel tilgang.
    Risikoen bør også beregnes under hensyntagen til indvirkningen på rettigheder og sikkerhed.
    Reguleringsmæssige sandkasser kan være meget nyttige til fremme af kunstig intelligens og
    hilses velkommen af visse interessenter, navnlig erhvervssammenslutningerne.
    Blandt dem, der formulerede deres mening om håndhævelsesmodellerne, gik mere end 50 %,
    navnlig fra erhvervssammenslutningerne, ind for en kombination af en forudgående
    egenrisikovurdering og en efterfølgende håndhævelse for højrisiko-AI-systemer.
    3.2. Indhentning og brug af ekspertbistand
    Forslaget bygger på to års analyse og tæt inddragelse af interessenter, herunder akademikere,
    virksomheder, arbejdsmarkedets parter, ikkestatslige organisationer, medlemsstaterne og
    borgerne. Det forberedende arbejde startede i 2018 med oprettelsen af Ekspertgruppen på
    Højt Niveau vedrørende Kunstig Intelligens, som havde en inklusiv og bred
    sammensætning af 52 velkendte eksperter, der havde til opgave at rådgive Kommissionen om
    22
    Se høringens resultater her.
    DA 9 DA
    gennemførelsen af Kommissionens strategi for kunstig intelligens. I april 2019 bakkede
    Kommissionen op om23
    de centrale krav i ekspertgruppens etiske retningslinjer for pålidelig
    kunstig intelligens24
    , som var blevet revideret for at tage hensyn til mere end 500 indlæg fra
    interessenter. Som det fremgår af den lange række af etiske kodekser og principper, der er
    udviklet af mange private og offentlige organisationer i og uden for Europa, afspejler de
    centrale krav den brede og fælles tilgang, at udvikling og anvendelse af kunstig intelligens bør
    styres af visse essentielle værdiorienterede principper. Ved hjælp af vurderingslisten for
    pålidelig kunstig intelligens25
    blev disse krav gjort operationelle i en pilotproces med over 350
    organisationer.
    Desuden blev Den Europæiske Alliance vedrørende Kunstig Intelligens26
    dannet som en
    platform, hvor ca. 4000 interessenter drøftede de teknologiske og samfundsmæssige
    konsekvenser af kunstig intelligens, hvilket kulminerede i en årlig AI-forsamling.
    Med Hvidbogen om kunstig intelligens blev der bygget videre på denne inklusive tilgang,
    hvilket afstedkom feedback fra mere end 1250 interessenter, herunder over 450 yderligere
    holdningsdokumenter. Som følge heraf offentliggjorde Kommissionen en indledende
    konsekvensanalyse, som igen affødte mere end 130 kommentarer27
    . Der blev også afholdt
    yderligere workshops og arrangementer for interessenter, og resultaterne herfra
    understøttede konsekvensanalysen og de politiske valg, der er truffet i forbindelse med dette
    forslag28
    . Desuden indgik en ekstern undersøgelse i konsekvensanalysen.
    3.3. Konsekvensanalyse
    I overensstemmelse med sin politik for bedre regulering har Kommissionen foretaget en
    konsekvensanalyse af dette forslag, som blev behandlet af Kommissionens Udvalg for
    Forskriftskontrol. Der blev afholdt et møde med Udvalget for Forskriftskontrol den 16.
    december 2020, som blev efterfulgt af en negativ udtalelse. Efter en omfattende revision af
    konsekvensanalysen for at imødekomme henstillingerne og en fornyet forelæggelse af
    konsekvensanalysen afgav Udvalget for Forskriftskontrol en positiv udtalelse den 21. marts
    2021. Udtalelserne fra Udvalget for Forskriftskontrol, henstillingerne og en redegørelse for,
    hvordan der er taget hensyn til dem, findes i bilag 1 til konsekvensanalysen.
    Kommissionen har undersøgt forskellige politiske løsningsmodeller for at nå det overordnede
    mål med forslaget, som er at sikre et velfungerende indre marked ved at skabe
    betingelserne for udvikling og anvendelse af pålidelig kunstig intelligens i Unionen.
    Fire politiske løsningsmodeller med forskellige grader af regulerende indgreb blev vurderet:
     Model 1: en EU-retsakt om indførelse af en frivillig mærkningsordning.
     Model 2: en sektorspecifik ad hoc-tilgang.
     Model 3: en horisontal EU-retsakt baseret på en proportional risikobaseret tilgang.
    23
    Europa-Kommissionen, Opbygning af tillid til menneskecentreret kunstig intelligens, COM(2019) 168.
    24
    Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens — Ethics Guidelines for Trustworthy
    AI, 2019.
    25
    Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens — Assessment List for Trustworthy
    Artificial Intelligence (ALTAI) for self-assessment, 2020.
    26
    Den Europæiske Alliance vedrørende Kunstig Intelligens er et multiinteressentforum, der blev lanceret i
    juni 2018 — https://ec.europa.eu/digital-single-market/en/european-ai-alliance.
    27
    Europa-Kommissionen — Indledende konsekvensanalyse med henblik på forslag til Europa-
    Parlamentets og Rådets retsakt om fastlæggelse af krav til kunstig intelligens.
    28
    Nærmere oplysninger om alle gennemførte høringer findes i bilag 2 til konsekvensanalysen.
    DA 10 DA
     Model 3+: en horisontal EU-retsakt baseret på en proportional risikobaseret
    tilgang + adfærdskodekser for AI-systemer, der ikke er højrisikosystemer.
     Model 4: en horisontal EU-retsakt, der fastsætter obligatoriske krav til alle AI-
    systemer, uanset hvilken risiko de udgør.
    I henhold til Kommissionens fastlagte metode blev hver politiske løsningsmodel evalueret i
    forhold til de økonomiske og samfundsmæssige virkninger med særligt fokus på
    indvirkningen på de grundlæggende rettigheder. Den foretrukne løsningsmodel er model 3+,
    en lovgivningsmæssige ramme, der kun gælder for højrisiko-AI-systemer, med mulighed for,
    at alle udbydere af AI-systemer, der ikke er højrisikosystemer, kan følge en adfærdskodeks.
    Kravene vil vedrøre data, dokumentation og sporbarhed, tilvejebringelse af oplysninger,
    gennemsigtighed, menneskeligt tilsyn og robusthed samt nøjagtighed og vil være
    obligatoriske for højrisiko-AI-systemer. Virksomheder, der indfører adfærdskodekser for
    andre AI-systemer, vil gøre dette frivilligt.
    Den foretrukne model blev anset for velegnet til at opfylde målsætningerne i dette forslag på
    den mest effektive måde. Ved at fastlægge begrænsede, men effektive krav til udviklere og
    brugere af kunstig intelligens mindsker den foretrukne løsningsmodel risikoen for krænkelse
    af grundlæggende rettigheder og menneskers sikkerhed og fremmer effektivt tilsyn og effektiv
    håndhævelse ved kun at målrette kravene mod systemer, hvor der er stor risiko for, at sådanne
    krænkelser kan forekomme. Som følge heraf holder denne model efterlevelsesomkostningerne
    på et minimum, hvorved man undgår unødvendige forsinkelser i udbredelsen på grund af
    højere priser og efterlevelsesomkostninger. For at afhjælpe eventuelle ulemper for SMV'er
    omfatter denne løsningsmodel flere bestemmelser til støtte for deres efterlevelse og reduktion
    af deres omkostninger, herunder oprettelse af reguleringsmæssige sandkasser og en
    forpligtelse til at tage hensyn til SMV'ers interesser, når der fastsættes gebyrer i forbindelse
    med overensstemmelsesvurdering.
    Den foretrukne løsningsmodel vil øge borgernes tillid til kunstig intelligens, øge
    retssikkerheden for virksomhederne, og medlemsstaterne vil ikke have grund til at træffe
    ensidige foranstaltninger, der kan fragmentere det indre marked. Det indre marked for kunstig
    intelligens vil sandsynligvis blomstre som følge af øget efterspørgsel medført af øget tillid,
    flere tilgængelige tilbud på grund af retssikkerheden og fraværet af hindringer for AI-
    systemers grænseoverskridende bevægelighed. Den Europæiske Union vil fortsætte med at
    udvikle et hurtigt voksende AI-økosystem, der omfatter innovative tjenester og produkter med
    integreret AI-teknologi eller selvstændige AI-systemer, hvilket resulterer i øget digital
    autonomi.
    Virksomheder eller offentlige myndigheder, der er udviklere eller brugere af AI-anvendelser,
    der udgør en høj risiko for borgernes sikkerhed eller grundlæggende rettigheder, vil skulle
    opfylde specifikke krav og forpligtelser. Opfyldelsen af disse krav vil i forbindelse med
    levering af et gennemsnitligt højrisiko-AI-system til ca. 170 000 EUR medføre omkostninger
    på ca. 6 000-7 000 EUR frem til 2025. For brugerne af AI vil der også være årlige
    omkostninger forbundet med den tid, der bruges på at sikre menneskeligt tilsyn, i de tilfælde,
    hvor dette er hensigtsmæssigt. Disse anslås til ca. 5 000-8 000 EUR om året.
    Kontrolomkostningerne kan beløbe sig til yderligere 3 000-7 500 EUR for leverandører af
    højrisiko-AI. Virksomheder eller offentlige myndigheder, der er udviklere eller brugere af AI-
    anvendelser, der ikke er klassificeret som højrisiko, vil kun skulle opfylde minimale
    oplysningskrav. De kunne imidlertid vælge i sammenslutning med andre at vedtage en
    adfærdskodeks for at opfylde passende krav og for at sikre, at deres AI-systemer er pålidelige.
    I et sådant tilfælde ville omkostningerne højst være som for højrisiko-AI-systemer, men
    sandsynligvis lavere.
    DA 11 DA
    Virkningerne af de politiske løsningsmodeller for forskellige kategorier af interessenter
    (erhvervsdrivende/virksomheder, overensstemmelsesvurderingsorganer,
    standardiseringsorganer og andre offentlige organer, enkeltpersoner/borgere, forskere) er
    nærmere forklaret i bilag 3 til konsekvensanalysen til støtte for dette forslag.
    3.4. Målrettet regulering og forenkling
    Dette forslag fastsætter forpligtelser, som vil gælde for udbydere og brugere af højrisiko-AI-
    systemer. For udbydere, der udvikler og bringer sådanne systemer i omsætning på EU-
    markedet, vil det skabe retssikkerhed og sikre, at der ikke opstår hindringer for
    grænseoverskridende levering af AI-relaterede tjenester og produkter. For virksomheder, der
    anvender kunstig intelligens, vil det fremme tilliden blandt deres kunder. For de nationale
    offentlige forvaltninger vil det fremme offentlighedens tillid til brugen af kunstig intelligens
    og styrke håndhævelsesmekanismerne (ved at indføre en europæisk koordineringsmekanisme,
    tilvejebringe passende kapacitet og lette revisionen af AI-systemerne med nye krav til
    dokumentation, sporbarhed og gennemsigtighed). Rammen omfatter desuden specifikke
    foranstaltninger til støtte for innovation, herunder reguleringsmæssige sandkasser og
    specifikke foranstaltninger, der skal hjælpe mindre brugere og udbydere af højrisiko-AI-
    systemer med at overholde de nye regler.
    Forslaget sigter også specifikt mod at styrke Europas konkurrenceevne og industrielle
    grundlag inden for kunstig intelligens. Der sikres fuld overensstemmelse med eksisterende
    sektorspecifik EU-lovgivning, som AI-systemer omfattes af (f.eks. om produkter og
    tjenesteydelser), hvilket skaber yderligere klarhed og forenkler håndhævelsen af de nye regler.
    3.5. Grundlæggende rettigheder
    Brugen af kunstig intelligens med dens særlige karakteristika (f.eks. uigennemsigtighed,
    kompleksitet, afhængighed af data, selvstændig adfærd) kan have en negativ indvirkning på
    en række grundlæggende rettigheder, der er nedfældet i EU's charter om grundlæggende
    rettigheder ("chartret"). Dette forslag har til formål at sikre et højt beskyttelsesniveau for disse
    grundlæggende rettigheder og tager sigte på at håndtere forskellige risikokilder gennem en
    klart defineret risikobaseret tilgang. Med et sæt krav til pålidelig kunstig intelligens og
    forholdsmæssigt afpassede forpligtelser for alle værdikædens deltagere vil forslaget styrke og
    fremme beskyttelsen af de rettigheder, der er beskyttet af chartret, navnlig retten til
    menneskelig værdighed (artikel 1), respekt for privatliv og beskyttelse af personoplysninger
    (artikel 7 og 8), ikke-forskelsbehandling (artikel 21) og ligestilling mellem kvinder og mænd
    (artikel 23). Det har til formål at forhindre en afdæmpende virkning på ytringsfriheden
    (artikel 11) og forsamlingsfriheden (artikel 12), at sikre adgangen til effektive retsmidler og til
    en upartisk domstol, retten til et forsvar og uskyldsformodningen (artikel 47 og 48) samt sikre
    det generelle princip om god forvaltningsskik. Alt efter hvad der er relevant på visse områder,
    vil forslaget have en positiv indvirkning på rettighederne for en række særlige grupper, såsom
    arbejdstagernes ret til retfærdige og rimelige arbejdsforhold (artikel 31), et højt
    forbrugerbeskyttelsesniveau (artikel 28), børns rettigheder (artikel 24) og integration af
    personer med handicap (artikel 26). Retten til et højt niveau af miljøbeskyttelse og forbedring
    af miljøet (artikel 37) er også relevant, herunder i forbindelse med menneskers sundhed og
    sikkerhed. Forpligtelserne til forudgående testning, risikostyring og menneskeligt tilsyn vil
    også lette overholdelsen af andre grundlæggende rettigheder ved at minimere risikoen for
    fejlagtige eller partiske AI-støttede beslutninger på kritiske områder såsom uddannelse,
    beskæftigelse, vigtige tjenester, retshåndhævelse og retsvæsen. Skulle der alligevel
    forekomme overtrædelser af de grundlæggende rettigheder, sikres de berørte personer
    mulighed for effektiv klageadgang gennem AI-systemernes gennemsigtighed og sporbarhed,
    kombineret med en stærk efterfølgende kontrol.
    DA 12 DA
    Dette forslag medfører visse begrænsninger i friheden til at oprette og drive egen virksomhed
    (artikel 16) og friheden for kunst og videnskab (artikel 13) for at sikre overholdelse af
    tvingende almene hensyn såsom sundhed, sikkerhed, forbrugerbeskyttelse og beskyttelse af
    andre grundlæggende rettigheder ("ansvarlig innovation"), når der udvikles og anvendes AI-
    teknologi med høj risiko. Disse begrænsninger er forholdsmæssigt afpassede og er
    begrænsede til det minimum, der er nødvendigt for at forebygge og afbøde alvorlige
    sikkerhedsrisici og sandsynlige overtrædelser af grundlæggende rettigheder.
    De øgede gennemsigtighedsforpligtelser vil heller ikke i uforholdsmæssig høj grad påvirke
    retten til beskyttelse af intellektuel ejendomsret (artikel 17, stk. 2), da de begrænses til det
    minimum, der er nødvendigt for, at enkeltpersoner kan udøve deres ret til effektive retsmidler
    og den nødvendige gennemsigtighed over for tilsyns- og håndhævelsesmyndighederne i
    overensstemmelse med deres mandater. Enhver videregivelse af oplysninger vil ske i
    overensstemmelse med relevant lovgivning på området, herunder direktiv 2016/943 om
    beskyttelse af fortrolig knowhow og fortrolige forretningsoplysninger
    (forretningshemmeligheder) mod ulovlig erhvervelse, brug og videregivelse. Når offentlige
    myndigheder og bemyndigede organer skal have adgang til fortrolige oplysninger eller
    kildekoder for at kunne undersøge, om væsentlige forpligtelser er opfyldt, er de underlagt
    bindende tavshedspligt.
    4. VIRKNINGER FOR BUDGETTET
    Medlemsstaterne udpeger de tilsynsmyndigheder, der skal have ansvaret for at gennemføre de
    lovgivningsmæssige krav. Tilsynsfunktionen kunne bygge på eksisterende ordninger, f.eks.
    angående overensstemmelsesvurderingsorganer eller markedsovervågning, men ville kræve
    tilstrækkelig teknologisk ekspertise og menneskelige og finansielle ressourcer. Afhængigt af
    den eksisterende struktur i hver medlemsstat kan dette beløbe sig til 1-25 fuldtidsækvivalenter
    pr. medlemsstat.
    En detaljeret oversigt over de omkostninger, der er forbundet hermed, findes i
    "finansieringsoversigten" til dette forslag.
    5. ANDRE FORHOLD
    5.1. Planer for gennemførelsen og foranstaltninger til overvågning, evaluering og
    rapportering
    Det er afgørende at sørge for en robust overvågnings- og evalueringsmekanisme for at sikre,
    at forslaget vil være effektivt med hensyn til at nå de specifikke mål. Kommissionen er
    ansvarlig for at overvåge forslagets virkninger. Den opretter et system til registrering af
    selvstændige højrisiko-AI-anvendelser i en offentlig EU-dækkende database. Denne
    registrering vil også gøre det muligt for kompetente myndigheder, brugere og andre
    interesserede personer at kontrollere, om et givet højrisiko-AI-system overholder forslagets
    krav, og at føre øget tilsyn med de AI-systemer, der udgør en stor risiko for de grundlæggende
    rettigheder. Til brug for databasen vil udbydere af kunstig intelligens være forpligtet til at give
    meningsfulde oplysninger om deres systemer og om den overensstemmelsesvurdering, der er
    foretaget af disse systemer.
    Udbydere af kunstig intelligens vil desuden være forpligtet til at underrette de nationale
    kompetente myndigheder om alvorlige hændelser eller fejl, der udgør en overtrædelse af
    forpligtelserne vedrørende grundlæggende rettigheder, så snart de får kendskab til dem, samt
    om alle tilbagekaldelser eller tilbagetrækninger af AI-systemer fra markedet. De nationale
    kompetente myndigheder undersøger derefter hændelserne/fejlene, indsamler alle nødvendige
    DA 13 DA
    oplysninger og sender dem regelmæssigt til Kommissionen med fyldestgørende metadata.
    Kommissionen vil supplere oplysningerne om hændelserne med en omfattende analyse af det
    samlede marked for kunstig intelligens.
    Kommissionen vil offentliggøre en rapport med evaluering og gennemgang af den foreslåede
    ramme for kunstig intelligens fem år efter den dato, hvor den finder anvendelse.
    5.2. Nærmere redegørelse for de enkelte bestemmelser i forslaget
    5.2.1. ANVENDELSESOMRÅDE OG DEFINITIONER (AFSNIT I)
    I afsnit I defineres forordningens genstand og anvendelsesområdet for de nye regler, der
    omfatter markedsføring, ibrugtagning og anvendelse af AI-systemer. Desuden fastsættes de
    definitioner, der anvendes i instrumentet. I den retlige ramme tilstræbes der en så
    teknologineutral og fremtidssikret definition af et AI-system som muligt under hensyntagen til
    den hurtige teknologiske udvikling og markedsudvikling i forbindelse med kunstig intelligens.
    For at skabe den nødvendige retssikkerhed suppleres afsnit I af bilag I, som indeholder en
    detaljeret liste over tilgange og teknikker til udvikling af kunstig intelligens, som
    Kommissionen løbende skal tilpasse den teknologiske udvikling. Centrale deltagere i hele
    værdikæden for kunstig intelligens er også klart defineret, f.eks. udbydere og brugere af AI-
    systemer, der dækker både offentlige og private operatører med henblik på at sikre lige vilkår.
    5.2.2. FORBUDT PRAKSIS MED HENSYN TIL KUNSTIG INTELLIGENS (AFSNIT II)
    Afsnit II indeholder en liste over forbudt kunstig intelligens. I forordningen følges en
    risikobaseret tilgang, hvor der skelnes mellem anvendelser af kunstig intelligens, som skaber
    i) en uacceptabel risiko, ii) en høj risiko og iii) lav eller minimal risiko. Listen over forbudte
    praksisser i afsnit II omfatter alle de AI-systemer, hvis anvendelse anses for at være i strid
    med Unionens værdier, f.eks. ved at krænke grundlæggende rettigheder. Forbuddet omfatter
    praksisser, der har et betydeligt potentiale til at manipulere en persons underbevidsthed ved
    hjælp af subliminale teknikker eller udnytte sårbarheder hos specifikke sårbare grupper såsom
    børn eller personer med handicap for væsentligt at forvride deres adfærd på en måde, der
    sandsynligvis vil forvolde dem eller en anden person psykisk eller fysisk skade. Anden
    manipulerende eller udnyttende praksis, som påvirker voksne, og som kan finde sted med
    bistand af AI-systemer, kan være omfattet af den eksisterende lovgivning om databeskyttelse,
    forbrugerbeskyttelse og digitale tjenester, som sikrer, at fysiske personer er behørigt
    informerede og frit kan vælge ikke at blive genstand for profilering eller anden praksis, der
    kan påvirke deres adfærd. Forslaget omfatter desuden et forbud mod offentlige myndigheders
    generelle brug af sociale pointsystemer baseret på kunstig intelligens. Endelig er det også
    forbudt at anvende systemer til biometrisk fjernidentifikation i realtid på offentlige steder med
    henblik på retshåndhævelse, med visse begrænsede undtagelser.
    5.2.3. HØJRISIKO-AI-SYSTEMER (AFSNIT III)
    Afsnit III indeholder specifikke regler for AI-systemer, der medfører høj risiko for fysiske
    personers sundhed og sikkerhed eller grundlæggende rettigheder. I overensstemmelse med en
    risikobaseret tilgang tillades disse højrisiko-AI-systemer på det europæiske marked, forudsat
    at visse obligatoriske krav opfyldes, og at der foretages en forudgående
    overensstemmelsesvurdering. Klassificeringen af et AI-system som værende et
    højrisikosystem baseres på dets tilsigtede formål, hvilket er i overensstemmelse med den
    eksisterende produktsikkerhedslovgivning. Klassificeringen som højrisiko afhænger derfor
    ikke kun af den funktion, AI-systemet udfører, men også af det specifikke formål med og de
    særlige modaliteter i anvendelsen af systemet.
    I afsnit III, kapitel 1, fastsættes klassificeringsreglerne, og der identificeres to hovedkategorier
    af højrisiko-AI-systemer:
    DA 14 DA
     AI-systemer, der er beregnet til at blive anvendt som sikkerhedskomponenter i
    produkter, der er underlagt en forudgående overensstemmelsesvurdering fra
    tredjepart
     andre selvstændige AI-systemer, der hovedsagelig har betydning for de
    grundlæggende rettigheder, og som eksplicit er opført i bilag III.
    Listen over højrisiko-AI-systemer i bilag III indeholder et begrænset antal AI-systemer med
    risici, der allerede har realiseret sig eller sandsynligvis vil realisere sig i nær fremtid. For at
    sikre, at forordningen kan tilpasses fremtidige anvendelser af kunstig intelligens, kan
    Kommissionen udvide listen over højrisiko-AI-systemer inden for visse foruddefinerede
    områder, ved at anvende et sæt kriterier og risikovurderingsmetoder.
    Kapitel 2 fastsætter de retlige krav til højrisiko-AI-systemer for så vidt angår data og
    dataforvaltning, dokumentation og registrering, gennemsigtighed og formidling af
    oplysninger til brugerne, menneskeligt tilsyn, robusthed, nøjagtighed og sikkerhed. De
    foreslåede minimumskrav er allerede state-of-the-art for mange samvittighedsfulde
    operatører, og er resultatet af to års forberedende arbejde, der er afledt af de etiske
    retningslinjer fra Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens29
    , og som er
    blevet afprøvet i praksis af mere end 350 organisationer30
    . De er også i vid udstrækning i
    overensstemmelse med andre internationale anbefalinger og principper, hvilket sikrer, at den
    foreslåede ramme for kunstig intelligens er forenelig med de rammer, der er vedtaget af EU's
    internationale handelspartnere. Med henblik på at opnå overensstemmelse med disse krav kan
    de nøjagtige tekniske løsninger udvikles af AI-systemets udbyder i lyset af generel teknisk
    eller videnskabelig viden, eller ved hjælp af standarder eller andre tekniske specifikationer.
    Denne fleksibilitet er særlig vigtig, fordi den giver udbyderne af AI-systemer mulighed for at
    vælge, hvordan de vil opfylde kravene, under hensyntagen til de seneste teknologiske og
    videnskabelige fremskridt på området.
    I kapitel 3 fastsættes et klart sæt horisontale forpligtelser for udbydere af højrisiko-AI-
    systemer. Der pålægges også rimelige forpligtelser for brugere og andre deltagere i hele AI-
    værdikæden (f.eks. importører, distributører, bemyndigede repræsentanter).
    I kapitel 4 fastlægges rammerne for bemyndigede organers inddragelse som uafhængige
    tredjeparter i overensstemmelsesvurderingsprocedurer, mens kapitel 5 indeholder en detaljeret
    beskrivelse af de overensstemmelsesvurderingsprocedurer, der skal følges for hver type
    højrisiko-AI-system. Brugen af overensstemmelsesvurderinger har til formål at minimere
    byrden for både erhvervsdrivende og bemyndigede organer, hvis kapacitet gradvist skal øges
    med tiden. AI-systemer, der er beregnet til at blive anvendt som sikkerhedskomponenter i
    produkter, der er reguleret inden for den nye lovgivningsmæssige ramme (f.eks. maskiner,
    legetøj, medicinsk udstyr osv.), vil være underlagt de samme forudgående og efterfølgende
    overholdelses- og håndhævelsesmekanismer som de produkter, de er en del af. Forskellen er,
    at de forudgående og efterfølgende mekanismer ikke blot vil sikre overensstemmelse med de
    krav, der er fastsat i den sektorspecifikke lovgivning, men også med kravene i denne
    forordning.
    For så vidt angår selvstændige højrisiko-AI-systemer, som der henvises til i bilag III, vil der
    blive etableret et nyt overholdelses- og håndhævelsessystem. Dette følger modellen for
    29
    Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens — Ethics Guidelines for Trustworthy
    AI, 2019.
    30
    De blev også godkendt af Kommissionen i dens meddelelse fra 2019 om menneskecentreret tilgang til
    kunstig intelligens.
    DA 15 DA
    lovgivning under den nye lovgivningsmæssige ramme, hvor intern kontrol gennemføres af
    udbyderne, med undtagelse af systemer til biometrisk fjernidentifikation, som vil blive
    genstand for overensstemmelsesvurderinger foretaget af tredjepart. En omfattende
    forudgående overensstemmelsesvurdering gennem intern kontrol kombineret med en stærk
    efterfølgende håndhævelse kan være en effektiv og rimelig løsning for disse systemer i
    betragtning af, at den lovgivningsmæssige indgriben er i en tidlig fase, samt de forhold, at AI-
    sektoren er meget innovativ, og at ekspertisen inden for revision først nu er ved at blive
    opbygget. En vurdering i form af intern kontrol af selvstændige højrisiko-AI-systemer vil
    kræve en fuldstændig, effektiv og behørigt dokumenteret forudgående opfyldelse af alle
    forordningens krav, samt korrekt brug af robuste kvalitets- og risikostyringssystemer og
    overvågning efter omsætning. Efter at udbyderen har foretaget den relevante
    overensstemmelsesvurdering, bør udbyderen registrere disse selvstændige højrisiko-AI-
    systemer i en EU-database, som vil blive forvaltet af Kommissionen for at øge
    gennemsigtigheden og offentlighedens tilsyn og styrke de kompetente myndigheders
    efterfølgende kontrol. Derimod vil AI-systemer, der er sikkerhedskomponenter til produkter,
    af hensyn til overensstemmelsen med den eksisterende produktsikkerhedslovgivning,
    underkastes tredjeparters overensstemmelsesvurderingsprocedurer, der allerede er indført i
    henhold til den relevante sektorspecifikke produktsikkerhedslovgivning. Der vil være behov
    for nye forudgående overensstemmelsesvurderinger i tilfælde af væsentlige ændringer af AI-
    systemerne (og navnlig ændringer, der går ud over, hvad udbyderen på forhånd har fastsat i
    sin tekniske dokumentation, og som kontrolleres på tidspunktet for den forudgående
    overensstemmelsesvurdering).
    5.2.4. GENNEMSIGTIGHEDSFORPLIGTELSER FOR VISSE AI-SYSTEMER (AFSNIT IV)
    Afsnit IV vedrører visse AI-systemer for at tage højde for de særlige risici for manipulation,
    som de udgør. Der vil gælde gennemsigtighedsforpligtelser for systemer, der i) interagerer
    med mennesker, ii) anvendes til at opdage følelser eller fastslå tilknytning til (sociale)
    kategorier baseret på biometriske data eller iii) generere eller manipulere indhold ("deep
    fakes"). Når personer interagerer med et AI-system eller hvis deres følelser eller karakteristika
    registreres automatisk, skal de informeres om dette forhold. Hvis et AI-system anvendes til at
    generere eller manipulere billed-, lyd- eller videoindhold, der i væsentlig grad ligner autentisk
    indhold, bør der være en forpligtelse til at oplyse, at indholdet er genereret automatisk, med
    forbehold af undtagelser til legitime formål (retshåndhævelse, ytringsfrihed). Dette gør det
    muligt for folk at træffe informerede valg eller træde tilbage fra en given situation.
    5.2.5. FORANSTALTNINGER TIL STØTTE FOR INNOVATION (AFSNIT V)
    Med afsnit V bidrages til målet om at skabe en retlig ramme, der er innovationsvenlig,
    fremtidssikret og modstandsdygtig over for forstyrrelser. Med henblik herpå tilskyndes de
    nationale kompetente myndigheder til at oprette reguleringsmæssige sandkasser og der
    opstilles en grundlæggende ramme for forvaltning, tilsyn og ansvar. De reguleringsmæssige
    sandkasser for kunstig intelligens etablerer et kontrolleret miljø til afprøvning af innovative
    teknologier i et begrænset tidsrum på grundlag af en testplan, der er aftalt med de kompetente
    myndigheder. Afsnit V omhandler også foranstaltninger til at mindske den
    reguleringsmæssige byrde for SMV'er og startup-virksomheder.
    5.2.6. FORVALTNING OG GENNEMFØRELSE (AFSNIT VI, VII OG VII)
    I afsnit VI indføres forvaltningssystemerne på EU-plan og nationalt plan. På EU-plan oprettes
    der med forslaget Det Europæiske Udvalg for Kunstig Intelligens ("udvalget") bestående af
    repræsentanter for medlemsstaterne og Kommissionen. Udvalget vil fremme en gnidningsløs,
    effektiv og harmoniseret gennemførelse af denne forordning ved at bidrage til et effektivt
    samarbejde mellem de nationale tilsynsmyndigheder og Kommissionen og yde rådgivning og
    DA 16 DA
    ekspertise til Kommissionen. Den vil også indsamle og udveksle bedste praksis mellem
    medlemsstaterne.
    På nationalt plan skal medlemsstaterne udpege en eller flere nationale kompetente
    myndigheder, herunder den nationale tilsynsmyndighed, til at føre tilsyn med anvendelsen og
    gennemførelsen af forordningen. Den Europæiske Tilsynsførende for Databeskyttelse er den
    kompetente myndighed, der fører tilsyn med Unionens institutioner, agenturer og organer, når
    de er omfattet af denne forordnings anvendelsesområde.
    Afsnit VII har til formål at lette Kommissionens og de nationale myndigheders
    overvågningsarbejde gennem oprettelse af en EU-dækkende database for selvstændige
    højrisiko-AI-systemer, som hovedsagelig vil have konsekvenser for de grundlæggende
    rettigheder. Databasen forvaltes af Kommissionen og forsynes med data fra udbyderne af AI-
    systemerne, som skal registrere deres systemer, før de bringes i omsætning eller på anden
    måde tages i brug.
    I afsnit VIII fastsættes overvågnings- og rapporteringsforpligtelser for udbydere af AI-
    systemer med hensyn til overvågning efter omsætning og rapportering og undersøgelse af AI-
    relaterede hændelser og funktionsfejl. Markedsovervågningsmyndighederne kontrollerer også
    markedet og undersøger om forpligtelserne og kravene for alle højrisiko-AI-systemer, der
    allerede er bragt i omsætning, bliver overholdt. Markedsovervågningsmyndighederne vil have
    alle beføjelser i henhold til forordning (EU) 2019/1020 om markedsovervågning.
    Efterfølgende håndhævelse bør sikre, at de offentlige myndigheder, når AI-systemet er bragt i
    omsætning, har beføjelser og ressourcer til at gribe ind i tilfælde af, at AI-systemet skaber
    uventede risici, der berettiger en hurtig indsats. De vil også overvåge, at operatørerne
    overholder deres relevante forpligtelser i henhold til forordningen. Forslaget indeholder ikke
    bestemmelser om automatisk oprettelse af yderligere organer eller myndigheder på
    medlemsstatsniveau. Medlemsstaterne kan derfor udpege (og trække på ekspertisen hos)
    eksisterende sektormyndigheder, som også vil få overdraget beføjelser til at overvåge og
    håndhæve forordningens bestemmelser.
    Alt dette berører ikke medlemsstaternes eksisterende systemer og tildelinger af beføjelser til
    efterfølgende håndhævelse af forpligtelser vedrørende grundlæggende rettigheder. Når det er
    nødvendigt for deres mandat, vil de eksisterende tilsyns- og håndhævelsesmyndigheder også
    have beføjelse til at anmode om og få adgang til al dokumentation, der opbevares i henhold til
    denne forordning, og om nødvendigt anmode markedsovervågningsmyndighederne om at
    tilrettelægge tekniske test af et højrisiko-AI-system.
    5.2.7. ADFÆRDSKODEKSER (AFSNIT IX)
    Med afsnit IX skabes en ramme for udarbejdelse af adfærdskodekser, der har til formål at
    tilskynde udbydere af AI-systemer, der ikke er højrisikosystemer, til frivilligt at anvende de
    krav, der er obligatoriske for højrisiko-AI-systemer (som fastsat i afsnit III). Udbyderene af
    AI-systemer, der ikke er højrisikosystemer, kan selv udarbejde og gennemføre
    adfærdskodekserne. Disse kodekser kan også på frivillig basis omfatte yderligere forpligtelser
    vedrørende f.eks. miljømæssig bæredygtighed, tilgængelighed for personer med handicap,
    interessenters deltagelse i udformningen og udviklingen af AI-systemer og mangfoldighed i
    udviklingsteamene.
    5.2.8. AFSLUTTENDE BESTEMMELSER (AFSNIT X, XI OG XII)
    I afsnit X understreges alle parters forpligtelse til at respektere fortroligheden af oplysninger
    og data, og der fastsættes regler for udveksling af oplysninger, der er indhentet i forbindelse
    med gennemførelsen af forordningen. Afsnit X omfatter også foranstaltninger til at sikre en
    effektiv gennemførelse af forordningen gennem sanktioner for overtrædelse af
    DA 17 DA
    bestemmelserne, der er effektive, står i rimeligt forhold til overtrædelsen og har afskrækkende
    virkning.
    Afsnit XI indeholder regler for udøvelsen af delegerede beføjelser og
    gennemførelsesbeføjelser. Med forslaget tillægges Kommissionen beføjelser til om
    nødvendigt at vedtage gennemførelsesretsakter for at sikre ensartet anvendelse af
    forordningen eller delegerede retsakter med henblik på at ajourføre eller supplere listerne i
    bilag I-VII.
    Afsnit XII omhandler Kommissionens forpligtelse til regelmæssigt at vurdere behovet for en
    ajourføring af bilag III og til at udarbejde regelmæssige rapporter om evalueringen og
    revisionen af forordningen. Der fastsættes også afsluttende bestemmelser, herunder en
    differentieret overgangsperiode for forordningens anvendelsesdato for at lette en gnidningsløs
    gennemførelse for alle berørte parter.
    DA 18 DA
    2021/0106 (COD)
    Forslag til
    EUROPA-PARLAMENTETS OG RÅDETS FORORDNING
    OM HARMONISEREDE REGLER FOR KUNSTIG INTELLIGENS (RETSAKTEN
    OM KUNSTIG INTELLIGENS) OG OM ÆNDRING AF VISSE AF UNIONENS
    LOVGIVNINGSMÆSSIGE RETSAKTER
    EUROPA-PARLAMENTET OG RÅDET FOR DEN EUROPÆISKE UNION HAR —
    under henvisning til traktaten om Den Europæiske Unions funktionsmåde, særlig artikel 16 og
    114,
    under henvisning til forslag fra Europa-Kommissionen,
    efter fremsendelse af udkast til lovgivningsmæssig retsakt til de nationale parlamenter,
    under henvisning til udtalelse fra Det Europæiske Økonomiske og Sociale Udvalg31
    ,
    under henvisning til udtalelse fra Regionsudvalget32
    ,
    efter den almindelige lovgivningsprocedure, og
    ud fra følgende betragtninger:
    (1) Formålet med denne forordning er at forbedre det indre markeds funktion ved at
    fastlægge ensartede retlige rammer, navnlig for udvikling, markedsføring og
    anvendelse af kunstig intelligens i overensstemmelse med Unionens værdier. Med
    denne forordning forfølges en række tvingende almene hensyn, såsom et højt
    beskyttelsesniveau for sundhed, sikkerhed og grundlæggende rettigheder, og den
    sikrer fri bevægelighed for AI-baserede varer og tjenesteydelser på tværs af grænserne
    og forhindrer således medlemsstaterne i at indføre restriktioner for udvikling,
    markedsføring og anvendelse af AI-systemer, medmindre det udtrykkeligt er tilladt i
    henhold til denne forordning.
    (2) Systemer med kunstig intelligens (AI-systemer) kan nemt anvendes i flere sektorer af
    økonomien og i samfundet, herunder på tværs af grænserne, og cirkulere i hele
    Unionen. Visse medlemsstater har allerede undersøgt muligheden for nationale regler
    til sikring af, at kunstig intelligens er sikker, og at den udvikles og anvendes i
    overensstemmelse med forpligtelserne vedrørende grundlæggende rettigheder.
    Forskellige nationale regler kan føre til fragmentering af det indre marked og mindske
    retssikkerheden for operatører, der udvikler eller anvender AI-systemer. Der bør derfor
    sikres et ensartet og højt beskyttelsesniveau i hele Unionen, samtidig med at forskelle,
    der hæmmer den frie bevægelighed for AI-systemer og relaterede produkter og
    tjenesteydelser på det indre marked, bør forhindres ved at fastsætte ensartede
    forpligtelser for operatører og garantere en ensartet beskyttelse af tvingende almene
    hensyn og personers rettigheder i hele det indre marked på grundlag af artikel 114 i
    traktaten om Den Europæiske Unions funktionsmåde (TEUF). For så vidt som denne
    31
    EUT C […] af […], s. […].
    32
    EUT C […] af […], s. […].
    DA 19 DA
    forordning indeholder specifikke regler om beskyttelse af fysiske personer i
    forbindelse med behandling af personoplysninger vedrørende begrænsninger i
    anvendelsen af AI-systemer til biometrisk fjernidentifikation i realtid på offentlige
    steder med henblik på retshåndhævelse, er det desuden hensigtsmæssigt at basere
    denne forordning på artikel 16 i TEUF for så vidt angår disse specifikke regler. I lyset
    af disse specifikke regler og anvendelsen af artikel 16 i TEUF bør Det Europæiske
    Databeskyttelsesråd høres.
    (3) Kunstig intelligens er en vifte af teknologier i hurtig udvikling, som kan bidrage til
    brede økonomiske og samfundsmæssige fordele på tværs af hele spektret af industrier
    og sociale aktiviteter. Ved at forbedre prognoser, optimere operationer og
    ressourceallokering og personalisere de digitale løsninger, der er tilgængelige for
    enkeltpersoner og organisationer, kan anvendelsen af kunstig intelligens give
    virksomheder vigtige konkurrencemæssige fordele og fremme socialt og miljømæssigt
    gavnlige resultater, f.eks. inden for sundhedspleje, landbrug, uddannelse,
    infrastrukturforvaltning, energi, transport og logistik, offentlige tjenester, sikkerhed,
    retsvæsen, ressource- og energieffektivitet samt modvirkning af og tilpasning til
    klimaændringer.
    (4) Samtidig kan kunstig intelligens, afhængigt af omstændighederne med hensyn til dens
    specifikke anvendelse, skabe risici og skade offentlige interesser og rettigheder, der er
    beskyttet af EU-retten. Sådan skade kan være af materiel eller immateriel karakter.
    (5) Der er derfor behov for en EU-retlig ramme, der fastsætter harmoniserede regler for
    kunstig intelligens, for at fremme udviklingen, anvendelsen og udbredelsen af kunstig
    intelligens på det indre marked, som samtidig opfylder et højt beskyttelsesniveau for
    offentlige interesser, såsom sundhed og sikkerhed og beskyttelse af grundlæggende
    rettigheder, som anerkendt og beskyttet i EU-retten. For at nå dette mål bør der
    fastsættes regler for markedsføring og ibrugtagning af visse AI-systemer for at sikre et
    velfungerende indre marked og give disse systemer mulighed for at drage fordel af
    princippet om fri bevægelighed for varer og tjenesteydelser. Med fastsættelse af
    reglerne i denne forordning støttes målet om, at Unionen skal være førende på
    verdensplan inden for udvikling af sikker, pålidelig og etisk kunstig intelligens som
    anført af Det Europæiske Råd33
    , og der sikres beskyttelse af etiske principper, som
    Europa-Parlamentet specifikt har anmodet om34
    .
    (6) Begrebet AI-system bør defineres klart for at sikre retssikkerheden og samtidig være
    fleksibelt nok til at tage højde for den fremtidige teknologiske udvikling. Definitionen
    bør baseres på softwarens vigtigste funktionelle karakteristika, navnlig evnen til for et
    givet sæt mål, der er fastsat af mennesker, at generere output såsom indhold,
    forudsigelser, anbefalinger eller beslutninger, der påvirker det miljø, som systemet
    interagerer med, hvad enten det er i en fysisk eller digital dimension. AI-systemer kan
    udformes med henblik på at fungere med varierende grader af autonomi og kan
    anvendes selvstændigt eller som en del af et produkt, uanset om systemet er fysisk
    integreret i produktet (indlejret) eller tjener produktets funktionalitet uden at være
    integreret deri (ikke indlejret). Definitionen af et AI-system bør suppleres med en liste
    over specifikke teknikker og tilgange, der anvendes i dets udvikling, og som bør
    33
    Det Europæiske Råd, Ekstraordinært møde i Det Europæiske Råd (1. og 2. oktober 2020) −
    Konklusioner, EUCO 13/20, 2020, s. 6.
    34
    Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en ramme
    for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier, 2020/2012(INL).
    DA 20 DA
    holdes ajour i lyset af den markedsmæssige og teknologiske udvikling gennem
    Kommissionens vedtagelse af delegerede retsakter med henblik på at ændre denne
    liste.
    (7) Begrebet biometriske data, der anvendes i denne forordning, er i overensstemmelse
    med og bør fortolkes i overensstemmelse med begrebet biometriske data som defineret
    i artikel 4, stk. 14, i Europa-Parlamentets og Rådets forordning (EU) 2016/67935
    ,
    artikel 3, stk. 18, i Europa-Parlamentets og Rådets forordning (EU) 2018/172536
    og
    artikel 3, stk. 13, i Europa-Parlamentets og Rådets direktiv (EU) 2016/68037
    .
    (8) Begrebet "system til biometrisk fjernidentifikation" som anvendt i denne forordning
    bør defineres funktionelt som et AI-system, der har til formål at identificere fysiske
    personer på afstand ved at sammenligne en persons biometriske data med de
    biometriske data i en referencedatabase, uden forudgående viden om, hvorvidt
    målpersonen vil være til stede og kan identificeres, uanset hvilken teknologi, hvilke
    processer eller hvilke typer biometriske data der anvendes. I betragtning af deres
    forskellige karakteristika og måder, hvorpå de anvendes, samt de forskellige risici, der
    er forbundet hermed, bør der skelnes mellem "systemer til biometrisk
    fjernidentifikation i realtid" og "systemer til efterfølgende biometrisk
    fjernidentifikation". Hvis der er tale om realtidssystemer, sker optagelsen af de
    biometriske data, sammenligningen og identifikationen øjeblikkeligt, næsten
    øjeblikkeligt eller under alle omstændigheder uden væsentlig forsinkelse. I denne
    forbindelse bør der ikke være mulighed for at omgå denne forordnings bestemmelser
    om realtidsanvendelse af de pågældende AI-systemer ved at tilføje mindre
    forsinkelser. Realtidssystemer omfatter anvendelse af direkte eller lettere forskudt
    materiale såsom videooptagelser, der genereres af et kamera eller en anden anordning
    med tilsvarende funktioner. Er der derimod tale om systemer til efterfølgende
    biometrisk fjernidentifikation, optages de biometriske data, og først efter en betydelig
    forsinkelse finder sammenligningen og identifikationen sted. Der er tale om materiale,
    såsom billeder eller videooptagelser, der genereres af videoovervågningskameraer
    eller private enheder, og som er frembragt inden systemets anvendelse for så vidt
    angår de pågældende fysiske personer.
    (9) I denne forordning bør begrebet offentlige steder forstås som ethvert fysisk sted, der er
    tilgængeligt for offentligheden, uanset om det pågældende sted er privatejet eller
    offentligt ejet. Begrebet omfatter derfor ikke steder af privat karakter, som normalt
    ikke er frit tilgængelige for tredjeparter, herunder retshåndhævende myndigheder,
    medmindre disse parter er blevet specifikt inviteret eller bemyndiget, såsom boliger,
    private klubber, kontorer, lagerbygninger og fabrikker. Online steder er heller ikke
    35
    Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske
    personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne
    oplysninger og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse) (EUT L 119
    af 4.5.2016, s. 1).
    36
    Europa-Parlamentets og Rådets forordning (EU) 2018/1725 af 23. oktober 2018 om beskyttelse af
    fysiske personer i forbindelse med behandling af personoplysninger i Unionens institutioner, organer,
    kontorer og agenturer og om fri udveksling af sådanne oplysninger og om ophævelse af forordning (EF)
    nr. 45/2001 og afgørelse nr. 1247/2002/EF (EUT L 295 af 21.11.2018, s. 39).
    37
    Europa-Parlamentets og Rådets direktiv (EU) 2016/680 af 27. april 2016 om beskyttelse af fysiske
    personer i forbindelse med kompetente myndigheders behandling af personoplysninger med henblik på
    at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige
    sanktioner og om fri udveksling af sådanne oplysninger og om ophævelse af Rådets rammeafgørelse
    2008/977/RIA (retshåndhævelsesdirektivet) (EUT L 119 af 4.5.2016, s. 89).
    DA 21 DA
    omfattet, da der ikke er tale om fysiske steder. Det forhold, at der kan være visse
    betingelser for adgang til et bestemt sted, såsom entrébilletter eller
    aldersbegrænsninger, betyder imidlertid ikke i sig selv, at stedet ikke er offentligt som
    defineret i denne forordning. Ud over offentlige steder som gader, relevante dele af
    offentlige bygninger og de fleste transportinfrastrukturer er steder som f.eks. biografer,
    teatre, butikker og indkøbscentre derfor normalt også offentlige. Om et givet sted
    betragtes som offentligt, bør imidlertid afgøres fra sag til sag under hensyntagen til de
    særlige forhold i den enkelte situation.
    (10) For at sikre lige vilkår og en effektiv beskyttelse af fysiske personers rettigheder og
    friheder i hele Unionen bør de regler, der fastsættes ved denne forordning, finde
    anvendelse på udbydere af AI-systemer på en ikkediskriminerende måde, uanset om
    de er etableret i Unionen eller i et tredjeland, og på brugere af AI-systemer, der er
    etablerede i Unionen.
    (11) I betragtning af deres digitale karakter bør visse AI-systemer være omfattet af denne
    forordnings anvendelsesområde, selv om de hverken bringes i omsætning, ibrugtages
    eller anvendes i Unionen. Dette er f.eks. tilfældet for en operatør, der er etableret i
    Unionen, og som indgår kontrakter om visse tjenesteydelser med en operatør, der er
    etableret uden for Unionen, i forbindelse med en aktivitet, der skal udføres af et AI-
    system, der kan betegnes som højrisiko, og som har virkninger for fysiske personer i
    Unionen. Under disse omstændigheder kunne det AI-system, der anvendes af
    operatøren uden for Unionen, behandle data, der lovligt er indsamlet i og overført fra
    Unionen, og levere outputtet fra dette AI-systems behandling til den kontraherende
    operatør i Unionen, uden at dette AI-system bringes i omsætning, ibrugtages eller
    anvendes i Unionen. For at forhindre omgåelse af denne forordning og sikre en
    effektiv beskyttelse af fysiske personer i Unionen, bør denne forordning også finde
    anvendelse på udbydere og brugere af AI-systemer, der er etableret i et tredjeland, i
    det omfang det output, der produceres af disse systemer, anvendes i Unionen. For at
    tage hensyn til eksisterende ordninger og særlige behov for samarbejde med
    udenlandske partnere, med hvem der udveksles oplysninger og bevismateriale, bør
    denne forordning ikke finde anvendelse på offentlige myndigheder i et tredjeland og
    internationale organisationer, når disse handler inden for rammerne af internationale
    aftaler indgået på nationalt eller europæisk plan om retshåndhævelse og retligt
    samarbejde med Unionen eller med dens medlemsstater. Sådanne aftaler er indgået
    bilateralt mellem medlemsstaterne og tredjelande eller mellem Den Europæiske
    Union, Europol og andre EU-agenturer og tredjelande og internationale organisationer.
    (12) Denne forordning bør også finde anvendelse på Unionens institutioner, kontorer,
    organer og agenturer, når de fungerer som udbyder eller bruger af et AI-system. AI-
    systemer, der udelukkende udvikles eller anvendes til militære formål, bør ikke
    omfattes af denne forordnings anvendelsesområde, hvis anvendelsen henhører under
    den fælles udenrigs- og sikkerhedspolitik, der er reguleret i afsnit V i traktaten om Den
    Europæiske Union (TEU). Denne forordning berører ikke bestemmelserne om
    formidleransvar for tjenesteydere i Europa-Parlamentets og Rådets direktiv
    2000/31/EF [som ændret ved retsakten om digitale tjenester].
    (13) For at sikre et ensartet højt beskyttelsesniveau for offentlige interesser med hensyn til
    sundhed, sikkerhed og grundlæggende rettigheder bør der fastsættes fælles
    normgivende standarder for alle højrisiko-AI-systemer. Disse standarder bør være i
    overensstemmelse med Den Europæiske Unions charter om grundlæggende
    rettigheder (chartret) og bør være ikke-diskriminerende og i overensstemmelse med
    Unionens internationale handelsforpligtelser.
    DA 22 DA
    (14) For at indføre et proportionalt og effektivt sæt bindende regler for AI-systemer bør der
    anvendes en klart defineret risikobaseret tilgang. Denne tilgang bør tilpasse typen og
    indholdet af sådanne regler til graden og omfanget af de risici, som AI-systemer kan
    generere. Det er derfor nødvendigt at forbyde visse former for praksis med hensyn til
    kunstig intelligens, at fastsætte krav til højrisiko-AI-systemer og forpligtelser for de
    relevante operatører og at fastsætte gennemsigtighedsforpligtelser for visse AI-
    systemer.
    (15) Ud over de mange nyttige anvendelser af kunstig intelligens kan teknologien også
    misbruges og resultere i nye og effektive værktøjer til manipulativ, udnyttende og
    socialt kontrollerende praksis. Sådan praksis er særlig skadelig og bør forbydes, fordi
    den er i modstrid med Unionens værdier om respekt for menneskelig værdighed,
    frihed, ligestilling, demokrati og retsstatsprincippet og med Unionens grundlæggende
    rettigheder, herunder retten til beskyttelse mod forskelsbehandling, retten til
    databeskyttelse, retten til privatlivets fred og børns rettigheder.
    (16) Omsætning, ibrugtagning eller anvendelse af visse AI-systemer, der har til formål at
    forvride menneskers adfærd, og hvor der er sandsynlighed for fysiske eller psykiske
    skader, bør forbydes. Sådanne AI-systemer anvender subliminale komponenter, som
    mennesker ikke kan opfatte, eller de udnytter børns og voksnes sårbarheder på
    baggrund af alder eller fysisk eller mentalt handicap. De gør dette med den hensigt i
    væsentlig grad at forvride en persons adfærd og på en måde, der forvolder eller
    sandsynligvis vil forvolde den pågældende eller en anden person skade. Hensigten kan
    ikke formodes, hvis forvrængningen af menneskelig adfærd skyldes faktorer, som
    ligger uden for AI-systemet og uden for udbyderens eller brugerens kontrol. Legitim
    forskning i forbindelse med sådanne AI-systemer bør ikke hæmmes af forbuddet, hvis
    sådan forskning ikke anvender AI-systemet i forholdet mellem menneske og maskine
    på en måde, som udsætter fysiske personer for skade, og hvis sådan forskning udføres
    i overensstemmelse med anerkendte etiske standarder for videnskabelig forskning.
    (17) AI-systemer, der af offentlige myndigheder eller på deres vegne gør generel brug af
    sociale pointsystemer på fysiske personer, kan føre til diskriminerende resultater og
    udelukkelse af visse grupper. De kan dermed krænke retten til værdighed og retten til
    beskyttelse mod forskelsbehandling og værdierne lighed og retfærdighed. Sådanne AI-
    systemer evaluerer eller klassificerer fysiske personers troværdighed på grundlag af
    deres sociale adfærd i flere sammenhænge eller kendte eller forudsagte personlige
    egenskaber eller personlighedstræk. Det sociale pointsystem, der anvendes i sådanne
    AI-systemer, kan føre til en skadelig eller ugunstig behandling af fysiske personer
    eller hele grupper heraf i sociale sammenhænge, som ikke har noget at gøre med den
    sammenhæng, i hvilken dataene oprindeligt blev genereret eller indsamlet, eller til en
    skadelig behandling, der er uforholdsmæssig eller uberettiget i forhold til alvoren af
    deres sociale adfærd. Sådanne AI-systemer bør derfor forbydes.
    (18) Anvendelsen af AI-systemer til biometrisk fjernidentifikation i realtid af fysiske
    personer på offentlige steder med henblik på retshåndhævelse anses for at være særligt
    indgribende i de berørte personers rettigheder og friheder, for så vidt som det kan
    påvirke privatlivets fred for en stor del af befolkningen, skabe en følelse af konstant
    overvågning og indirekte afskrække fra udøvelsen af forsamlingsfriheden og andre
    grundlæggende rettigheder. Desuden indebærer den øjeblikkelige virkning og de
    begrænsede muligheder for yderligere kontrol eller justeringer i forbindelse med
    anvendelsen af systemer, der fungerer i realtid, øgede risici for rettigheder og friheder
    for de personer, der er berørt af retshåndhævelsesaktiviteterne.
    DA 23 DA
    (19) Anvendelsen af disse systemer med henblik på retshåndhævelse bør derfor forbydes,
    undtagen i tre udtømmende opregnede og snævert definerede situationer, hvor
    anvendelsen er strengt nødvendig for at opfylde en væsentlig samfundsinteresse, hvis
    betydning vejer tungere end risiciene. Disse situationer omfatter eftersøgning af
    potentielle ofre for kriminalitet, herunder forsvundne børn, visse trusler mod fysiske
    personers liv eller fysiske sikkerhed eller om et terrorangreb, samt afsløring,
    lokalisering, identifikation eller retsforfølgning af gerningsmænd, der har begået, eller
    af personer, der mistænkes for at have begået, strafbare handlinger, der er omhandlet i
    Rådets rammeafgørelse 2002/584/JHA38
    , og som i den pågældende medlemsstat kan
    straffes med frihedsstraf eller en anden frihedsberøvende foranstaltning af en
    maksimal varighed på mindst tre år som fastsat i denne medlemsstats lovgivning. En
    sådan tærskel for frihedsstraf eller anden frihedsberøvende foranstaltning i
    overensstemmelse med national ret bidrager til at sikre, at lovovertrædelsen er af
    tilstrækkelig alvorlig karakter til potentielt at berettige anvendelsen af systemer til
    biometrisk fjernidentifikation i realtid. Desuden er nogle af de 32 strafbare handlinger,
    der er opregnet i Rådets rammeafgørelse 2002/584/JHA, i praksis mere relevante end
    andre, idet anvendelsen af biometrisk fjernidentifikation i realtid sandsynligvis vil
    være nødvendig og rimelig i meget varierende grad for afsløring, lokalisering,
    identifikation eller retsforfølgning af en gerningsmand, der har begået, eller af en
    person, der mistænkes for at have begået, strafbare handlinger, der er opført på listen,
    og under hensyntagen til de sandsynlige forskelle i lovovertrædelsens alvor, omfang
    eller mulige negative konsekvenser.
    (20) For at sikre, at disse systemer anvendes på en ansvarlig og rimelig måde, er det også
    vigtigt at fastslå, at der i hver af disse tre udtømmende opregnede og snævert
    definerede situationer bør tages hensyn til visse elementer, navnlig med hensyn til
    situationens karakter, som ligger til grund for anmodningen, og konsekvenserne af
    anvendelsen for alle berørte personers rettigheder og friheder samt de garantier og
    betingelser, der er fastsat for brugen. Anvendelsen af systemer til biometrisk
    fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse bør
    desuden underlægges passende begrænsninger i tid og sted, navnlig med hensyn til
    beviser eller indikationer vedrørende truslerne, ofrene eller gerningsmanden.
    Referencedatabasen over personer bør være passende for hvert enkelt
    anvendelsestilfælde i hver af de tre ovennævnte situationer.
    (21) Enhver anvendelse af et system til biometrisk fjernidentifikation i realtid på offentlige
    steder med henblik på retshåndhævelse bør være betinget af en udtrykkelig og specifik
    tilladelse fra en judiciel myndighed eller en uafhængig administrativ myndighed i en
    medlemsstat. En sådan tilladelse bør i princippet indhentes forud for anvendelsen,
    undtagen i behørigt begrundede hastende tilfælde, dvs. situationer, hvor behovet for at
    anvende de pågældende systemer er af en sådan art, at det er praktisk og objektivt
    umuligt at opnå en tilladelse, inden anvendelsen påbegyndes. I sådanne hastende
    situationer bør anvendelsen begrænses til det absolut nødvendige minimum og være
    underlagt passende garantier og betingelser som fastsat i national ret og præciseret af
    den retshåndhævende myndighed selv i forbindelse med hver enkelt hastesag.
    Desuden bør den retshåndhævende myndighed i sådanne situationer søge at opnå en
    tilladelse så hurtigt som muligt og samtidig begrunde, hvorfor den ikke har været i
    stand til at anmode om den tidligere.
    38
    Rådets rammeafgørelse 2002/584/RIA af 13. juni 2002 om den europæiske arrestordre og om
    procedurerne for overgivelse mellem medlemsstaterne (EFT L 190 af 18.7.2002, s. 1).
    DA 24 DA
    (22) Endvidere bør det inden for denne forordnings udtømmende rammer fastsættes, at en
    sådan anvendelse på en medlemsstats område i overensstemmelse med denne
    forordning kun bør være mulig, hvis og i det omfang den pågældende medlemsstat har
    besluttet udtrykkeligt at give mulighed for at tillade en sådan anvendelse i sine
    detaljerede bestemmelser i national ret. Det står derfor medlemsstaterne frit for i
    henhold til denne forordning slet ikke at fastsætte en sådan mulighed eller kun at
    fastsætte en sådan mulighed med hensyn til nogle af de forhold, der i henhold til denne
    forordning kan begrunde en godkendt anvendelse.
    (23) Anvendelsen af AI-systemer til biometrisk fjernidentifikation i realtid af fysiske
    personer på offentlige steder med henblik på retshåndhævelse indebærer nødvendigvis
    behandling af biometriske data. De bestemmelser i denne forordning, der med
    forbehold af visse undtagelser forbyder en sådan anvendelse, der er baseret på artikel
    16 i TEUF, bør finde anvendelse som lex specialis for så vidt angår reglerne om
    behandling af biometriske data i artikel 10 i direktiv (EU) 2016/680 og således
    regulere anvendelsen og behandlingen af biometriske data på en udtømmende måde.
    En sådan anvendelse og behandling bør derfor kun være mulig i det omfang, det er
    foreneligt med den ramme, der er fastsat i denne forordning, uden at der uden for
    denne ramme er mulighed for, at de kompetente myndigheder, når de handler med
    henblik på retshåndhævelse, kan anvende sådanne systemer og i forbindelse hermed
    behandle sådanne data af de grunde, der er anført i artikel 10 i direktiv (EU) 2016/680.
    I denne sammenhæng har denne forordning ikke til formål at tilvejebringe
    retsgrundlaget for behandling af personoplysninger i henhold til artikel 8 i direktiv
    2016/680. Anvendelsen af systemer til biometrisk fjernidentifikation i realtid på
    offentlige steder til andre formål end retshåndhævelse, herunder af kompetente
    myndigheder, bør imidlertid ikke være omfattet af den specifikke ramme for en sådan
    anvendelse med henblik på retshåndhævelse som fastsat i denne forordning. En sådan
    anvendelse til andre formål end retshåndhævelse bør derfor ikke være underlagt kravet
    om en tilladelse i henhold til denne forordning og de gældende detaljerede
    bestemmelser i national ret, der kan give den virkning.
    (24) Enhver behandling af biometriske data og andre personoplysninger, der benyttes i
    forbindelse med anvendelsen af AI-systemer til biometrisk identifikation, undtagen i
    forbindelse med anvendelsen af systemer til biometrisk fjernidentifikation i realtid på
    offentlige steder med henblik på retshåndhævelse som reguleret ved denne forordning,
    herunder når disse systemer anvendes af kompetente myndigheder på offentlige steder
    til andre formål end retshåndhævelse, bør fortsat opfylde alle krav, der følger af artikel
    9, stk. 1, i forordning (EU) 2016/679, artikel 10, stk. 1, i forordning (EU) 2018/1725
    og artikel 10 i direktiv (EU) 2016/680, alt efter hvad der er relevant.
    (25) I medfør af artikel 6a i protokol nr. 21 om Det Forenede Kongeriges og Irlands
    stilling, for så vidt angår området med frihed, sikkerhed og retfærdighed, der er knyttet
    som bilag til TEU og TEUF, er Irland ikke bundet af regler fastsat i artikel 5, stk. 1,
    litra d), stk. 2 og stk. 3 i denne forordning, der er vedtaget på grundlag af artikel 16 i
    TEUF vedrørende medlemsstaternes behandling af personoplysninger under udøvelsen
    af aktiviteter, der er omfattet af tredje del, afsnit V, kapitel 4 eller 5, i TEUF, når
    Irland ikke er bundet af regler vedrørende former for strafferetligt samarbejde eller
    politisamarbejde, der kræver overholdelse af de bestemmelser, der er fastsat på
    grundlag af artikel 16 i TEUF.
    (26) I medfør af artikel 2 og 2a i protokol nr. 22 om Danmarks stilling, der er knyttet som
    bilag til TEU og TEUF, er de regler, der er fastsat i artikel 5, stk. 1, litra d), stk. 2 og
    stk. 3 i denne forordning, der er vedtaget på grundlag af artikel 16 i TEUF vedrørende
    DA 25 DA
    medlemsstaternes behandling af personoplysninger under udøvelsen af aktiviteter, der
    er omfattet af tredje del, afsnit V, kapitel 4 eller 5, i TEUF, ikke bindende for og finder
    ikke anvendelse i Danmark.
    (27) Højrisiko-AI-systemer bør kun bringes i omsætning på EU-markedet eller tages i brug,
    hvis de opfylder visse obligatoriske krav. Disse krav bør sikre, at højrisiko-AI-
    systemer, der er tilgængelige i Unionen, eller hvis output på anden måde anvendes i
    Unionen, ikke udgør uacceptable risici for vigtige offentlige interesser i Unionen som
    anerkendt og beskyttet i EU-retten. AI-systemer, der er identificeret som indebærende
    høj risiko, bør begrænses til systemer, der har en betydelig skadelig indvirkning på
    menneskers sundhed, sikkerhed og grundlæggende rettigheder i Unionen, og sådanne
    begrænsninger minimerer eventuelle potentielle restriktioner for den internationale
    handel.
    (28) AI-systemer kan forårsage negative virkninger for menneskers sundhed og sikkerhed,
    navnlig når sådanne systemer fungerer som produktkomponenter. I overensstemmelse
    med målene for EU-harmoniseringslovgivningen om at lette den frie bevægelighed for
    produkter i det indre marked og sørge for, at kun sikre produkter, der opfylder
    kravene, kommer ind på markedet, er det vigtigt, at de sikkerhedsrisici, som et produkt
    som helhed kan udgøre på grund af dets digitale komponenter, herunder AI-systemer,
    behørigt forebygges og afbødes. F.eks. bør stadig mere autonome robotter, hvad enten
    det er i forbindelse med fremstilling eller personlig bistand og pleje, være i stand til at
    operere sikkert og udføre deres funktioner i komplekse miljøer. Også i
    sundhedssektoren, hvor det drejer sig direkte om liv og sundhed, bør stadig mere
    avancerede diagnosesystemer og systemer, der understøtter menneskers beslutninger,
    være pålidelige og nøjagtige. Omfanget af et AI-systems negative indvirkning på de
    grundlæggende rettigheder, der er beskyttet af chartret, er særlig relevant, når et AI-
    system klassificeres som et højrisikosystem. Disse rettigheder omfatter retten til
    menneskelig værdighed, respekt for privatliv og familieliv, beskyttelse af
    personoplysninger, ytrings- og informationsfrihed, forsamlings- og foreningsfrihed og
    ikkeforskelsbehandling, forbrugerbeskyttelse, arbejdstagerrettigheder, rettigheder for
    personer med handicap, adgang til effektive retsmidler og til en retfærdig rettergang,
    retten til et forsvar og uskyldsformodningen samt retten til god forvaltning. Ud over
    disse rettigheder er det vigtigt at fremhæve, at børn har specifikke rettigheder som
    fastsat i artikel 24 i EU's charter og i De Forenede Nationers konvention om barnets
    rettigheder (yderligere uddybet i FN's børnekonvention, generel bemærkning nr. 25
    vedrørende det digitale miljø), som begge kræver, at der tages hensyn til børns
    sårbarhed, og at der ydes den beskyttelse og omsorg, der er nødvendig for deres
    trivsel. Den grundlæggende ret til et højt miljøbeskyttelsesniveau, der er nedfældet i
    chartret og gennemført i Unionens politikker, bør også tages i betragtning ved
    vurderingen af alvoren af den skade, som et AI-system kan forårsage, herunder i
    forbindelse med menneskers sundhed og sikkerhed.
    (29) For så vidt angår højrisiko-AI-systemer, der er sikkerhedskomponenter i produkter
    eller systemer, eller som selv er produkter eller systemer, der er omfattet af
    anvendelsesområdet for Europa-Parlamentets og Rådets forordning (EF) nr.
    300/200839
    , Europa-Parlamentets og Rådets forordning (EU) nr. 167/201340
    , Europa-
    39
    Europa-Parlamentets og Rådets forordning (EF) nr. 300/2008 af 11. marts 2008 om fælles bestemmelser
    om sikkerhed inden for civil luftfart og om ophævelse af forordning (EF) nr. 2320/2002 (EUT L 97 af
    9.4.2008, s. 72).
    DA 26 DA
    Parlamentets og Rådets forordning (EU) nr. 168/201341
    , Europa-Parlamentets og
    Rådets direktiv 2014/90/EU42
    , Europa-Parlamentets og Rådets direktiv (EU)
    2016/79743
    , Europa-Parlamentets og Rådets forordning (EU) 2018/85844
    , Europa-
    Parlamentets og Rådets forordning (EU) 2018/113945
    og Europa-Parlamentets og
    Rådets forordning (EU) 2019/214446
    , bør disse retsakter ændres for at sikre, at
    Kommissionen, på grundlag af de særlige tekniske og reguleringsmæssige forhold i
    hver enkelt sektor og uden at intervenere i de eksisterende forvaltnings-,
    overensstemmelsesvurderings- og håndhævelsesmekanismer og de myndigheder, der
    er fastsat heri, tager hensyn til de obligatoriske krav til højrisiko-AI-systemer, der er
    fastsat i denne forordning, når den vedtager relevante fremtidige delegerede retsakter
    eller gennemførelsesretsakter på grundlag af disse retsakter.
    (30) For så vidt angår AI-systemer, der er sikkerhedskomponenter i produkter, eller som
    selv er produkter, der er omfattet af anvendelsesområdet for visse EU-
    harmoniseringsretsakter, er det hensigtsmæssigt at klassificere dem som
    højrisikosystemer i henhold til denne forordning, hvis det pågældende produkt
    overensstemmelsesvurderes af en tredjeparts overensstemmelsesvurderingsorgan i
    henhold til den relevante EU-harmoniseringslovgivning. Sådanne produkter er navnlig
    maskiner, legetøj, elevatorer, materiel og sikringssystemer til anvendelse i
    eksplosionsfarlig atmosfære, radioudstyr, trykudstyr, udstyr til fritidsfartøjer,
    tovbaneanlæg, gasapparater, medicinsk udstyr og in vitro-diagnostisk medicinsk
    udstyr.
    (31) Klassificeringen af et AI-system som et højrisikosystem i henhold til denne forordning
    bør ikke nødvendigvis betyde, at det produkt, hvori AI-systemet indgår som
    sikkerhedskomponent, eller selve AI-systemet, når det betragtes som et produkt, anses
    for at have høj risiko i henhold til de kriterier, der er fastsat i den relevante EU-
    harmoniseringslovgivning, der finder anvendelse på produktet. Dette er navnlig
    40
    Europa-Parlamentets og Rådets forordning (EU) nr. 167/2013 af 5. februar 2013 om godkendelse og
    markedsovervågning af landbrugs- og skovbrugstraktorer (EUT L 60 af 2.3.2013, s. 1).
    41
    Europa-Parlamentets og Rådets forordning (EU) nr. 168/2013 af 15. januar 2013 om godkendelse og
    markedsovervågning af to- og trehjulede køretøjer samt quadricykler (EUT L 60 af 2.3.2013, s. 52).
    42
    Europa-Parlamentets og Rådets direktiv 2014/90/EU af 23. juli 2014 om skibsudstyr og om ophævelse
    af Rådets direktiv 96/98/EF (EUT L 257 af 28.8.2014, s. 146).
    43
    Europa-Parlamentets og Rådets direktiv (EU) 2016/797 af 11. maj 2016 om interoperabilitet i
    jernbanesystemet i Den Europæiske Union (EUT L 138 af 26.5.2016, s. 44).
    44
    Europa-Parlamentets og Rådets forordning (EU) 2018/858 af 30. maj 2018 om godkendelse og
    markedsovervågning af motorkøretøjer og påhængskøretøjer dertil samt af systemer, komponenter og
    separate tekniske enheder til sådanne køretøjer, om ændring af forordning (EF) nr. 715/2007 og (EF) nr.
    595/2009 og om ophævelse af direktiv 2007/46/EF (EUT L 151 af 14.6.2018, s. 1).
    45
    Europa-Parlamentets og Rådets forordning (EU) 2018/1139 af 4. juli 2018 om fælles regler for civil
    luftfart og oprettelse af Den Europæiske Unions Luftfartssikkerhedsagentur og om ændring af
    forordning (EF) nr. 2111/2005, (EF) nr. 1008/2008, (EU) nr. 996/2010, (EU) nr. 376/2014 og direktiv
    2014/30/EU og 2014/53/EU og om ophævelse af (EF) nr. 552/2004 og (EF) nr. 216/2008 og Rådets
    forordning (EØF) nr. 3922/91 (EUT L 212 af 22.8.2018, s. 1).
    46
    Europa-Parlamentets og Rådets forordning (EU) 2019/2144 af 27. november 2019 om krav til
    typegodkendelse af motorkøretøjer og påhængskøretøjer dertil samt systemer, komponenter og separate
    tekniske enheder til sådanne køretøjer for så vidt angår deres generelle sikkerhed og beskyttelsen af
    køretøjspassagerer og bløde trafikanter og om ændring af Europa-Parlamentets og Rådets forordning
    (EU) 2018/858 og ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 78/2009, (EF) nr.
    79/2009 og (EF) nr. 661/2009 og Kommissionens forordning (EF) nr. 631/2009, (EU) nr. 406/2010,
    (EU) nr. 672/2010, (EU) nr. 1003/2010, (EU) nr. 1005/2010, (EU) nr. 1008/2010, (EU) nr. 1009/2010,
    (EU) nr. 19/2011, (EU) nr. 109/2011, (EU) nr. 458/2011, (EU) nr. 65/2012, (EU) nr. 130/2012, (EU) nr.
    347/2012, (EU) nr. 351/2012, (EU) nr. 1230/2012 og (EU) 2015/166 (EUT L 325 af 16.12.2019, s. 1).
    DA 27 DA
    tilfældet med Europa-Parlamentets og Rådets forordning (EU) 2017/74547
    og Europa-
    Parlamentets og Rådets forordning (EU) 2017/74648
    , hvor en tredjepart foretager
    overensstemmelsesvurderinger af mellemrisiko- og højrisikoprodukter.
    (32) Selvstændige AI-systemer, dvs. andre højrisiko-AI-systemer end dem, der er
    sikkerhedskomponenter i produkter, eller som selv er produkter, bør klassificeres som
    højrisikosystemer, hvis de set i lyset af deres tilsigtede formål udgør en høj risiko for
    skade på menneskers sundhed og sikkerhed eller grundlæggende rettigheder, idet der
    tages hensyn til både sandsynligheden for den mulige skade og dens alvorlighed, og
    hvis de anvendes på en række specifikt foruddefinerede områder, der er angivet i
    forordningen. Disse systemer udpeges ved hjælp af den samme metode og ud fra de
    samme kriterier som i forbindelse med eventuelle fremtidige ændringer af listen over
    højrisiko-AI-systemer.
    (33) Tekniske unøjagtigheder i AI-systemer, der er beregnet til biometrisk
    fjernidentifikation af fysiske personer, kan føre til skæve resultater og have
    diskriminerende virkning. Det gælder særligt med hensyn til alder, etnicitet, køn og
    handicap. Derfor bør systemer til biometrisk fjernidentifikation i realtid og
    efterfølgende biometrisk fjernidentifikation klassificeres som højrisikosystemer. I
    betragtning af de risici, systemerne udgør, bør begge typer af systemer til biometrisk
    fjernidentifikation være underlagt specifikke krav med hensyn til logningskapacitet og
    menneskeligt tilsyn.
    (34) For så vidt angår forvaltning og drift af kritisk infrastruktur bør AI-systemer, der er
    beregnet til anvendelse som sikkerhedskomponenter i forvaltningen og driften af
    vejtrafik og forsyning af vand, gas, varme og elektricitet, klassificeres som
    højrisikosystemer, da svigt eller funktionsfejl i disse systemer kan bringe menneskers
    liv og sundhed i fare i stort omfang og føre til betydelige forstyrrelser i de sociale og
    økonomiske aktiviteter.
    (35) AI-systemer, der anvendes inden for uddannelse eller erhvervsuddannelse, navnlig til
    optagelse eller fordeling af personer på uddannelsesinstitutioner eller til at evaluere
    personer i forbindelse med prøver som en del af eller som en forudsætning for deres
    uddannelse, bør betragtes som højrisikosystemer, da de kan afgøre menneskers
    uddannelsesmæssige og arbejdsmæssige livsforløb og dermed påvirke deres evne til at
    sikre sig et livsgrundlag. Hvis sådanne systemer udformes og anvendes forkert, kan de
    krænke retten til uddannelse og retten til ikke at blive forskelsbehandlet samt
    opretholde historiske diskriminationsmønstre.
    (36) AI-systemer, der anvendes inden for beskæftigelse, forvaltning af arbejdskraft og
    adgang til selvstændig erhvervsvirksomhed, navnlig til rekruttering og udvælgelse af
    personer og til beslutningstagning om forfremmelse og afskedigelse og til
    opgavefordeling, overvågning og evaluering af personer i arbejdsmæssige
    kontraktforhold, bør også klassificeres som højrisikosystemer, da de kan påvirke
    menneskers fremtidige karrieremuligheder og livsgrundlag betydeligt. De relevante
    arbejdsmæssige kontraktforhold bør omfatte ansatte og personer, der leverer
    47
    Europa-Parlamentets og Rådets forordning (EU) 2017/745 af 5. april 2017 om medicinsk udstyr, om
    ændring af direktiv 2001/83/EF, forordning (EF) nr. 178/2002 og forordning (EF) nr. 1223/2009 og om
    ophævelse af Rådets direktiv 90/385/EØF og 93/42/EØF (EUT L 117 af 5.5.2017, s. 1).
    48
    Europa-Parlamentets og Rådets forordning (EU) 2017/746 af 5. april 2017 om medicinsk udstyr til
    in vitro-diagnostik og om ophævelse af direktiv 98/79/EF og Kommissionens afgørelse 2010/227/EU
    (EUT L 117 af 5.5.2017, s. 176).
    DA 28 DA
    tjenesteydelser via platforme som omhandlet i Kommissionens arbejdsprogram for
    2021. Sådanne personer bør i princippet ikke betragtes som brugere som defineret i
    denne forordning. Gennem hele rekrutteringsprocessen og i forbindelse med
    evaluering, forfremmelse eller fastholdelse af personer i arbejdsmæssige
    kontraktforhold kan sådanne systemer opretholde historiske diskriminationsmønstre,
    f.eks. mod kvinder, bestemte aldersgrupper, personer med handicap eller personer af
    bestemt racemæssig eller etnisk oprindelse eller med en bestemt seksuel orientering.
    AI-systemer, der anvendes til at overvåge disse personers præstationer og adfærd, kan
    også påvirke deres ret til databeskyttelse og ret til privatlivets fred.
    (37) Et andet område, hvor anvendelsen af AI-systemer kræver særlig opmærksomhed, er
    adgangen til og benyttelsen af visse væsentlige private og offentlige tjenester og de
    fordele, der er nødvendige for, at mennesker kan deltage fuldt ud i samfundet eller
    forbedre deres levestandard. Navnlig bør AI-systemer, der anvendes til at evaluere
    kreditvurderinger eller kreditværdigheden af fysiske personer, klassificeres som
    højrisiko-AI-systemer, da de afgør menneskers adgang til finansielle ressourcer eller
    væsentlige tjenester såsom bolig, elektricitet og telekommunikationstjenester. AI-
    systemer, der anvendes til dette formål, kan føre til forskelsbehandling af personer
    eller grupper og opretholde historiske diskriminationsmønstre, f.eks. på grundlag af
    racemæssig eller etnisk oprindelse, handicap, alder eller seksuel orientering, eller være
    med til at skabe nye former for diskriminerende virkninger. I betragtning af den meget
    begrænsede indvirkning og de alternativer, der er tilgængelige på markedet, bør AI-
    systemer, der anvendes i forbindelse med kreditvurderinger og vurdering af
    kreditværdighed, undtages, når de tages i brug af mindre udbydere til egen brug.
    Fysiske personer, der ansøger om eller modtager offentlige bistandsydelser og
    tjenester fra offentlige myndigheder, er typisk afhængige af sådanne ydelser og
    tjenester og befinder sig i en sårbar situation i forhold til de ansvarlige myndigheder.
    Hvis der anvendes AI-systemer til at afgøre, om der skal gives afslag på sådanne
    ydelser og tjenester, eller om de skal reduceres, ophæves eller tilbagekræves af
    myndighederne, kan systemerne have en betydelig indvirkning på menneskers
    livsgrundlag og krænke deres grundlæggende rettigheder såsom retten til social
    beskyttelse, ikkeforskelsbehandling, menneskelig værdighed eller adgang til effektive
    retsmidler. Sådanne systemer bør derfor klassificeres som højrisikosystemer. Ikke
    desto mindre bør denne forordning ikke hindre udviklingen eller anvendelsen af
    innovative tilgange i den offentlige forvaltning, som vil kunne drage fordel af en
    bredere anvendelse af AI-systemer, der er i overensstemmelse med reglerne og er
    sikre, forudsat at de ikke indebærer en høj risiko for juridiske og fysiske personer.
    Endelig bør AI-systemer, der anvendes til at sende beredskabstjenester i nødsituationer
    eller til at tildele prioriteter i forbindelse hermed, også klassificeres som
    højrisikosystemer, da de træffer beslutninger i situationer, der er meget kritiske for
    menneskers liv og sundhed og for deres ejendom.
    (38) Retshåndhævende myndigheders handlinger, der omfatter visse anvendelser af AI-
    systemer, er kendetegnet ved en betydelig ubalance i magtforholdet og kan føre til
    overvågning, anholdelse eller frihedsberøvelse af fysiske personer samt have andre
    negative indvirkninger på de grundlæggende rettigheder, der er sikret i chartret.
    Navnlig kan AI-systemer udvælge personer på diskriminerende eller på anden måde
    ukorrekt eller uretfærdig vis, hvis de ikke er trænet med data af høj kvalitet, ikke
    opfylder passende krav med hensyn til nøjagtighed og robusthed eller ikke er korrekt
    udformede og afprøvet, før de bringes i omsætning eller på anden måde tages i brug.
    Desuden kan udøvelsen af vigtige grundlæggende processuelle rettigheder såsom
    retten til adgang til effektive retsmidler, retten til en retfærdig rettergang og retten til et
    DA 29 DA
    forsvar samt uskyldsformodningen hindres, navnlig hvis sådanne AI-systemer ikke er
    tilstrækkeligt gennemsigtige, forklarlige og dokumenterede. Derfor bør en række AI-
    systemer, der er beregnet til anvendelse i retshåndhævelsesmæssig sammenhæng, hvor
    det er særlig vigtigt med nøjagtighed, pålidelighed og gennemsigtighed for at undgå
    negative virkninger, bevare offentlighedens tillid og sikre ansvarlighed og effektive
    retsmidler, klassificeres som højrisikosystemer. I betragtning af de pågældende
    aktiviteters karakter og de risici, der er forbundet med dem, bør disse højrisiko-AI-
    systemer navnlig omfatte AI-systemer, der er beregnet til at blive anvendt af
    retshåndhævende myndigheder til individuelle risikovurderinger, polygrafer og
    lignende værktøjer, påvisning af fysiske personers følelsesmæssige tilstand, afsløring
    af deepfake-indhold, vurdering af pålideligheden af bevismateriale i straffesager,
    forudsigelse af forekomsten eller gentagelsen af en faktisk eller potentiel strafbar
    handling ud fra profilering af fysiske personer, vurdering af fysiske personers eller
    gruppers personlighedstræk og personlige egenskaber eller tidligere kriminelle adfærd,
    profilering i forbindelse med afsløring, efterforskning eller retsforfølgelse af strafbare
    handlinger samt kriminalanalyser vedrørende fysiske personer. AI-systemer, der
    specifikt er beregnet til skatte- og toldmyndigheders administrative procedurer, bør
    ikke betragtes som højrisiko-AI-systemer, der anvendes af retshåndhævende
    myndigheder med henblik på forebyggelse, afsløring, efterforskning og retsforfølgning
    af strafbare handlinger.
    (39) AI-systemer, der anvendes inden for migrationsstyring, asylforvaltning og
    grænsekontrol, berører personer, der ofte befinder sig i en særlig sårbar situation, og
    som er afhængige af resultatet af de kompetente offentlige myndigheders handlinger. I
    AI-systemer, der anvendes i disse sammenhænge, er nøjagtighed, gennemsigtighed og
    systemets ikkediskriminerende karakter derfor særlig vigtige med hensyn til at sikre, at
    de berørte personers grundlæggende rettigheder beskyttes, navnlig deres ret til fri
    bevægelighed, beskyttelse mod forskelsbehandling, beskyttelse af privatlivets fred og
    personoplysninger, international beskyttelse og god forvaltning. Derfor bør de AI-
    systemer, der er beregnet til at blive anvendt af de kompetente offentlige myndigheder,
    der er ansvarlige for opgaver inden for migrationsstyring, asylforvaltning og
    grænsekontrol, som polygrafer og lignende værktøjer eller til at påvise en fysisk
    persons følelsesmæssige tilstand, vurdere visse risici, som fysiske personer, der
    indrejser til en medlemsstats område eller ansøger om visum eller asyl, udgør,
    kontrollere ægtheden af fysiske personers relevante dokumenter, bistå de kompetente
    offentlige myndigheder i behandlingen af ansøgninger om asyl, visum og
    opholdstilladelse og hertil relaterede klager med henblik på at fastslå, om de fysiske
    personer, der ansøger, er berettigede, klassificeres som højrisikosystemer. AI-
    systemer, der anvendes inden for migrationsstyring, asylforvaltning og grænsekontrol,
    og som er omfattet af denne forordning, bør opfylde de relevante proceduremæssige
    krav i Europa-Parlamentets og Rådets direktiv 2013/32/EU49
    , Europa-Parlamentets og
    Rådets forordning (EF) nr. 810/200950
    og anden relevant lovgivning.
    (40) Visse AI-systemer, der er beregnet til anvendelse inden for retspleje og i demokratiske
    processer, bør klassificeres som højrisikosystemer i betragtning af deres potentielt
    49
    Europa-Parlamentets og Rådets direktiv 2013/32/EU af 26. juni 2013 om fælles procedurer for tildeling
    og fratagelse af international beskyttelse (EUT L 180 af 29.6.2013, s. 60).
    50
    Europa-Parlamentets og Rådets forordning (EF) nr. 810/2009 af 13. juli 2009 om en fællesskabskodeks
    for visa (visumkodeks) (EUT L 243 af 15.9.2009, s. 1).
    DA 30 DA
    betydelige indvirkning på demokratiet, retsstatsprincippet, individets
    frihedsrettigheder samt retten til adgang til effektive retsmidler og retten til en
    retfærdig rettergang. Navnlig for at imødegå risikoen for forudindtagethed, fejl og
    uigennemsigtighed bør de AI-systemer, der har til formål at bistå retlige myndigheder
    med at undersøge og fortolke fakta og lovgivningen og anvende lovgivningen i
    konkrete, faktuelle sager, klassificeres som højrisikosystemer. Denne kvalificering bør
    dog ikke omfatte AI-systemer, der er beregnet til rent supplerende administrative
    aktiviteter, som ikke har indflydelse på den egentlige retspleje i de enkelte sager, som
    f.eks. anonymisering eller pseudonymisering af retsafgørelser, dokumenter eller data,
    kommunikation mellem personale, administrative opgaver eller fordeling af
    ressourcer.
    (41) Klassificeringen af et AI-system som et højrisikosystem i henhold til denne forordning
    bør ikke fortolkes således, at anvendelsen af systemet nødvendigvis er lovlig i henhold
    til andre EU-retsakter eller national lovgivning, der er forenelig med EU-retten, f.eks.
    lovgivning om beskyttelse af personoplysninger, brug af polygrafer og lignende
    værktøjer eller andre systemer til at påvise fysiske personers følelsesmæssige tilstand.
    Enhver sådan anvendelse bør fortsat udelukkende ske i overensstemmelse med de
    gældende krav, der følger af chartret og de gældende afledte EU-retsforskrifter og
    national ret. Denne forordning bør ikke forstås som et retsgrundlag for behandling af
    personoplysninger, herunder særlige kategorier af personoplysninger, hvor det er
    relevant.
    (42) For at begrænse risiciene fra højrisiko-AI-systemer, der bringes i omsætning eller på
    anden måde tages i brug på EU-markedet, for brugere og berørte personer bør der
    gælde visse obligatoriske krav under hensyntagen til det tilsigtede formål med
    anvendelsen af systemet og i overensstemmelse med det risikostyringssystem, som
    udbyderen skal indføre.
    (43) Der bør gælde krav for højrisiko-AI-systemer med hensyn til kvaliteten af de anvendte
    datasæt, teknisk dokumentation og registrering, gennemsigtighed og formidling af
    oplysninger til brugerne, menneskeligt tilsyn og robusthed, nøjagtighed og
    cybersikkerhed. Disse krav er nødvendige for effektivt at mindske risiciene for
    menneskers sundhed, sikkerhed og grundlæggende rettigheder, alt efter hvad der i
    lyset af systemets tilsigtede formål er relevant, og hvis foranstaltninger, der er mindre
    begrænsende for handelen, ikke er mulige, således at uberettigede handelsrestriktioner
    undgås.
    (44) Når det gælder om at sikre, at et højrisiko-AI-system yder efter hensigten og på sikker
    vis og ikke bliver en kilde til forskelsbehandling som forbudt i henhold til EU-retten,
    er en høj datakvalitet afgørende for mange AI-systemers ydeevne, navnlig hvis der
    gøres brug af teknikker, der omfatter træning af modeller. Trænings-, validerings- og
    prøvningsdatasæt af høj kvalitet kræver, at der indføres passende datastyrings- og
    dataforvaltningspraksisser. Trænings-, validerings- og prøvningsdatasættene bør være
    tilstrækkeligt relevante, repræsentative og fri for fejl og fuldstændige i forhold til
    systemets tilsigtede formål. De bør også have de relevante statistiske egenskaber,
    herunder med hensyn til de personer eller grupper af personer, på hvilke højrisiko-AI-
    systemet skal anvendes. Navnlig bør der i trænings-, validerings- og prøvningsdatasæt
    i det omfang, det er nødvendigt i lyset af deres tilsigtede formål, tages hensyn til de
    egenskaber, karakteristika eller elementer, der er særlige for den specifikke
    geografiske, adfærdsmæssige eller funktionelle ramme eller kontekst, inden for
    hvilken AI-systemet skal anvendes. For at sikre andres ret til beskyttelse mod den
    forskelsbehandling, der kan opstå som følge af skævheder i AI-systemer, bør udbydere
    DA 31 DA
    også kunne behandle særlige kategorier af personoplysninger for at sikre, at partiskhed
    i forbindelse med højrisiko-AI-systemer overvåges, opdages og korrigeres som et
    spørgsmål af væsentligt samfundshensyn.
    (45) Når der udvikles højrisiko-AI-systemer, bør visse aktører, som for eksempel udbydere,
    bemyndigede organer og andre relevante enheder såsom digitale
    innovationsknudepunkter, prøvnings- og forsøgsfaciliteter og forskere, have adgang til
    og kunne anvende datasæt af høj kvalitet inden for deres respektive aktivitetsområder,
    som er relateret til denne forordning. Fælles europæiske dataområder, som
    Kommissionen har oprettet, og fremme af datadeling mellem virksomheder og med
    myndigheder i almenhedens interesse vil være afgørende for at sikre pålidelig,
    ansvarlig og ikkediskriminerende adgang til data af høj kvalitet til træning, validering
    og prøvning af AI-systemer. På sundhedsområdet vil det europæiske
    sundhedsdataområde for eksempel fremme ikkediskriminerende adgang til
    sundhedsdata og træning af algoritmer med kunstig intelligens i disse datasæt på en
    måde, der beskytter privatlivets fred, er sikker, rettidig, gennemsigtig og pålidelig og
    underlagt en passende institutionel styring. Relevante kompetente myndigheder,
    herunder sektorspecifikke myndigheder, der giver eller understøtter adgang til data,
    kan også understøtte tilvejebringelsen af data af høj kvalitet til træning, validering og
    prøvning af AI-systemer.
    (46) Med hensyn til overholdelsen af kravene i denne forordning er det vigtigt, at der
    foreligger oplysninger om, hvordan højrisiko-AI-systemer er blevet udviklet, og
    hvordan de fungerer i hele deres livscyklus. Det kræver, at der føres fortegnelser og
    stilles en teknisk dokumentation til rådighed, som indeholder de oplysninger, der er
    nødvendige for at vurdere AI-systemets overensstemmelse med de relevante krav.
    Sådanne oplysninger bør omfatte systemets generelle egenskaber, kapacitet og
    begrænsninger samt algoritmer, data, trænings-, prøvnings- og valideringsprocesser
    foruden dokumentation for det relevante risikostyringssystem. Den tekniske
    dokumentation skal holdes ajour.
    (47) For at afhjælpe den uigennemsigtighed, der kan gøre visse AI-systemer uforståelige
    eller for komplekse for fysiske personer, bør der kræves en vis grad af
    gennemsigtighed for højrisiko-AI-systemer. Brugerne bør kunne fortolke systemets
    output og anvende det korrekt. Højrisiko-AI-systemer bør derfor ledsages af relevant
    dokumentation og en brugsanvisning og indeholde kortfattede og klare oplysninger,
    blandt andet om mulige risici med hensyn til grundlæggende rettigheder og
    forskelsbehandling, hvis det er relevant.
    (48) Højrisiko-AI-systemer bør udformes og udvikles på en sådan måde, at fysiske
    personer kan føre tilsyn med deres funktion. Udbyderen af systemet bør derfor
    fastlægge passende foranstaltninger til menneskeligt tilsyn, inden systemet bringes i
    omsætning eller tages i brug. Hvor det er relevant, bør sådanne foranstaltninger
    navnlig sikre, at systemet er underlagt den menneskelige operatør og indbyggede
    driftsmæssige begrænsninger, som ikke kan tilsidesættes af systemet selv, og at de
    fysiske personer, som fører det menneskelige tilsyn, har de nødvendige kompetencer
    og den nødvendige uddannelse og beføjelse til at varetage rollen.
    (49) Højrisiko-AI-systemer bør fungere konsekvent i hele deres livscyklus og have et
    passende niveau af nøjagtighed, robusthed og cybersikkerhed i overensstemmelse med
    det generelt anerkendte aktuelle teknologiske niveau. Niveauet og parametrene med
    hensyn til nøjagtighed bør formidles til brugerne.
    DA 32 DA
    (50) Den tekniske robusthed er et centralt krav for højrisiko-AI-systemer. De bør være
    modstandsdygtige over for risici, der er forbundet med systemets begrænsninger
    (f.eks. fejl, svigt, uoverensstemmelser og uventede situationer) og mod ondsindede
    handlinger, der kan bringe AI-systemets sikkerhed i fare og resultere i skadelig eller på
    anden vis uønsket adfærd. Manglende beskyttelse mod disse risici kan have
    sikkerhedsmæssige konsekvenser eller en negativ indvirkning på de grundlæggende
    rettigheder, f.eks. som følge af fejlagtige beslutninger eller forkerte eller partiske
    output, der er genereret af AI-systemet.
    (51) Cybersikkerhed spiller en afgørende rolle med hensyn til at sikre, at AI-systemer er
    modstandsdygtige over for forsøg på at ændre deres anvendelse, adfærd, ydeevne eller
    kompromittere deres sikkerhedsegenskaber fra ondsindede tredjeparter, der udnytter
    systemets sårbarheder. Cyberangreb mod AI-systemer kan udnytte AI-specifikke
    aktiver såsom træningsdatasæt (f.eks. dataforgiftning) eller trænede modeller (f.eks.
    fjendtlige angreb) eller udnytte sårbarheder i AI-systemets digitale aktiver eller den
    underliggende IKT-infrastruktur. For at sikre et cybersikkerhedsniveau, der er
    passende i forhold til risiciene, bør udbydere af højrisiko-AI-systemer træffe passende
    foranstaltninger, idet der også tages hensyn til den underliggende IKT-infrastruktur,
    hvis det er relevant.
    (52) Som led i Unionens harmoniseringslovgivning bør der fastsættes regler for omsætning,
    ibrugtagning og anvendelse af højrisiko-AI-systemer i overensstemmelse med Europa-
    Parlamentets og Rådets forordning (EF) nr. 765/2008 om kravene til akkreditering og
    markedsovervågning af produkter51
    , Europa-Parlamentets og Rådets afgørelse
    nr. 768/2008/EF om fælles rammer for markedsføring af produkter52
    og Europa-
    Parlamentets og Rådets forordning (EU) 2019/1020 om markedsovervågning og
    produktoverensstemmelse53
    ("den nye lovgivningsmæssige ramme for markedsføring
    af produkter").
    (53) En bestemt fysisk eller juridisk person, defineret som udbyderen, bør påtage sig
    ansvaret for at omsætte eller ibrugtage et højrisiko-AI-system, uanset om denne
    fysiske eller juridiske person er den person, der har udformet eller udviklet systemet.
    (54) Udbyderen bør etablere et fornuftigt kvalitetsstyringssystem, sikre gennemførelsen af
    den påkrævede overensstemmelsesvurderingsprocedure, udarbejde den relevante
    dokumentation og indføre et robust system til overvågning efter omsætningen.
    Offentlige myndigheder, der ibrugtager højrisiko-AI-systemer til eget brug, kan
    vedtage og gennemføre reglerne for kvalitetsstyringssystemet som en del af det
    kvalitetsstyringssystem, der er vedtaget på nationalt eller regionalt plan, alt efter hvad
    der er relevant, under hensyntagen til de særlige forhold i sektoren og den pågældende
    offentlige myndigheds kompetencer og organisation.
    (55) Hvis et højrisiko-AI-system, som er en sikkerhedskomponent i et produkt, der er
    omfattet af relevant lovgivning inden for den nye lovgivningsmæssige ramme, ikke
    51
    Europa-Parlamentets og Rådets forordning (EF) nr. 765/2008 af 9. juli 2008 om kravene til
    akkreditering og markedsovervågning i forbindelse med markedsføring af produkter og om ophævelse
    af Rådets forordning (EØF) nr. 339/93 (EUT L 218 af 13.8.2008, s. 30).
    52
    Europa-Parlamentets og Rådets afgørelse nr. 768/2008/EF af 9. juli 2008 om fælles rammer for
    markedsføring af produkter og om ophævelse af Rådets afgørelse 93/465/EØF (EUT L 218 af
    13.8.2008, s. 82).
    53
    Europa-Parlamentets og Rådets forordning (EU) 2019/1020 af 20. juni 2019 om markedsovervågning
    og produktoverensstemmelse og om ændring af direktiv 2004/42/EF og forordning (EF) nr. 765/2008
    og (EU) nr. 305/2011 (EUT L 169 af 25.6.2019, s. 1).
    DA 33 DA
    bringes i omsætning eller tages i brug uafhængigt af produktet, bør producenten af
    slutproduktet som defineret i lovgivningen inden for den nye lovgivningsmæssige
    ramme opfylde de forpligtelser, der påhviler udbyderen i henhold til denne forordning,
    og navnlig sikre, at det AI-system, der er indlejret i slutproduktet, opfylder kravene i
    denne forordning.
    (56) For at muliggøre håndhævelsen af denne forordning og skabe lige vilkår for
    operatørerne og under hensyntagen til de forskellige former for tilgængeliggørelse af
    digitale produkter er det vigtigt at sikre, at en person, der er etableret i Unionen, under
    alle omstændigheder kan give myndighederne alle de nødvendige oplysninger om et
    AI-systems overensstemmelse med reglerne. Hvis der ikke kan udpeges en importør,
    skal udbydere, der er etableret uden for Unionen, inden deres AI-systemer gøres
    tilgængelige i Unionen, derfor ved skriftlig fuldmagt udpege en bemyndiget
    repræsentant, der er etableret i Unionen.
    (57) I overensstemmelse med principperne i den nye lovgivningsmæssige ramme bør der
    fastsættes specifikke forpligtelser for de relevante økonomiske operatører såsom
    importører og distributører for at sikre retssikkerhed og lette disse aktørers
    overholdelse af lovgivningen.
    (58) I betragtning af AI-systemers karakter og de risici for sikkerheden og de
    grundlæggende rettigheder, der kan være forbundet med deres anvendelse, herunder
    behovet for at sikre korrekt overvågning af et AI-systems ydeevne i virkelige rammer,
    bør der fastsættes specifikke ansvarsområder for brugere. Brugere bør navnlig anvende
    højrisiko-AI-systemer i overensstemmelse med brugsanvisningen, og der bør
    fastsættes visse andre forpligtelser med hensyn til overvågning af AI-systemernes
    funktion og, hvor det er relevant, med hensyn til registrering.
    (59) Det bør fastsættes, at brugeren af AI-systemet skal være den fysiske eller juridiske
    person, offentlige myndighed, det agentur eller et andet organ, under hvis myndighed
    AI-systemet drives, undtagen hvis anvendelsen sker som led i en personlig
    ikkeerhvervsmæssig aktivitet.
    (60) I betragtning af kompleksiteten af værdikæden for kunstig intelligens bør relevante
    tredjeparter, navnlig de, der er involveret i salg og levering af software,
    softwareværktøjer og -komponenter, forhåndstrænede modeller og data, eller udbydere
    af netværkstjenester, samarbejde med udbydere og brugere i det omfang, det er
    relevant, for at gøre det muligt for dem at opfylde forpligtelserne i henhold til denne
    forordning og med de kompetente myndigheder, der er fastlagt i henhold til denne
    forordning.
    (61) Standardisering bør spille en central rolle med hensyn til at levere tekniske løsninger
    til udbyderne for at sikre overholdelsen af denne forordning. Overholdelse af
    harmoniserede standarder som defineret i Europa-Parlamentets og Rådets forordning
    (EU) nr. 1025/201254
    bør være et middel for udbydere til at påvise overensstemmelse
    med kravene i denne forordning. Kommissionen kan imidlertid vedtage fælles
    tekniske specifikationer på områder, hvor der ikke findes harmoniserede standarder,
    eller hvor de er utilstrækkelige.
    54
    Europa-Parlamentets og Rådets forordning (EU) nr. 1025/2012 af 25. oktober 2012 om europæisk
    standardisering, om ændring af Rådets direktiv 89/686/EØF og 93/15/EØF og Europa-Parlamentets og
    Rådets direktiv 94/9/EF, 94/25/EF, 95/16/EF, 97/23/EF, 98/34/EF, 2004/22/EF, 2007/23/EF,
    2009/23/EF og 2009/105/EF og om ophævelse af Rådets beslutning 87/95/EØF og Europa-Parlamentets
    og Rådets afgørelse nr. 1673/2006/EF (EUT L 316 af 14.11.2012, s. 12).
    DA 34 DA
    (62) For at sikre en høj grad af pålidelighed i højrisiko-AI-systemer bør disse systemer
    underkastes en overensstemmelsesvurdering, inden de bringes i omsætning eller tages
    i brug.
    (63) For så vidt angår højrisiko-AI-systemer, der vedrører produkter, der er omfattet af
    eksisterende EU-harmoniseringslovgivning som følge af tilgangen med den nye
    lovgivningsmæssige ramme, bør disse AI-systemers overensstemmelse med kravene i
    denne forordning vurderes som led i den overensstemmelsesvurdering, der allerede er
    fastsat i nævnte lovgivning, således at byrden for operatørerne minimeres, og enhver
    mulig overlapning undgås. Anvendeligheden af kravene i denne forordning bør derfor
    ikke påvirke den specifikke logik, metode eller generelle struktur for
    overensstemmelsesvurderingen i henhold til den relevante specifikke lovgivning inden
    for den nye lovgivningsmæssige ramme. Denne tilgang afspejles fuldt ud i samspillet
    mellem denne forordning og [maskinforordningen]. Selv om sikkerhedsrisici ved de
    AI-systemer, der sørger for sikkerhedsfunktioner i maskiner, er omfattet af kravene i
    denne forordning, vil visse specifikke krav i [maskinforordningen] sikre, at AI-
    systemet integreres i den samlede maskine på sikker vis, således at sikkerheden for
    maskinen som helhed ikke bringes i fare. I [maskinforordningen] anvendes samme
    definition af et AI-system som i denne forordning.
    (64) I betragtning af den mere omfattende erfaring, som professionelle, der udfører
    certificering forud for omsætning, har inden for produktsikkerhed og de relevante
    risicis forskellige karakter, bør anvendelsesområdet for af tredjepart foretagne
    overensstemmelsesvurderinger af andre højrisiko-AI-systemer end dem, der vedrører
    produkter, begrænses i det mindste i den indledende fase af anvendelsen af denne
    forordning. Overensstemmelsesvurderinger af sådanne systemer bør derfor som
    hovedregel foretages af udbyderen på dennes eget ansvar, med undtagelse af AI-
    systemer, der er beregnet til at blive anvendt til biometrisk fjernidentifikation af
    personer, for hvilke det bør være muligt at inddrage et bemyndiget organ i
    overensstemmelsesvurderingen, i det omfang de ikke er forbudt.
    (65) Med henblik på af tredjeparter foretagne overensstemmelsesvurderinger af AI-
    systemer, der er beregnet til at blive anvendt til biometrisk fjernidentifikation af
    personer, bør der udpeges bemyndigede organer i henhold til denne forordning af de
    nationale kompetente myndigheder, forudsat at de opfylder en række krav, navnlig
    med hensyn til uafhængighed, kompetencer og interessekonflikter.
    (66) I overensstemmelse med det almindeligt anerkendte begreb væsentlig ændring for
    produkter, der er reguleret af EU-harmoniseringslovgivningen, bør et AI-system
    underkastes en ny overensstemmelsesvurdering, når der sker en ændring, som kan
    have indflydelse på systemets overensstemmelse med denne forordning, eller når
    systemets tilsigtede formål ændrer sig. Med hensyn til AI-systemer, der fortsætter med
    at "lære" efter, at de er bragt i omsætning eller taget i brug (dvs. de automatisk
    tilpasser, hvordan funktionerne udføres), er det desuden nødvendigt at fastsætte regler
    for, at ændringer af algoritmen og dens ydeevne, som er fastlagt på forhånd af
    udbyderen og vurderet på tidspunktet for overensstemmelsesvurderingen, ikke bør
    udgøre en væsentlig ændring.
    (67) Højrisiko-AI-systemer bør være forsynet med CE-mærkning for at vise, at de er i
    overensstemmelse med denne forordning, således at de kan bevæge sig frit på det
    indre marked. Medlemsstaterne bør ikke skabe uberettigede hindringer for
    omsætningen eller ibrugtagningen af højrisiko-AI-systemer, der opfylder kravene i
    denne forordning, og som er forsynet med CE-mærkning.
    DA 35 DA
    (68) Under visse omstændigheder kan hurtig adgang til innovative teknologier være
    afgørende for menneskers sundhed og sikkerhed og for samfundet som helhed.
    Medlemsstaterne bør derfor af ekstraordinære hensyn til den offentlige sikkerhed eller
    beskyttelsen af fysiske personers liv og sundhed og beskyttelsen af industriel og
    kommerciel ejendomsret kunne tillade omsætning eller ibrugtagning af AI-systemer,
    der ikke har været genstand for en overensstemmelsesvurdering.
    (69) For at lette Kommissionens og medlemsstaternes arbejde inden for kunstig intelligens
    og øge gennemsigtigheden for offentligheden bør udbydere af andre højrisiko-AI-
    systemer end dem, der vedrører produkter, der er omfattet af relevant eksisterende EU-
    harmoniseringslovgivning, pålægges at registrere deres højrisiko-AI-system i en EU-
    database, der skal oprettes og forvaltes af Kommissionen. Kommissionen bør være
    dataansvarlig for denne database i overensstemmelse med Europa-Parlamentets og
    Rådets forordning (EU) 2018/172555
    . For at sikre at databasen fungerer efter
    hensigten, når den tages i brug, bør proceduren for oprettelse af databasen omfatte, at
    Kommissionen udarbejder funktionsspecifikationer, samt en uafhængig
    revisionsrapport.
    (70) Visse AI-systemer, der er beregnet til at interagere med fysiske personer eller generere
    indhold, kan indebære særlige risici for imitation eller vildledning, uanset om de er
    klassificeret som højrisikosystemer eller ej. Under visse omstændigheder bør
    anvendelsen af disse systemer derfor være underlagt særlige
    gennemsigtighedsforpligtelser, uden at dette berører kravene og forpligtelserne for
    højrisiko-AI-systemer. Fysiske personer bør navnlig underrettes om, at de interagerer
    med et AI-system, medmindre dette fremgår tydeligt af omstændighederne og
    konteksten for anvendelsen. Fysiske personer bør desuden underrettes, når de udsættes
    for et system til følelsesgenkendelse eller et system til biometrisk kategorisering.
    Sådanne oplysninger og underretninger bør gives i formater, der er tilgængelige for
    personer med handicap. Endvidere bør de brugere, der anvender et AI-system til at
    generere eller manipulere billed-, lyd- eller videoindhold, der i væsentlig grad ligner
    faktiske personer, steder eller begivenheder, og som fejlagtigt vil fremstå ægte, oplyse,
    at indholdet er kunstigt skabt eller manipuleret, ved at mærke outputtet og oplyse om
    dets kunstige oprindelse.
    (71) Kunstig intelligens er en hurtigt voksende vifte af teknologier, der kræver nye former
    for myndighedstilsyn og et sikkert område til forsøg, samtidig med at der sikres
    ansvarlig innovation og integration af passende sikkerhedsforanstaltninger og
    risikobegrænsende foranstaltninger. For at sikre en lovgivningsmæssig ramme, der er
    innovationsvenlig, fremtidssikret og modstandsdygtig over for forstyrrelser, bør de
    nationale kompetente myndigheder i en eller flere medlemsstater tilskyndes til at
    oprette reguleringsmæssige sandkasser for kunstig intelligens for at lette udviklingen
    og prøvningen af innovative AI-systemer under strengt myndighedstilsyn, før disse
    systemer bringes i omsætning eller på anden måde tages i brug.
    (72) Formålet med de reguleringsmæssige sandkasser bør være at fremme innovation inden
    for kunstig intelligens ved at skabe et kontrolleret forsøgs- og prøvningsmiljø i
    udviklingsfasen forud for omsætning med henblik på at sikre, at de innovative AI-
    55
    Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske
    personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne
    oplysninger og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse) (EUT L 119
    af 4.5.2016, s. 1).
    DA 36 DA
    systemer er i overensstemmelse med denne forordning og anden relevant EU-
    lovgivning og national lovgivning, og øge retssikkerheden for innovatorer og de
    kompetente myndigheders tilsyn og forståelse af de muligheder, nye risici og
    virkninger, der er forbundet med anvendelsen af kunstig intelligens, samt fremskynde
    adgangen til markeder, herunder ved at fjerne hindringer for små og mellemstore
    virksomheder (SMV'er) og startup-virksomheder. For at sikre en ensartet
    gennemførelse i hele Unionen samt stordriftsfordele bør der fastsættes fælles regler for
    gennemførelsen af de reguleringsmæssige sandkasser og en ramme for samarbejde
    mellem de relevante myndigheder, der er involveret i tilsynet med sandkasserne.
    Denne forordning bør udgøre retsgrundlaget for anvendelsen af personoplysninger, der
    er indsamlet til andre formål med henblik på udvikling af visse AI-systemer i
    almenhedens interesse inden for rammerne af den reguleringsmæssige sandkasse for
    kunstig intelligens, jf. artikel 6, stk. 4, i forordning (EU) 2016/679 og artikel 6 i
    forordning (EU) 2018/1725 for så vidt andet ikke er fastsat i artikel 4, stk. 2, i direktiv
    (EU) 2016/680. Deltagerne i sandkassen bør sørge for passende
    sikkerhedsforanstaltninger og samarbejde med de kompetente myndigheder, herunder
    ved at følge deres vejledning og handle hurtigt og i god tro for at afbøde eventuelle
    store risici med hensyn til sikkerhed og de grundlæggende rettigheder, som måtte
    opstå under udviklingen og forsøgene i sandkassen. Der bør tages hensyn til adfærden
    hos deltagerne i sandkassen, når de kompetente myndigheder træffer afgørelse om
    pålæggelse af en administrativ bøde, jf. artikel 83, stk. 2, i forordning (EU) 2016/679
    og artikel 57 i direktiv (EU) 2016/680.
    (73) For at fremme og beskytte innovationen er det vigtigt, at der tages særligt hensyn til
    mindre udbyderes og brugere af AI-systemers interesser. Med henblik herpå bør
    medlemsstaterne udarbejde initiativer, der er rettet mod disse operatører, som f.eks.
    oplysningskampagner, information og kommunikation. Desuden skal der tages hensyn
    til mindre udbyderes særlige interesser og behov, når bemyndigede organer fastsætter
    gebyrer for overensstemmelsesvurderinger. Udgifter forbundet oversættelse af
    påkrævet dokumentation og kommunikation med myndigheder kan udgøre en
    betydelig omkostning for udbydere og andre operatører, navnlig mindre udbydere og
    operatører. Medlemsstaterne bør muligvis sørge for, at et af de sprog, som de
    bestemmer sig for og accepterer med hensyn til de relevante udbyderes dokumentation
    og kommunikationen med operatører, er et sprog, der forstås bredt af det størst mulige
    antal brugere på tværs af grænserne.
    (74) For at minimere risiciene i gennemførelsen som følge af manglende viden og
    ekspertise på markedet samt for at gøre det lettere for udbydere og bemyndigede
    organer at overholde deres forpligtelser i henhold til denne forordning bør AI-on-
    demand-platformen, de europæiske digitale innovationsknudepunkter og de prøvnings-
    og forsøgsfaciliteter, som Kommissionen og medlemsstaterne har oprettet på nationalt
    plan eller EU-plan, eventuelt bidrage til gennemførelsen af denne forordning. Inden
    for rammerne af deres respektive opgave- og kompetenceområde kan de navnlig yde
    teknisk og videnskabelig støtte til udbydere og bemyndigede organer.
    (75) Kommissionen bør så vidt muligt lette adgangen til prøvnings- og forsøgsfaciliteter for
    organer, grupper eller laboratorier, der er oprettet eller akkrediteret i henhold til
    relevant EU-harmoniseringslovgivning, og som udfører opgaver i forbindelse med
    overensstemmelsesvurderinger af produkter eller udstyr, der er omfattet af EU-
    harmoniseringslovgivningen. Dette er navnlig tilfældet for ekspertpaneler,
    ekspertlaboratorier og referencelaboratorier på området for medicinsk udstyr, jf.
    forordning (EU) 2017/745 og forordning (EU) 2017/746.
    DA 37 DA
    (76) For at fremme en gnidningsløs, effektiv og harmoniseret gennemførelse af denne
    forordning bør der nedsættes et europæisk udvalg for kunstig intelligens. Udvalget bør
    være ansvarligt for en række rådgivningsopgaver såsom udtalelser, henstillinger,
    rådgivning eller vejledning om spørgsmål vedrørende gennemførelsen af denne
    forordning, herunder med hensyn til tekniske specifikationer eller eksisterende
    standarder, der er relateret til de krav, der er fastsat i denne forordning, samt rådgive
    og bistå Kommissionen i forbindelse med specifikke spørgsmål vedrørende kunstig
    intelligens.
    (77) Medlemsstaterne spiller en central rolle i anvendelsen og håndhævelsen af denne
    forordning. I den forbindelse bør hver medlemsstat udpege en eller flere nationale
    kompetente myndigheder til at føre tilsyn med anvendelsen og gennemførelsen af
    denne forordning. For at øge organisationseffektiviteten for medlemsstaternes
    vedkommende og for at oprette et officielt kontaktpunkt for offentligheden og andre
    modparter på nationalt plan og EU-plan bør der i hver medlemsstat udpeges en
    national myndighed som national tilsynsmyndighed.
    (78) Alle udbydere bør have et system til overvågning efter omsætning, således at det
    sikres, at udbydere af højrisiko-AI-systemer tager erfaringerne med anvendelse af
    højrisiko-AI-systemer i betragtning, når de vil forbedre deres systemer og design- og
    udviklingsprocessen, og at de kan træffe eventuelle korrigerende foranstaltninger
    rettidigt. Dette system er også afgørende for at sikre, at eventuelle risici som følge af
    AI-systemer, der fortsætter med at "lære" efter at være bragt i omsætning eller taget i
    brug, kan imødegås mere effektivt og rettidigt. I den forbindelse bør udbyderne også
    forpligtes til at have et system til indberetning til de relevante myndigheder af
    alvorlige hændelser eller overtrædelser af national lovgivning eller EU-lovgivning, der
    beskytter de grundlæggende rettigheder som følge af anvendelsen af deres AI-
    systemer.
    (79) For at sikre en hensigtsmæssig og effektiv håndhævelse af de krav og forpligtelser, der
    er fastsat i denne forordning, som udgør EU-harmoniseringslovgivning, bør det system
    til markedsovervågning og produktoverensstemmelse, der er indført ved forordning
    (EU) 2019/1020, finde anvendelse i sin helhed. Nationale offentlige myndigheder eller
    organer, der fører tilsyn med anvendelsen af EU-lovgivningen om beskyttelse af
    grundlæggende rettigheder, herunder ligestillingsorganer, bør i det omfang, det er
    nødvendigt for deres mandat, også have adgang til al den dokumentation, der er
    udarbejdet i henhold til denne forordning.
    (80) EU-lovgivningen om finansielle tjenesteydelser omfatter regler og krav vedrørende
    intern forvaltning og risikostyring, som finder anvendelse på regulerede finansielle
    institutioner i forbindelse med leveringen af sådanne tjenester, også når de gør brug af
    AI-systemer. For at sikre en sammenhængende anvendelse og håndhævelse af
    forpligtelserne i henhold til denne forordning og de relevante regler og krav i EU-
    lovgivningen om finansielle tjenesteydelser bør de myndigheder, der er ansvarlige for
    tilsyn med og håndhævelse af lovgivningen om finansielle tjenesteydelser, herunder
    Den Europæiske Centralbank i det omfang, det er relevant, udpeges som kompetente
    myndigheder med henblik på at føre tilsyn med gennemførelsen af denne forordning,
    herunder også markedsovervågningsaktiviteter, for så vidt angår AI-systemer, der
    leveres eller anvendes af finansielle institutioner, som er regulerede, og som der føres
    tilsyn med. For yderligere at styrke sammenhængen mellem denne forordning og de
    regler, der gælder for kreditinstitutter, der er reguleret ved Europa-Parlamentets og
    DA 38 DA
    Rådets direktiv 2013/36/EU56
    , bør overensstemmelsesvurderingsproceduren og nogle
    af udbydernes proceduremæssige forpligtelser i forbindelse med risikostyring,
    overvågning efter omsætning og dokumentation indarbejdes i de eksisterende
    forpligtelser og procedurer i henhold i direktiv 2013/36/EU. For at undgå
    overlapninger bør der også overvejes begrænsede undtagelser for så vidt angår
    udbydernes kvalitetsstyringssystem og den overvågningsforpligtelse, der pålægges
    brugere af højrisiko-AI-systemer, i det omfang disse gælder for kreditinstitutter, der er
    reguleret ved direktiv 2013/36/EU.
    (81) Udviklingen af andre AI-systemer end højrisiko-AI-systemer i overensstemmelse med
    kravene i denne forordning kan føre til en større udbredelse af pålidelig kunstig
    intelligens i Unionen. Udbydere af AI-systemer, der ikke er højrisikosystemer, bør
    tilskyndes til at udarbejde adfærdskodekser med det formål at fremme frivillig
    anvendelse af de obligatoriske krav, der gælder for højrisiko-AI-systemer. Udbydere
    bør også tilskyndes til på frivillig basis at anvende yderligere krav vedrørende f.eks.
    miljømæssig bæredygtighed, tilgængelighed for personer med handicap, interessenters
    deltagelse i udformningen og udviklingen af AI-systemer og mangfoldigheden i
    udviklingsteamene. For at fremme mindskelsen af tekniske hindringer for
    grænseoverskridende udveksling af data til udvikling af kunstig intelligens kan
    Kommissionen udvikle initiativer, blandt andet på sektorniveau, vedrørende f.eks.
    dataadgangsinfrastruktur og semantisk og teknisk interoperabilitet for forskellige typer
    data.
    (82) Det er vigtigt, at AI-systemer vedrørende produkter, der ikke er højrisikoprodukter i
    henhold til denne forordning og derfor ikke skal opfylde kravene heri, ikke desto
    mindre er sikre, når de bringes i omsætning eller tages i brug. Med henblik på at
    bidrage til dette mål vil Europa-Parlamentets og Rådets direktiv 2001/95/EF57
    finde
    anvendelse som et sikkerhedsnet.
    (83) For at sikre et tillidsfuldt og konstruktivt samarbejde mellem de kompetente
    myndigheder på EU-plan og nationalt plan bør alle de parter, der er involveret i
    anvendelsen af denne forordning, respektere fortroligheden af oplysninger og data, der
    er indhentet under udførelsen af deres opgaver.
    (84) Medlemsstaterne bør træffe alle nødvendige foranstaltninger til at sikre, at
    bestemmelserne i denne forordning gennemføres, herunder ved at fastsætte sanktioner
    for overtrædelse heraf, som er effektive, står i rimeligt forhold til overtrædelsen og har
    afskrækkende virkning. Med hensyn til visse specifikke overtrædelser bør
    medlemsstaterne tage hensyn til de margener og kriterier, der er fastsat i denne
    forordning. Den Europæiske Tilsynsførende for Databeskyttelse bør have beføjelse til
    at pålægge de af Unionens institutioner, agenturer og organer, der er omfattet af denne
    forordnings anvendelsesområde, bøder.
    (85) For at den lovgivningsmæssige ramme om nødvendigt kan tilpasses, bør
    Kommissionen delegeres beføjelse til at vedtage retsakter, jf. artikel 290 i TEUF, med
    henblik på at ændre de i bilag I omhandlede teknikker og tilgange til at definere AI-
    56
    Europa-Parlamentets og Rådets direktiv 2013/36/EU af 26. juni 2013 om adgang til at udøve
    virksomhed som kreditinstitut og om tilsyn med kreditinstitutter og investeringsselskaber, om ændring
    af direktiv 2002/87/EF og om ophævelse af direktiv 2006/48/EF og 2006/49/EF (EUT L 176 af
    27.6.2013, s. 338).
    57
    Europa-Parlamentets og Rådets direktiv 2001/95/EF af 3. december 2001 om produktsikkerhed i
    almindelighed (EFT L 11 af 15.1.2002, s. 4).
    DA 39 DA
    systemer, den i bilag II anførte EU-harmoniseringslovgivning, de i bilag III anførte
    højrisiko-AI-systemer, de i bilag IV anførte bestemmelser vedrørende teknisk
    dokumentation, indholdet af EU-overensstemmelseserklæringen i bilag V,
    bestemmelserne vedrørende overensstemmelsesvurderingsprocedurer i bilag VI og VII
    og bestemmelserne om fastsættelse af de højrisiko-AI-systemer, på hvilke
    overensstemmelsesvurderingsproceduren på grundlag af en vurdering af
    kvalitetsstyringssystemet og en vurdering af den tekniske dokumentation skal finde
    anvendelse. Det er navnlig vigtigt, at Kommissionen gennemfører relevante høringer
    under sit forberedende arbejde, herunder på ekspertniveau, og at disse høringer
    gennemføres i overensstemmelse med principperne i den interinstitutionelle aftale af
    13. april 2016 om bedre lovgivning58
    . For at sikre lige deltagelse i forberedelsen af
    delegerede retsakter modtager Europa-Parlamentet og Rådet navnlig alle dokumenter
    på samme tid som medlemsstaternes eksperter, og deres eksperter har systematisk
    adgang til møder i de af Kommissionens ekspertgrupper, der beskæftiger sig med
    forberedelse af delegerede retsakter.
    (86) For at sikre ensartede betingelser for gennemførelsen af denne forordning bør
    Kommissionen tillægges gennemførelsesbeføjelser. Disse beføjelser bør udøves i
    overensstemmelse med Europa-Parlamentets og Rådets forordning (EU) nr.
    182/201159
    .
    (87) Målet for denne forordning kan ikke i tilstrækkelig grad opfyldes af medlemsstaterne,
    men kan på grund af handlingens omfang og virkninger bedre nås på EU-plan;
    Unionen kan derfor vedtage foranstaltninger i overensstemmelse med
    nærhedsprincippet, jf. artikel 5 i TEU. I overensstemmelse med
    proportionalitetsprincippet, jf. nævnte artikel, går denne forordning ikke videre, end
    hvad der er nødvendigt for at nå dette mål.
    (88) Denne forordning bør anvendes fra den [Publikationskontoret — indsæt datoen i
    artikel 85]. Infrastrukturen i forbindelse med forvaltnings- og
    overensstemmelsesvurderingssystemet bør dog være operationel inden denne dato, og
    bestemmelserne om bemyndigede organer og forvaltningsstruktur bør derfor finde
    anvendelse fra den [Publikationskontoret — indsæt dato: tre måneder efter denne
    forordnings ikrafttræden]. Desuden bør medlemsstaterne fastsætte og meddele
    Kommissionen bestemmelser om sanktioner, herunder administrative bøder, og sikre,
    at de er gennemført korrekt og effektivt på datoen for denne forordnings anvendelse.
    Bestemmelserne om sanktioner bør derfor finde anvendelse fra den
    [Publikationskontoret — indsæt dato: tolv måneder efter denne forordnings
    ikrafttræden].
    (89) Den Europæiske Tilsynsførende for Databeskyttelse og Det Europæiske
    Databeskyttelsesråd er blevet hørt i overensstemmelse med artikel 42, stk. 2, i
    forordning (EU) 2018/1725 og afgav en udtalelse den [...].
    58
    EUT L 123 af 12.5.2016, s. 1.
    59
    Europa-Parlamentets og Rådets forordning (EU) nr. 182/2011 af 16. februar 2011 om de generelle
    regler og principper for, hvordan medlemsstaterne skal kontrollere Kommissionens udøvelse af
    gennemførelsesbeføjelser (EUT L 55 af 28.2.2011, s. 13).
    DA 40 DA
    VEDTAGET DENNE FORORDNING:
    AFSNIT I
    ALMINDELIGE BESTEMMELSER
    Artikel 1
    Genstand
    Ved denne forordning fastsættes:
    (a) harmoniserede regler for omsætning, ibrugtagning og anvendelse af systemer
    med kunstig intelligens ("AI-systemer") i Unionen
    (a) forbud mod visse former for praksis med hensyn til kunstig intelligens
    (b) specifikke krav til højrisiko-AI-systemer og forpligtelser for operatører af
    sådanne systemer
    (c) harmoniserede gennemsigtighedsregler for AI-systemer, der er beregnet til at
    interagere med fysiske personer, systemer til følelsesgenkendelse og systemer
    til biometriske kategorisering, samt AI-systemer, der anvendes til at generere
    eller manipulere billed-, lyd- eller videoindhold
    (d) regler om markedsovervågning og -tilsyn.
    Artikel 2
    Anvendelsesområde
    1. Denne forordning finder anvendelse på:
    (a) udbydere, der omsætter eller ibrugtager AI-systemer i Unionen, uanset om
    samme udbydere er etablerede i Unionen eller i et tredjeland
    (b) brugere af AI-systemer i Unionen
    (c) udbydere og brugere af AI-systemer, der befinder sig i et tredjeland, hvis det
    output, der produceres af systemet, anvendes i Unionen.
    2. For så vidt angår højrisiko-AI-systemer, der er sikkerhedskomponenter i produkter
    eller systemer, eller som selv er produkter eller systemer, der er omfattet af
    anvendelsesområdet for følgende retsakter, finder kun artikel 84 i denne forordning
    anvendelse:
    (a) forordning (EF) nr. 300/2008
    (b) forordning (EU) nr. 167/2013
    (c) forordning (EU) nr. 168/2013
    (d) direktiv 2014/90/EU
    (e) direktiv (EU) 2016/797
    (f) forordning (EU) 2018/858
    (g) forordning (EU) 2018/1139
    (h) forordning (EU) 2019/2144.
    DA 41 DA
    3. Denne forordning finder ikke anvendelse på AI-systemer, der er udviklet eller
    udelukkende anvendes til militære formål.
    4. Denne forordning finder ikke anvendelse på offentlige myndigheder i tredjelande
    eller internationale organisationer, der er omfattet af denne forordnings
    anvendelsesområde, jf. stk. 1, hvis disse myndigheder eller organisationer anvender
    AI-systemer inden for rammerne af internationale aftaler om retshåndhævelse og
    retligt samarbejde med Unionen eller med en eller flere medlemsstater.
    5. Denne forordning berører ikke anvendelsen af bestemmelserne om formidleransvar
    for tjenesteydere i kapitel II, afdeling IV, i Europa-Parlamentets og Rådets direktiv
    2000/31/EF60
    [skal erstattes af de tilsvarende bestemmelser i retsakten om digitale
    tjenester].
    Artikel 3
    Definitioner
    I denne forordning forstås ved:
    (1) "system med kunstig intelligens" (AI-system): software, der er udviklet ved hjælp af
    en eller flere af de i bilag I anførte teknikker og tilgange, og som med henblik på et
    givet sæt mål, der er fastsat af mennesker, kan generere output såsom indhold,
    forudsigelser, anbefalinger eller beslutninger, der påvirker de miljøer, de interagerer
    med
    (2) "udbyder": en fysisk eller juridisk person, en offentlig myndighed, et agentur eller et
    andet organ, der udvikler eller får udviklet et AI-system med henblik på at bringe det
    i omsætning eller ibrugtage det under eget navn eller varemærke, enten mod betaling
    eller gratis
    (3) "mindre udbyder": en udbyder, der er en mikrovirksomhed eller en mindre
    virksomhed som defineret i Kommissionens henstilling 2003/361/EF61
    (4) "bruger": enhver fysisk eller juridisk person, offentlig myndighed eller ethvert
    agentur eller andet organ, der anvender et AI-system under sin myndighed,
    medmindre AI-systemet anvendes som led i en personlig ikkeerhvervsmæssig
    aktivitet
    (5) "bemyndiget repræsentant": enhver fysisk eller juridisk person, der er etableret i
    Unionen, og som har modtaget en skriftlig fuldmagt fra en udbyder af et AI-system
    til på dennes vegne at opfylde og udføre de forpligtelser og procedurer, der er fastsat
    i denne forordning
    (6) "importør": enhver fysisk eller juridisk person, der er etableret i Unionen, og som
    omsætter eller ibrugtager et AI-system, der bærer en uden for Unionen etableret
    fysisk eller juridisk persons navn eller varemærke
    (7) "distributør": enhver fysisk eller juridisk person i forsyningskæden ud over
    udbyderen eller importøren, som gør et AI-system tilgængeligt på EU-markedet uden
    at have indflydelse på dets egenskaber
    60
    Europa-Parlamentets og Rådets direktiv 2000/31/EF af 8. juni 2000 om visse retlige aspekter af
    informationssamfundstjenester, navnlig elektronisk handel, i det indre marked ("Direktivet om
    elektronisk handel") (EFT L 178 af 17.7.2000, s. 1).
    61
    Kommissionens henstilling 2003/361/EF af 6. maj 2003 om definitionen af mikrovirksomheder, små og
    mellemstore virksomheder (EUT L 124 af 20.5.2003, s. 36).
    DA 42 DA
    (8) "operatør": udbyderen, brugeren, den bemyndigede repræsentant, importøren og
    distributøren
    (9) "bringe i omsætning": den første tilgængeliggørelse af et AI-system på EU-markedet
    (10) "tilgængeliggørelse på markedet": enhver levering af et AI-system med henblik på
    distribution eller anvendelse på EU-markedet som led i erhvervsvirksomhed mod
    eller uden vederlag
    (11) "ibrugtagning": levering af et AI-system med henblik på anvendelse for første gang
    enten direkte til brugeren eller til egen brug på EU-markedet i overensstemmelse
    med systemets tilsigtede formål
    (12) "tilsigtet formål": den anvendelse, som et AI-system af udbyderen er beregnet til,
    herunder den specifikke sammenhæng og de specifikke betingelser for anvendelse
    som angivet i de oplysninger, udbyderen har givet i brugsanvisningen, reklame- eller
    salgsmaterialet eller reklame- og salgserklæringerne samt i den tekniske
    dokumentation
    (13) "fejlanvendelse, der med rimelighed kan forudses": anvendelse af et AI-system på en
    måde, der ikke er i overensstemmelse med systemets tilsigtede formål, men som kan
    skyldes menneskelig adfærd eller interaktion med andre systemer, som med
    rimelighed kan forudses
    (14) "sikkerhedskomponent i et produkt eller et system": en komponent i et produkt eller
    et system, som har en sikkerhedsfunktion for det pågældende produkt eller system
    eller i tilfælde af svigt eller funktionsfejl, som bringer menneskers sundhed og
    sikkerhed eller ejendom i fare, i produktet eller systemet
    (15) "brugsanvisning": oplysninger fra udbyderen med henblik på at informere brugeren
    om navnlig et AI-systems tilsigtede formål og korrekte anvendelse, herunder de
    specifikke geografiske, adfærdsmæssige eller funktionelle rammer, inden for hvilke
    højrisiko-AI-systemet skal anvendes
    (16) "tilbagekaldelse af et AI-system": enhver foranstaltning, der har til formål at opnå, at
    et AI-system, der allerede er gjort tilgængeligt for brugerne, returneres til udbyderen
    (17) "tilbagetrækning af et AI-system": enhver foranstaltning, der har til formål at
    forhindre, at et AI-system distribueres, udstilles eller udbydes
    (18) "et AI-systems ydeevne": et AI-systems evne til at opfylde det tilsigtede formål
    (19) "bemyndigende myndighed": den nationale myndighed, der er ansvarlig for at
    indføre og gennemføre de nødvendige procedurer for vurdering, udpegelse og
    bemyndigelse af overensstemmelsesvurderingsorganer og for overvågning heraf
    (20) "overensstemmelsesvurdering": en proces til verificering af, om de i afsnit III,
    kapitel 2, i denne forordning fastsatte krav vedrørende et AI-system er opfyldt
    (21) "overensstemmelsesvurderingsorgan": et organ, der som tredjepart udfører
    overensstemmelsesvurderingsopgaver, herunder prøvning, certificering og inspektion
    (22) "bemyndiget organ": et overensstemmelsesvurderingsorgan, der er udpeget i
    overensstemmelse med denne forordning og anden relevant EU-
    harmoniseringslovgivning
    (23) "væsentlig ændring": en ændring af et AI-system efter dets omsætning eller
    ibrugtagning, som har indvirkning på AI-systemets overensstemmelse med de i
    DA 43 DA
    afsnit III, kapitel 2, i denne forordning fastsatte krav, eller som medfører en ændring
    af det tilsigtede formål, med hensyn til hvilket AI-systemet er vurderet
    (24) "CE-overensstemmelsesmærkning" (CE-mærkning): en mærkning, hvormed en
    udbyder angiver, at et AI-system er i overensstemmelse med de i afsnit III, kapitel 2,
    i denne forordning fastsatte krav og anden EU-lovgivning om harmonisering af
    betingelser for omsætning af produkter ("EU-harmoniseringslovgivning") og om
    anbringelse af denne mærkning
    (25) "overvågning efter omsætningen": alle aktiviteter, som udbydere af AI-systemer
    udfører for proaktivt at indhente og gennemgå erfaringer med anvendelse af de AI-
    systemer, de bringer i omsætning eller tager i brug, med henblik på at afdække
    eventuelle behov for straks at træffe nødvendige, korrigerende eller forebyggende
    foranstaltninger
    (26) "markedsovervågningsmyndighed": den nationale myndighed, der udfører aktiviteter
    og træffer foranstaltninger i henhold til forordning (EU) 2019/1020
    (27) "harmoniseret standard": en europæisk standard som defineret i artikel 2, nr. 1),
    litra c), i forordning (EU) nr. 1025/2012
    (28) "fælles specifikationer": et dokument, der ikke er en standard, og som indeholder
    tekniske løsninger, der giver mulighed for at opfylde visse krav og forpligtelser, der
    er fastsat i denne forordning
    (29) "træningsdata": data, der anvendes til træning af et AI-system ved hjælp af tilpasning
    af systemets lærbare parametre, herunder vægte i et neuralt netværk
    (30) "valideringsdata": data, der anvendes til at foretage en evaluering af det trænede AI-
    system og til at justere blandt andet systemets ikkelærbare parametre og dets
    læringsproces for at forhindre overtilpasning, idet valideringsdatasættet kan være et
    separat datasæt eller en del af træningsdatasættet med enten en fast eller en variabel
    opdeling
    (31) "prøvningsdata": data, der anvendes til en uafhængig evaluering af det trænede og
    validerede AI-system for at bekræfte systemets forventede ydeevne, inden det
    bringes i omsætning eller tages i brug
    (32) "inputdata": data, der leveres til eller hentes direkte af et AI-system, og på grundlag
    af hvilke systemet leverer et output
    (33) "biometriske data": personoplysninger, der som følge af specifik teknisk behandling
    vedrørende en fysisk persons fysiske, fysiologiske eller adfærdsmæssige
    karakteristika muliggør eller bekræfter en entydig identifikation af vedkommende,
    som f.eks. ansigtsbilleder eller fingeraftryksoplysninger
    (34) "system til følelsesgenkendelse": et AI-system, der har til formål at genkende eller
    udlede fysiske personers følelser eller hensigter på grundlag af deres biometriske
    data
    (35) "system til biometrisk kategorisering": et AI-system, der har til formål at tildele
    fysiske personer bestemte kategorier såsom køn, alder, hårfarve, øjenfarve,
    tatoveringer, etnisk oprindelse, seksuel orientering eller politisk overbevisning på
    grundlag af deres biometriske data
    (36) "system til biometrisk fjernidentifikation": et AI-system, der har til formål at
    identificere fysiske personer på afstand ved at sammenligne en persons biometriske
    DA 44 DA
    data med de biometriske data i en referencedatabase, uden at brugeren af AI-systemet
    har forudgående viden om, hvorvidt personen vil være til stede og kan identificeres
    (37) "system til biometrisk fjernidentifikation i realtid": et system til biometrisk
    fjernidentifikation, hvor optagelse af biometriske data, sammenligning og
    identifikation finder sted uden væsentlig forsinkelse. Dette omfatter ikke blot
    øjeblikkelig identifikation, men også begrænsede, korte forsinkelser for at undgå
    omgåelse
    (38) "system til efterfølgende biometrisk fjernidentifikation": et system til biometrisk
    fjernidentifikation, som ikke er system til biometrisk fjernidentifikation i realtid
    (39) "offentlige steder": ethvert fysisk sted, der er tilgængeligt for offentligheden, uanset
    om visse betingelser for adgang finder anvendelse
    (40) "retshåndhævende myndigheder":
    (a) enhver offentlig myndighed, der er kompetent med hensyn til at forebygge,
    efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde
    strafferetlige sanktioner, herunder beskytte mod og forebygge trusler mod den
    offentlige sikkerhed, eller
    (b) ethvert andet organ eller enhver anden enhed, som i henhold til
    medlemsstaternes nationale lovgivning udøver offentlig myndighed og
    offentlige beføjelser med henblik på at forebygge, efterforske, afsløre eller
    retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner,
    herunder beskytte mod og forebygge trusler mod den offentlige sikkerhed
    (41) "retshåndhævelse": aktiviteter, som retshåndhævende myndigheder udfører med
    hensyn til at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger
    eller fuldbyrde strafferetlige sanktioner, herunder beskytte mod og forebygge trusler
    mod den offentlige sikkerhed
    (42) "national tilsynsmyndighed": den myndighed, som en medlemsstat giver ansvaret for
    at gennemføre og anvende denne forordning, koordinere de aktiviteter, der er betroet
    den pågældende medlemsstat, fungere som eneste kontaktpunkt for Kommissionen
    og repræsentere medlemsstaten i Det Europæiske Udvalg for Kunstig Intelligens
    (43) "national kompetent myndighed": den nationale tilsynsmyndighed, den
    bemyndigende myndighed og markedsovervågningsmyndigheden
    (44) "alvorlig hændelse": enhver hændelse, som direkte eller indirekte fører, kunne have
    ført eller kan føre til et af følgende udfald:
    (a) et menneskes død eller alvorlig skade på et menneskes helbred eller ejendom
    eller på miljøet
    (b) en alvorlig og uoprettelig forstyrrelse i forvaltningen og driften af kritisk
    infrastruktur.
    Artikel 4
    Ændring af bilag I
    Kommissionen tillægges beføjelse til at vedtage delegerede retsakter, jf. artikel 73, med
    henblik på at ændre listen over teknikker og tilgange i bilag I for at føre listen ajour med den
    markedsmæssige og tekniske udvikling på grundlag af egenskaber, der svarer til de oplistede
    teknikker og tilgange.
    DA 45 DA
    AFSNIT II
    FORBUDT PRAKSIS MED HENSYN TIL KUNSTIG INTELLIGENS
    Artikel 5
    1. Følgende former for praksis med hensyn til kunstig intelligens er forbudt:
    (a) omsætning, ibrugtagning eller anvendelse af et AI-system, der anvender
    subliminale teknikker, der rækker ud over den menneskelige bevidsthed, med
    henblik på i væsentlig grad at fordreje en persons adfærd på en måde, der
    påfører eller sandsynligvis vil påføre den pågældende person eller en anden
    person fysisk eller psykisk skade
    (b) omsætning, ibrugtagning eller anvendelse af et AI-system, der udnytter enhver
    af en specifik gruppe af personers sårbarheder på grundlag af alder eller fysisk
    eller psykisk handicap med henblik på i væsentlig grad at fordreje en til
    gruppen hørende persons adfærd på en måde, der påfører eller sandsynligvis vil
    påføre den pågældende person eller en anden person fysisk eller psykisk skade
    (c) omsætning, ibrugtagning eller anvendelse af AI-systemer fra offentlige
    myndigheders side eller på deres vegne med henblik på evaluering eller
    klassificering af fysiske personers troværdighed over en given periode på
    grundlag af deres sociale adfærd eller kendte eller forudsagte personlige
    egenskaber eller personlighedstræk, således at den sociale bedømmelse fører til
    et eller begge følgende udfald:
    i) skadelig eller ugunstig behandling af visse fysiske personer eller hele
    grupper heraf i sociale sammenhænge, som ikke har noget at gøre med de
    sammenhænge, i hvilke dataene oprindeligt blev genereret eller indsamlet
    ii) skadelig eller ugunstig behandling af visse fysiske personer eller hele
    grupper heraf, som er uberettiget eller uforholdsmæssig i forhold til deres
    sociale adfærd eller alvorligheden heraf
    (d) anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige
    steder med henblik på retshåndhævelse, medmindre og i det omfang en sådan
    anvendelse er strengt nødvendig for et af følgende formål:
    i) målrettet eftersøgning af specifikke potentielle ofre for kriminalitet,
    herunder forsvundne børn
    ii) forebyggelse af en specifik, væsentlig og overhængende trussel mod
    fysiske personers liv eller fysiske sikkerhed eller om et terrorangreb
    iii) afsløring, lokalisering, identifikation eller retsforfølgning af en
    gerningsmand, der har begået, eller af en person, der mistænkes for at
    have begået, en strafbar handling, der er omhandlet i artikel 2, stk. 2, i
    Rådets rammeafgørelse 2002/584/JHA62
    , og som i den pågældende
    medlemsstat kan straffes med frihedsstraf eller en anden
    62
    Rådets rammeafgørelse 2002/584/RIA af 13. juni 2002 om den europæiske arrestordre og om
    procedurerne for overgivelse mellem medlemsstaterne (EFT L 190 af 18.7.2002, s. 1).
    DA 46 DA
    frihedsberøvende foranstaltning af en maksimal varighed på mindst tre år
    som fastsat i denne medlemsstats lovgivning.
    2. Ved anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige
    steder med henblik på retshåndhævelse til et af de i stk. 1, litra d), omhandlede
    formål, tages der hensyn til følgende elementer:
    (a) karakteren af den situation, der giver anledning til den mulige anvendelse,
    navnlig alvorligheden, sandsynligheden og omfanget af den skade, der
    forvoldes, hvis systemet ikke anvendes
    (b) konsekvenserne for alle de berørte personers rettigheder og friheder, navnlig
    alvorligheden, sandsynligheden og omfanget af disse konsekvenser, hvis
    systemet anvendes.
    Ved anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige
    steder med henblik på retshåndhævelse til et af de i stk. 1, litra d), omhandlede
    formål overholdes desuden nødvendige og forholdsmæssige
    sikkerhedsforanstaltninger og betingelser vedrørende anvendelsen, navnlig for så vidt
    angår tidsmæssige, geografiske og personlige begrænsninger.
    3. Hvad angår stk. 1, litra d), og stk. 2 er hver enkelt anvendelse af et system til
    biometrisk fjernidentifikation i realtid på offentlige steder med henblik på
    retshåndhævelse betinget af en forudgående tilladelse, der er udstedt af en judiciel
    myndighed eller en uafhængig administrativ myndighed i den medlemsstat, hvor
    anvendelsen skal finde sted, på grundlag af en begrundet anmodning og i
    overensstemmelse med de detaljerede regler i national ret, jf. stk. 4. I behørigt
    begrundede hastetilfælde kan anvendelsen af systemet dog påbegyndes uden
    tilladelse, og der kan anmodes om tilladelse under eller efter anvendelsen.
    Den kompetente judicielle eller administrative myndighed udsteder kun en tilladelse,
    hvis den på grundlag af objektive beviser eller klare indikationer, den får forelagt,
    finder det godtgjort, at anvendelsen af det pågældende system til biometrisk
    fjernidentifikation i realtid er nødvendig og rimelig for at opfylde et af de i stk. 1,
    litra d), anførte formål som påpeget i anmodningen. Når den kompetente judicielle
    eller administrative myndighed træffer afgørelse om anmodningen, tager den hensyn
    til de i stk. 2 omhandlede elementer.
    4. En medlemsstat kan beslutte at give mulighed for helt eller delvist at tillade
    anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder
    med henblik på retshåndhævelse inden for de begrænsninger og på de betingelser,
    der er nævnt i stk. 1, litra d), og stk. 2 og 3. Den pågældende medlemsstat fastsætter i
    sin nationale lovgivning de nødvendige detaljerede regler for anmodning, udstedelse
    og benyttelse af samt tilsyn i forbindelse med de i stk. 3 omhandlede tilladelser.
    Disse regler præciserer også, til hvilke af de i stk. 1, litra d), anførte formål, herunder
    for hvilke af de i nr. iii) nævnte strafbare handlinger, de kompetente myndigheder
    kan få tilladelse til at anvende disse systemer med henblik på retshåndhævelse.
    DA 47 DA
    AFSNIT III
    HØJRISIKO-AI-SYSTEMER
    KAPITEL 1
    KLASSIFICERING AF AI-SYSTEMER SOM HØJRISIKOSYSTEMER
    Artikel 6
    Klassificeringsregler for højrisiko-AI-systemer
    1. Uanset om et AI-system bringes i omsætning eller tages i brug uafhængigt af de i
    litra a) og b) omhandlede produkter, betragtes AI-systemet som et højrisikosystem,
    hvis begge følgende betingelser er opfyldt:
    (a) AI-systemet er beregnet til at blive anvendt som en sikkerhedskomponent i et
    produkt eller er i sig selv et produkt, der er omfattet af den EU-
    harmoniseringslovgivning, der er anført i bilag II
    (b) det produkt, hvis sikkerhedskomponent er AI-systemet, eller AI-systemet selv
    som et produkt skal underkastes en overensstemmelsesvurdering foretaget af
    tredjepart med henblik på omsætning eller ibrugtagning af produktet i henhold
    til den EU-harmoniseringslovgivning, der er anført i bilag II.
    2. Ud over de højrisiko-AI-systemer, der er omhandlet i stk. 1, betragtes de AI-
    systemer, der er omhandlet i bilag III, også som højrisikosystemer.
    Artikel 7
    Ændring af bilag III
    1. Kommissionen tillægges beføjelse til at vedtage delegerede retsakter, jf. artikel 73,
    med henblik på at ajourføre listen i bilag III ved at tilføje højrisiko-AI-systemer, hvis
    begge følgende betingelser er opfyldt:
    (a) AI-systemerne er beregnet til at blive anvendt på et af de områder, der er anført
    i punkt 1-8 i bilag III
    (b) AI-systemerne udgør en risiko for skade på menneskers sundhed og sikkerhed
    eller en risiko for negativ indvirkning på de grundlæggende rettigheder, som
    med hensyn til alvorlighed og sandsynlighed svarer til eller er større end
    risikoen for skade eller negativ indvirkning ved de højrisiko-AI-systemer, der
    allerede er nævnt i bilag III.
    2. Ved vurdering, jf. stk. 1, af, om et AI-system udgør en risiko for skade på
    menneskers sundhed og sikkerhed eller en risiko for negativ indvirkning på de
    grundlæggende rettigheder, som svarer til eller er større end risikoen for skade ved
    de højrisiko-AI-systemer, der allerede er nævnt i bilag III, tager Kommissionen
    hensyn til følgende kriterier:
    (a) det tilsigtede formål med AI-systemet
    (b) i hvilket omfang AI-systemet er blevet anvendt eller sandsynligvis vil blive
    anvendt
    DA 48 DA
    (c) i hvilket omfang anvendelsen af AI-systemet allerede har forvoldt skade på
    menneskers sundhed og sikkerhed, har haft negativ indvirkning på de
    grundlæggende rettigheder eller har givet anledning til betydelig bekymring
    med hensyn til forekomsten af en sådan skade eller negativ indvirkning, hvilket
    er afspejlet i rapporter eller dokumenterede påstande, der er indgivet til de
    nationale kompetente myndigheder
    (d) det potentielle omfang af en sådan skade eller negativ indvirkning, navnlig med
    hensyn til alvorlighed og mulighed for påvirkning af flere personer
    (e) i hvilket omfang potentielt skadede eller negativt påvirkede personer afhænger
    af det resultat, AI-systemet giver, navnlig hvis det af praktiske eller juridiske
    grunde ikke med rimelighed er muligt at fravælge resultatet
    (f) i hvilket omfang potentielt skadede eller negativt påvirkede personer befinder
    sig i en sårbar situation i forhold til brugeren af AI-systemet, navnlig som følge
    af en ubalance med hensyn til magt, viden, økonomiske eller sociale
    omstændigheder eller alder
    (g) i hvilket omfang det resultat, AI-systemet giver, let kan ændres, idet resultater,
    der har indvirkning på menneskers sundhed eller sikkerhed, ikke anses for let
    at kunne ændres
    (h) i hvilket omfang den eksisterende EU-lovgivning indeholder bestemmelser om:
    i) effektive retsmidler med hensyn til de risici, der er forbundet med AI-
    systemer, med undtagelse af erstatningskrav
    ii) effektive foranstaltninger til forebyggelse eller i væsentlig grad
    minimering af disse risici.
    KAPITEL 2
    KRAV TIL HØJRISIKO-AI-SYSTEMER
    Artikel 8
    Overholdelse af krav
    1. Højrisiko-AI-systemer opfylder de krav, der er fastsat i dette kapitel.
    2. I sikringen af, at disse krav overholdes, tages højrisiko-AI-systemernes tilsigtede
    formål og det risikostyringssystem, der er omhandlet i artikel 9, i betragtning.
    Artikel 9
    Risikosstyringssystem
    1. Hvad angår højrisiko-AI-systemer oprettes og gennemføres der et
    risikostyringssystem, som dokumenteres og vedligeholdes.
    2. Risikostyringssystemet består af en kontinuerlig iterativ proces, der løber i hele
    højrisiko-AI-systemets livscyklus, og som kræver regelmæssig systematisk
    opdatering. Det omfatter følgende trin:
    (a) kortlægning og analyse af kendte og forudsigelige risici forbundet med hvert
    højrisiko-AI-system
    DA 49 DA
    (b) vurdering og evaluering af de risici, der kan opstå, når højrisiko-AI-systemet
    anvendes i overensstemmelse med dets tilsigtede formål og ved fejlanvendelse,
    der med rimelighed kan forudses
    (c) evaluering af andre risici, der kan opstå, på grundlag af analyse af data
    indsamlet fra systemet til overvågning efter omsætningen, jf. artikel 61
    (d) passende risikostyringsforanstaltninger i overensstemmelse med
    bestemmelserne i de følgende stykker.
    3. De i stk. 2, litra d), omhandlede risikostyringsforanstaltninger tager behørigt hensyn
    til virkningerne af og eventuelle interaktioner som følge af den kombinerede
    anvendelse af kravene i kapitel 2. De tager hensyn til det generelt anerkendte aktuelle
    teknologiske niveau, herunder som afspejlet i relevante harmoniserede standarder
    eller fælles specifikationer.
    4. De i stk. 2, litra d), omhandlede risikostyringsforanstaltninger er af en sådan art, at
    eventuelle resterende risici, der er forbundet med hver fare, samt den samlede
    resterende risiko ved højrisiko-AI-systemerne vurderes at være acceptabel, forudsat
    at højrisiko-AI-systemet anvendes i overensstemmelse med dets tilsigtede formål
    eller ved fejlanvendelse, der med rimelighed kan forudses. Disse resterende risici
    meddeles brugeren.
    I fastlæggelsen af de mest hensigtsmæssige risikostyringsforanstaltninger sikres
    følgende:
    (a) fjernelse eller i videst mulig omfang begrænsning af risici ved hjælp af
    passende udformning og udvikling
    (b) om nødvendigt gennemførelse af passende foranstaltninger til afbødning og
    kontrol for så vidt angår risici, der ikke kan fjernes
    (c) tilvejebringelse af tilstrækkelige oplysninger, jf. artikel 13, navnlig for så vidt
    angår de risici, der er omhandlet i stk. 2, litra b), og, hvis det er relevant,
    uddannelse af brugerne.
    Ved fjernelse eller begrænsning af risici, der er forbundet med anvendelsen af et
    højrisiko-AI-system, tages der behørigt hensyn til den tekniske viden, erfaring og
    uddannelse, som kan forventes af brugeren, og det miljø, i hvilket systemet er
    beregnet til at blive anvendt.
    5. Højrisiko-AI-systemer prøves med henblik på at fastslå de mest hensigtsmæssige
    risikostyringsforanstaltninger. Prøvningen sikrer, at højrisiko-AI-systemer fungerer
    konsekvent i overensstemmelse med deres tilsigtede formål og opfylder de krav, der
    er fastsat i dette kapitel.
    6. Prøvningsprocedurerne er egnede til at opfylde AI-systemets tilsigtede formål og
    behøver ikke gå videre, end hvad der er nødvendigt for at opfylde dette formål.
    7. Prøvning af højrisiko-AI-systemer foretages på et hvilket som helst tidspunkt under
    hele udviklingsprocessen, alt efter hvad der er relevant, og under alle
    omstændigheder inden omsætning eller ibrugtagning. Prøvningen foretages på
    grundlag af på forhånd definerede parametre og sandsynlighedsbaserede tærskler, der
    står i et passende forhold til det tilsigtede formål med højrisiko-AI-systemet.
    8. I gennemførelsen af det risikostyringssystem, der er beskrevet i stk. 1-7, tages der
    særligt hensyn til, om der er sandsynlighed for, at højrisiko-AI-systemet tilgås af
    eller har indvirkning på børn.
    DA 50 DA
    9. For kreditinstitutter, der er reguleret ved direktiv 2013/36/EU, er de aspekter, der er
    beskrevet i stk. 1-8, en del af de risikostyringsprocedurer, som institutterne har
    fastlagt i henhold til artikel 74 i nævnte direktiv.
    Artikel 10
    Data og datastyring
    1. De højrisiko-AI-systemer, der gør brug af teknikker, som omfatter træning af
    modeller med data, udvikles på grundlag af trænings-, validerings- og
    prøvningsdatasæt, der opfylder de kvalitetskriterier, der er omhandlet i stk. 2-5.
    2. Trænings-, validerings- og prøvningsdatasæt er underlagt passende datastyrings- og
    dataforvaltningspraksisser. Disse praksisser vedrører navnlig:
    (a) de relevante valg med hensyn til udformning
    (b) dataindsamling
    (c) relevant dataforberedelsesbehandling såsom annotation, mærkning, rensning,
    berigning og aggregering
    (d) formuleringen af relevante antagelser, navnlig med hensyn til de oplysninger,
    som dataene skal måle og repræsentere
    (e) en forudgående vurdering af tilgængeligheden, mængden og egnetheden af de
    datasæt, der er nødvendige
    (f) undersøgelse med hensyn til mulig forudindtagethed
    (g) kortlægning af eventuelle datamangler eller datautilstrækkeligheder, og
    hvordan de kan afhjælpes.
    3. Trænings-, validerings- og prøvningsdatasæt er relevante, repræsentative, fejlfri og
    fuldstændige. De har de tilstrækkelige statistiske egenskaber, herunder, hvis det er
    relevant, med hensyn til de personer eller grupper af personer, på hvilke højrisiko-
    AI-systemet skal anvendes. Disse egenskaber kan opfyldes for de enkelte datasæt
    eller for en kombination heraf.
    4. I trænings-, validerings- og prøvningsdatasæt tages der i det omfang, det er
    nødvendigt i lyset af deres tilsigtede formål, hensyn til de egenskaber eller elementer,
    der er særlige for den specifikke geografiske, adfærdsmæssige eller funktionelle
    ramme, inden for hvilken højrisiko-AI-systemet skal anvendes.
    5. I det omfang, det er strengt nødvendigt for at sikre, at forudindtagethed i forbindelse
    med højrisiko-AI-systemer overvåges, opdages og korrigeres, kan udbydere af
    sådanne systemer behandle særlige kategorier af personoplysninger, der er
    omhandlet i artikel 9, stk. 1, i forordning (EU) 2016/679, artikel 10 i direktiv (EU)
    2016/680 og artikel 10, stk. 1, i forordning (EU) 2018/1725, med forbehold for
    passende sikkerhedsforanstaltninger med hensyn til fysiske personers grundlæggende
    rettigheder og friheder, herunder tekniske begrænsninger for videreanvendelse samt
    benyttelse af de mest avancerede sikkerhedsforanstaltninger og foranstaltninger til
    beskyttelse af privatlivet fred, som f.eks. pseudonymisering eller, i tilfælde hvor
    anonymisering i væsentlig grad kan påvirke formålet, kryptering.
    6. Passende datastyrings- og dataforvaltningspraksisser finder anvendelse på
    udviklingen af andre højrisiko-AI-systemer end dem, der gør brug af teknikker, der
    omfatter træning af modeller, således at højrisiko-AI-systemerne er i
    overensstemmelse med stk. 2.
    DA 51 DA
    Artikel 11
    Teknisk dokumentation
    1. Den tekniske dokumentation for et højrisiko-AI-system udarbejdes, inden systemet
    bringes i omsætning eller tages i brug, og holdes ajour.
    Den tekniske dokumentation udarbejdes på en sådan måde, at den påviser, at
    højrisiko-AI-systemet overholder de krav, der er fastsat i dette kapitel, og således at
    alle de oplysninger, der er nødvendige for at vurdere AI-systemets overholdelse af
    disse krav, gives til de nationale kompetente myndigheder og bemyndigede organer.
    Dokumentationen skal som minimum indeholde de i bilag IV fastsatte elementer.
    2. Hvis et højrisiko-AI-system, der er tilknyttet et produkt, der er omfattet af de i
    bilag II, afsnit A, anførte retsakter, bringes i omsætning eller tages i brug, udarbejdes
    der en samlet teknisk dokumentation, der indeholder alle de oplysninger, der er
    anført i bilag IV, samt de oplysninger, der kræves i henhold til disse retsakter.
    3. Kommissionen tillægges beføjelse til at vedtage delegerede retsakter, jf. artikel 73,
    med henblik på at ændre bilag IV, hvis det på baggrund af den tekniske udvikling er
    nødvendigt for, at den tekniske dokumentation giver alle de oplysninger, der er
    nødvendige for at vurdere, om systemet opfylder de krav, der er fastsat i dette
    kapitel.
    Artikel 12
    Registrering
    1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at hændelser
    ("logfiler") registreres automatisk, når højrisiko-AI-systemet er i drift. Denne logning
    er i overensstemmelse med anerkendte standarder eller fælles specifikationer.
    2. Logningen sikrer en i forhold til AI-systemets tilsigtede formål passende grad af
    sporbarhed af systemets funktion gennem hele dets livscyklus.
    3. Logningen gør det navnlig muligt at overvåge driften af højrisiko-AI-systemer med
    hensyn til forekomsten af situationer, der kan medføre, at et AI-system udgør en
    risiko, jf. artikel 65, stk. 1, eller som kan føre til en væsentlig ændring, samt lette
    overvågningen efter omsætningen, jf. artikel 61.
    4. For så vidt angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1,
    litra a), omfatter logningen som minimum:
    (a) registrering af tidsperioden for hver anvendelse af systemet (startdato og -
    klokkeslæt samt slutdato og -klokkeslæt for hver anvendelse)
    (b) den referencedatabase, med hvilken systemet har sammenholdt inputdata
    (c) de inputdata, som i søgningen har givet et resultat
    (d) identifikation af de fysiske personer, der er involveret i verificeringen af
    resultater, jf. artikel 14, stk. 5.
    Artikel 13
    Gennemsigtighed og formidling af oplysninger til brugere
    1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at deres drift er
    tilstrækkelig gennemsigtig til, at brugerne kan fortolke systemets output og anvende
    det korrekt. Der sikres en passende type og grad af gennemsigtighed med henblik på
    DA 52 DA
    opfyldelse af de relevante bruger- og udbyderforpligtelser, der er fastsat i dette
    afsnits kapitel 3.
    2. Højrisiko-AI-systemer ledsages af brugsanvisninger i et passende digitalt format eller
    på anden vis, og disse indeholder kortfattede, fuldstændige, korrekte og klare
    oplysninger, som er relevante, tilgængelige og forståelige for brugerne.
    3. De i stk. 2 omhandlede oplysninger omfatter:
    (a) identitet på og kontaktoplysninger for udbyderen og dennes eventuelle
    bemyndigede repræsentant
    (b) højrisiko-AI-systemets egenskaber, kapacitet og begrænsninger for dets
    ydeevne, herunder:
    i) systemets tilsigtede formål
    ii) det niveau af nøjagtighed, robusthed og cybersikkerhed, jf. artikel 15, i
    forhold til hvilket højrisiko-AI-systemet er testet og valideret, og som
    kan forventes, samt alle kendte og forudsigelige omstændigheder, der kan
    have indvirkning på det forventede niveau af nøjagtighed, robusthed og
    cybersikkerhed
    iii) alle kendte eller forudsigelige omstændigheder, som i forbindelse med
    anvendelse af højrisiko-AI-systemet i overensstemmelse med dets
    tilsigtede formål eller ved fejlanvendelse, der med rimelighed kan
    forudses, kan medføre risici for menneskers sundhed og sikkerhed eller
    grundlæggende rettigheder
    iv) systemets ydeevne for så vidt angår de personer eller grupper af personer,
    på hvilke systemet er beregnet til at blive anvendt
    v) hvis det er relevant, specifikationer for inputdata eller andre relevante
    oplysninger med hensyn til de anvendte trænings-, validerings- og
    prøvningsdatasæt under hensyntagen til AI-systemets tilsigtede formål
    (c) eventuelle ændringer af højrisiko-AI-systemet og dets ydeevne, som udbyderen
    på forhånd har fastsat på tidspunktet for den indledende
    overensstemmelsesvurdering
    (d) foranstaltninger til menneskeligt tilsyn, jf. artikel 14, herunder de tekniske
    foranstaltninger, der er indført for at lette brugernes fortolkning af AI-
    systemets output
    (e) højrisiko-AI-systemets forventede levetid og eventuelle nødvendige
    vedligeholdelses- og plejeforanstaltninger for at sikre, at AI-systemet fungerer
    korrekt, herunder med hensyn til softwareopdateringer.
    Artikel 14
    Menneskeligt tilsyn
    1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, herunder med
    passende menneske-maskine-grænsefladeværktøjer, at fysiske personer kan føre
    effektivt tilsyn med dem i den periode, hvor AI-systemet er i brug.
    2. Menneskeligt tilsyn har til formål at forebygge eller minimere de risici for
    menneskers sundhed, sikkerhed eller grundlæggende rettigheder, der kan opstå, når
    et højrisiko-AI-system anvendes i overensstemmelse med dets tilsigtede formål eller
    DA 53 DA
    ved fejlanvendelse, der med rimelighed kan forudses, navnlig hvis sådanne risici
    fortsat består uanset anvendelsen af andre krav, der er fastsat i dette kapitel.
    3. Menneskeligt tilsyn sikres ved hjælp af en eller alle af følgende foranstaltninger:
    (a) menneskeligt tilsyn er fastlagt og, hvis det er teknisk muligt, indbygget i
    højrisiko-AI-systemet fra udbyderens side, inden systemet bringes i omsætning
    eller tages i brug
    (b) menneskeligt tilsyn er fastlagt fra udbyderens side, inden højrisiko-AI-systemet
    bringes i omsætning eller tages i brug, og er egnet til at blive gennemført af
    brugeren.
    4. De i stk. 3 omhandlede foranstaltninger gør det muligt for de personer, der foretager
    menneskeligt tilsyn, alt efter omstændighederne at:
    (a) forstå højrisiko-AI-systemets kapacitet og begrænsninger fuldt ud og være i
    stand til at overvåge dets drift på behørig vis, således at tegn på
    uregelmæssigheder, funktionsforstyrrelser og uventet ydeevne kan opdages og
    afhjælpes så hurtigt som muligt
    (b) være opmærksomme på den mulige tendens til automatisk eller i overdreven
    grad af forlade sig på output fra højrisiko-AI-systemet
    ("automatiseringspartiskhed"), navnlig for så vidt angår højrisiko-AI-systemer,
    der anvendes til at give oplysninger eller anbefalinger til afgørelser, der skal
    træffes af fysiske personer
    (c) kunne fortolke højrisiko-AI-systemets output korrekt under hensyntagen til
    navnlig systemets egenskaber og de tilgængelige fortolkningsværktøjer og -
    metoder
    (d) kunne beslutte ikke at anvende højrisiko-AI-systemet eller på anden måde se
    bort fra, tilsidesætte eller omgøre output fra højrisiko-AI-systemet i enhver
    given situation
    (e) kunne gribe ind i højrisiko-AI-systemets drift eller afbryde systemet ved hjælp
    af en "stopknap" eller en lignende procedure.
    5. For så vidt angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1,
    litra a), sikrer de foranstaltninger, der er omhandlet i stk. 3, desuden, at brugeren ikke
    træffer nogen foranstaltninger eller beslutninger på grundlag af en identifikation, der
    følger af systemet, medmindre den er blevet verificeret og bekræftet af mindst to
    fysiske personer.
    Artikel 15
    Nøjagtighed, robusthed og cybersikkerhed
    1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at de i lyset af deres
    tilsigtede formål har et passende niveau af nøjagtighed, robusthed og cybersikkerhed
    og i disse henseender fungerer konsekvent i hele deres livscyklus.
    2. Højrisiko-AI-systemers niveau og relevante parametrene med hensyn til nøjagtighed
    angives i den ledsagende brugsanvisning.
    3. Højrisiko-AI-systemer er modstandsdygtige over for fejl, svigt og
    uoverensstemmelser, der kan forekomme i systemet eller i det miljø, som systemet
    fungerer i, navnlig på grund af systemets interaktion med fysiske personer eller andre
    systemer.
    DA 54 DA
    4. Højrisiko-AI-systemers robusthed kan opnås ved hjælp af tekniske
    redundansløsninger, som kan omfatte backupplaner eller fejlsikre planer.
    5. De højrisiko-AI-systemer, der fortsætter med at lære efter at være bragt i omsætning
    eller taget i brug, udvikles på en sådan måde, at det sikres, at eventuelle partiske
    output som følge af output, der anvendes som input i fremtidig drift
    ("feedbacksløjfer"), behørigt imødegås ved hjælp af passende afbødende
    foranstaltninger.
    6. Højrisiko-AI-systemer er modstandsdygtige over for uautoriserede tredjeparters
    forsøg på at ændre deres anvendelse eller ydeevne ved at udnytte systemets
    sårbarheder.
    De tekniske løsninger, der har til formål at sikre cybersikkerhed i forbindelse med
    højrisiko-AI-systemer, står i et passende forhold til de relevante omstændigheder og
    risiciene.
    De tekniske løsninger til afhjælpning af AI-specifikke sårbarheder omfatter, alt efter
    hvad der er relevant, foranstaltninger til forebyggelse af og kontrol for angreb, der
    forsøger at manipulere træningsdatasættet ("dataforgiftning"), input, der har til
    formål at få modellen til at begå fejl ("fjendtlige eksempler"), eller modelfejl.
    KAPITEL 3
    FORPLIGTELSER FOR UDBYDERE OG BRUGERE AF HØJRISIKO-AI-
    SYSTEMER OG ANDRE PARTER
    Artikel 16
    Forpligtelser for udbydere af højrisiko-AI-systemer
    Udbydere af højrisiko-AI-systemer skal:
    (a) sørge for, at deres højrisiko-AI-systemer opfylder de krav, der er fastsat i dette
    afsnits kapitel 2
    (b) indføre et kvalitetsstyringssystem, der er i overensstemmelse med artikel 17
    (c) udarbejde den tekniske dokumentation for højrisiko-AI-systemet
    (d) opbevare de logfiler, der automatisk genereres af deres højrisiko-AI-systemer, når
    logfilerne er under deres kontrol
    (e) sørge for, at højrisiko-AI-systemet underkastes den relevante
    overensstemmelsesvurderingsprocedure, inden systemet bringes i omsætning eller
    tages i brug
    (f) opfylde registreringsforpligtelsen, jf. artikel 51
    (g) træffe de nødvendige korrigerende foranstaltninger, hvis højrisiko-AI-systemet ikke
    er i overensstemmelse med de krav, der er fastsat i dette afsnits kapitel 2
    (h) underrette de nationale kompetente myndigheder i de medlemsstater, hvori de har
    tilgængeliggjort eller ibrugtaget AI-systemet, og, hvis det er relevant, det
    bemyndigede organ om manglende overensstemmelser og om de korrigerende
    foranstaltninger, der er truffet
    (i) anbringe CE-mærkningen på deres højrisiko-AI-system for at angive
    overensstemmelse med denne forordning, jf. artikel 49
    DA 55 DA
    (j) efter anmodning fra en national kompetent myndighed påvise, at højrisiko-AI-
    systemet opfylder de krav, der er fastsat i dette afsnits kapitel 2.
    Artikel 17
    Kvalitetsstyringssystem
    1. Udbydere af højrisiko-AI-systemer indfører et kvalitetsstyringssystem, der sikrer
    overensstemmelse med denne forordning. Systemet dokumenteres på en systematisk
    og velordnet måde i form af skriftlige politikker, procedurer og anvisninger og skal
    som minimum omfatte følgende aspekter:
    (a) en strategi for overholdelse af lovgivningen, herunder overholdelse af
    overensstemmelsesvurderingsprocedurer og procedurer for forvaltning af
    ændringer af højrisiko-AI-systemet
    (b) teknikker, procedurer og systematiske foranstaltninger, der anvendes til
    udformning samt kontrol og verifikation af udformningen af højrisiko-AI-
    systemet
    (c) teknikker, procedurer og systematiske foranstaltninger, der anvendes til
    udvikling, kvalitetskontrol og kvalitetssikring af højrisiko-AI-systemet
    (d) undersøgelses-, prøvnings- og valideringsprocedurer, der gennemføres før,
    under og efter udviklingen af højrisiko-AI-systemet, samt den hyppighed,
    hvormed de gennemføres
    (e) tekniske specifikationer, herunder standarder, der anvendes, og, hvis de
    relevante harmoniserede standarder ikke anvendes fuldt ud, de midler, der
    anvendes for at sikre, at højrisiko-AI-systemet opfylder de krav, der er fastsat i
    dette afsnits kapitel 2
    (f) systemer til og procedurer for dataforvaltning, herunder dataindsamling,
    dataanalyse, datamærkning, datalagring, datafiltrering, dataudvinding,
    dataaggregering, dataopbevaring og enhver anden handling vedrørende data,
    som udføres før og med henblik på omsætning eller ibrugtagning af højrisiko-
    AI-systemer
    (g) det risikoforvaltningssystem, der er omhandlet i artikel 9
    (h) oprettelse, implementering og vedligeholdelse af et system til overvågning
    efter omsætningen, jf. artikel 61
    (i) procedurer for indberetning af alvorlige hændelser og funktionsfejl, jf.
    artikel 62
    (j) håndtering af kommunikation med nationale kompetente myndigheder,
    kompetente myndigheder, herunder sektorspecifikke myndigheder, der giver
    eller understøtter adgang til data, bemyndigede organer, andre operatører,
    kunder eller andre interesserede parter
    (k) systemer til og procedurer for registrering af al relevant dokumentation og alle
    relevante oplysninger
    (l) ressourceforvaltning, herunder foranstaltninger vedrørende
    forsyningssikkerhed
    (m) en ansvarlighedsramme, der fastlægger ledelsens og det øvrige personales
    ansvar med hensyn til alle de aspekter, der er anført i dette stykke.
    DA 56 DA
    2. Gennemførelsen af de aspekter, der er omhandlet i stk. 1, står i et rimeligt forhold til
    størrelsen af udbyderens organisation.
    3. For de udbydere, der er kreditinstitutter, der er omfattet af direktiv 2013/36/EU,
    anses forpligtelsen til at indføre et kvalitetsstyringssystem for at være opfyldt ved
    overholdelse af reglerne om ordninger, procedurer og mekanismer for intern ledelse,
    jf. artikel 74 i nævnte direktiv. I den forbindelse tages der hensyn til alle de
    harmoniserede standarder, der er nævnt i artikel 40 i denne forordning.
    Artikel 18
    Forpligtelse til at udarbejde teknisk dokumentation
    1. Udbydere af højrisiko-AI-systemer udarbejder den tekniske dokumentation, der er
    omhandlet i artikel 11, i overensstemmelse med bilag IV.
    2. De udbydere, der er kreditinstitutter, der er omfattet af direktiv 2013/36/EU,
    vedligeholder den tekniske dokumentation som en del af dokumentationen
    vedrørende ordningerne, processerne og mekanismerne for intern ledelse, jf. artikel
    74 i nævnte direktiv.
    Artikel 19
    Overensstemmelsesvurdering
    1. Udbydere af højrisiko-AI-systemer sørger for, at deres systemer underkastes den
    relevante overensstemmelsesvurderingsprocedure, jf. artikel 43, inden systemerne
    bringes i omsætning eller tages i brug. Hvis AI-systemets overensstemmelse med de
    krav, der er fastsat i dette afsnits kapitel 2, er blevet påvist efter denne
    overensstemmelsesvurdering, udarbejder udbyderen en EU-
    overensstemmelseserklæring, jf. artikel 48, og anbringer CE-
    overensstemmelsesmærkningen, jf. artikel 49.
    2. For så vidt angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 5,
    litra b), og som bringes i omsætning eller tages i brug af udbydere, der er
    kreditinstitutter, der er omfattet af direktiv 2013/36/EU, foretages
    overensstemmelsesvurderingen som led i den procedure, der er omhandlet i nævnte
    direktivs artikel 97-101.
    Artikel 20
    Automatisk genererede logfiler
    1. Udbydere af højrisiko-AI-systemer opbevarer de logfiler, der genereres automatisk af
    deres højrisiko-AI-systemer, i det omfang sådanne logfiler er under deres kontrol i
    kraft af en kontraktmæssig aftale med brugeren eller på anden vis i medfør af loven.
    Logfilerne opbevares i en periode, der er passende set i lyset af højrisiko-AI-
    systemets tilsigtede formål og de gældende retlige forpligtelser i henhold til EU-
    retten eller national ret.
    2. Udbydere, som er kreditinstitutter, der er omfattet af direktiv 2013/36/EU, opbevarer
    de logfiler, der genereres automatisk af deres højrisiko-AI-systemer, som en del af
    dokumentationen, jf. artikel 74 i nævnte direktiv.
    DA 57 DA
    Artikel 21
    Korrigerende foranstaltninger
    De udbydere af højrisiko-AI-systemer, der finder eller har grund til at tro, at et højrisiko-AI-
    system, som de har bragt i omsætning eller taget i brug, ikke er i overensstemmelse med
    denne forordning, træffer straks de nødvendige korrigerende foranstaltninger til at bringe det
    pågældende system i overensstemmelse hermed eller om nødvendigt tilbagetrække eller
    tilbagekalde det. De underretter distributørerne af det pågældende højrisiko-AI-system og,
    hvis det er relevant, den bemyndigede repræsentant samt importører herom.
    Artikel 22
    Oplysningspligt
    Hvis et højrisiko-AI-system udgør en risiko, jf. artikel 65, stk. 1, og denne risiko er kendt af
    udbyderen af systemet, underretter udbyderen straks de nationale kompetente myndigheder i
    de medlemsstater, hvori udbyderen har tilgængeliggjort systemet, og, hvis det er relevant, det
    bemyndigede organ, der har udstedt et certifikat for højrisiko-AI-systemet, navnlig om den
    manglende overensstemmelse og om eventuelle korrigerende foranstaltninger, der er truffet.
    Artikel 23
    Samarbejde med kompetente myndigheder
    Efter anmodning fra en national kompetent myndighed giver udbydere af højrisiko-AI-
    systemer denne myndighed al den dokumentation og alle de oplysninger, der er nødvendige
    for at påvise, at højrisiko-AI-systemet er i overensstemmelse med de krav, der er fastsat i
    dette afsnits kapitel 2, på et officielt EU-sprog, der er fastsat af den pågældende medlemsstat.
    Efter begrundet anmodning fra en national kompetent myndighed giver udbydere også denne
    myndighed adgang til de logfiler, der genereres automatisk af højrisiko-AI-systemet, i det
    omfang sådanne logfiler er under deres kontrol i kraft af en kontraktmæssig aftale med
    brugeren eller på anden vis i medfør af loven.
    Artikel 24
    Forpligtelser for producenter
    Hvis et højrisiko-AI-system, som er tilknyttet produkter, som de retsakter, der er opført i bilag
    II, afsnit A, finder anvendelse på, bringes i omsætning eller tages i brug sammen med det
    pågældende produkt, der er fremstillet i overensstemmelse med disse retsakter og under
    producentens navn, påtager producenten af produktet sig ansvaret for, at AI-systemet
    overholder denne forordning, og har, for så vidt angår AI-systemet, de samme forpligtelser,
    som denne forordning pålægger udbyderen.
    Artikel 25
    Bemyndigede repræsentanter
    1. Hvis der ikke kan udpeges en importør, skal udbydere, der er etableret uden for
    Unionen, inden deres systemer gøres tilgængelige på EU-markedet, ved skriftlig
    fuldmagt udpege en bemyndiget repræsentant, der er etableret i Unionen.
    2. Den bemyndigede repræsentant udfører de opgaver, der er fastsat i den fuldmagt, de
    har modtaget fra udbyderen. Fuldmagten skal sætte den bemyndigede repræsentant i
    stand til at udføre følgende opgaver:
    DA 58 DA
    (a) at sørge for at opbevare en kopi af overensstemmelseserklæringen og den
    tekniske dokumentation, og at disse står til rådighed for de nationale
    kompetente myndigheder og de nationale myndigheder, der er omhandlet i
    artikel 63, stk. 7
    (b) efter begrundet anmodning at give de nationale kompetente myndigheder alle
    de oplysninger og al den dokumentation, der kræves for at påvise, at et
    højrisiko-AI-system er i overensstemmelse med kravene i dette afsnits kapitel
    2, herunder adgang til de logfiler, der genereres automatisk af højrisiko-AI-
    systemet, i det omfang sådanne logfiler er under udbyderens kontrol i henhold
    til en kontraktlig ordning med brugeren eller på anden måde i henhold til
    lovgivningen
    (c) efter begrundet anmodning at samarbejde med de kompetente nationale
    myndigheder om enhver foranstaltning, som sidstnævnte træffer i forbindelse
    med højrisiko-AI-systemet.
    Artikel 26
    Forpligtelser for importører
    1. Importører af højrisiko-AI-systemer skal, før de bringer sådanne systemer i
    omsætning, sikre, at:
    (a) udbyderen af dette AI-system har gennemført en passende
    overensstemmelsesvurderingsprocedure
    (b) udbyderen har udarbejdet den tekniske dokumentation i overensstemmelse med
    bilag IV
    (c) systemet er forsynet med den krævede overensstemmelsesmærkning og er
    ledsaget af den krævede dokumentation og brugsanvisning.
    2. Hvis en importør finder eller har en begrundet formodning om, at et højrisiko-AI-
    system ikke er i overensstemmelse med denne forordning, må vedkommende ikke
    bringe dette system i omsætning, før det pågældende AI-system er blevet bragt i
    overensstemmelse. Hvis højrisiko-AI-systemet udgør en risiko i henhold til
    artikel 65, stk. 1, skal importøren underrette udbyderen af AI-systemet og
    markedsovervågningsmyndighederne herom.
    3. Importørens navn, registrerede firmanavn eller registrerede varemærke og
    kontaktadresse skal angives i højrisiko-AI-systemet, eller hvis dette ikke er muligt,
    på emballagen eller i den dokumentation, der ledsager produktet, alt efter hvad der er
    relevant.
    4. Importører skal, hvor det er relevant, sikre, at opbevarings- og transportbetingelserne
    for højrisiko-AI-systemer, som de har ansvaret for, ikke bringer dets overholdelse af
    de væsentlige krav i dette afsnits kapitel 2 i fare.
    5. Importører skal efter begrundet anmodning og på et sprog, som den pågældende
    myndighed let kan forstå, give de nationale kompetente myndigheder alle de
    oplysninger og al den dokumentation, der kræves for at påvise, at et højrisiko-AI-
    system er i overensstemmelse med kravene i dette afsnits kapitel 2, herunder adgang
    til de logfiler, der genereres automatisk af højrisiko-AI-systemet, i det omfang
    sådanne logfiler er under udbyderens kontrol i henhold til en kontraktlig ordning med
    brugeren eller på anden måde i henhold til lovgivningen. De skal også samarbejde
    DA 59 DA
    med disse myndigheder om enhver foranstaltning, som den nationale kompetente
    myndighed træffer i forbindelse med dette system.
    Artikel 27
    Forpligtelser for distributører
    1. Distributørerne skal, før de gør et højrisiko-AI-system tilgængeligt på markedet,
    kontrollere, at højrisiko-AI-systemet er forsynet med den krævede CE-
    overensstemmelsesmærkning, at det ledsages af den krævede dokumentation og
    brugsanvisning, og at udbyderen og importøren af systemet, alt efter hvad der er
    relevant, har opfyldt de forpligtelser, der er fastsat i denne forordning.
    2. Hvis en distributør finder eller har en begrundet formodning om, at et højrisiko-AI-
    system ikke er i overensstemmelse med kravene i dette afsnits kapitel 2, må
    vedkommende ikke gøre dette system tilgængeligt på markedet, før det pågældende
    system er blevet bragt i overensstemmelse med de nævnte krav. Hvis systemet
    ydermere udgør en risiko i henhold til artikel 65, stk. 1, skal distributøren underrette
    udbyderen eller importøren af systemet, alt efter hvad der er relevant, herom.
    3. Distributører skal, hvor det er relevant, sikre, at opbevarings- og
    transportbetingelserne for højrisiko-AI-systemer, som de har ansvaret for, ikke
    bringer systemets overholdelse af de væsentlige krav i dette afsnits kapitel 2 i fare.
    4. Hvis en distributør finder eller har en begrundet formodning om, at et højrisiko-AI-
    system, som vedkommende har gjort tilgængeligt på markedet, ikke er i
    overensstemmelse med kravene i dette afsnits kapitel 2, skal vedkommende træffe de
    nødvendige korrigerende foranstaltninger for at bringe systemet i overensstemmelse
    med disse krav, trække det tilbage eller kalde det tilbage eller sikre, at udbyderen,
    importøren eller enhver relevant operatør, alt efter hvad der er relevant, træffer disse
    korrigerende foranstaltninger. Hvis produktet udgør en risiko i henhold til artikel 65,
    stk. 1, skal distributøren straks orientere de nationale kompetente myndigheder i de
    medlemsstater, hvor distributøren har gjort produktet tilgængeligt, herom og give
    nærmere oplysninger om særlig den manglende overholdelse af lovgivningen og de
    trufne korrigerende foranstaltninger.
    5. Distributører af højrisiko-AI-systemer skal efter begrundet anmodning fra en national
    kompetent myndighed give denne myndighed alle de oplysninger og al den
    dokumentation, der kræves for at påvise, at et højrisiko-AI-system er i
    overensstemmelse med kravene i dette afsnits kapitel 2. Distributørerne skal også
    samarbejde med den pågældende nationale kompetente myndighed om enhver
    foranstaltning, der træffes af denne myndighed.
    Artikel 28
    Forpligtelser for distributører, importører, brugere eller enhver anden tredjepart
    1. Enhver distributør, importør, bruger eller anden tredjepart anses med henblik på
    denne forordning for at være en udbyder og er underlagt forpligtelserne for udbydere,
    jf. artikel 16, i følgende tilfælde:
    (a) hvis de under eget navn eller varemærke bringer et højrisiko-AI-system i
    omsætning eller tager det i brug
    (b) hvis de ændrer det tilsigtede formål med et højrisiko-AI-system, der allerede er
    bragt i omsætning eller taget i brug
    DA 60 DA
    (c) hvis de foretager en væsentlig ændring af højrisiko-AI-systemet.
    2. Hvis de omstændigheder, der er omhandlet i stk. 1, litra b) eller c), indtræffer, anses
    den udbyder, der oprindeligt bragte AI-systemet i højrisikogruppen i omsætning eller
    tog det i brug, ikke længere for at være en udbyder i denne forordnings forstand.
    Artikel 29
    Forpligtelser for brugere af højrisiko-AI-systemer
    1. Brugere af højrisiko-AI-systemer skal anvende disse systemer i overensstemmelse
    med den brugsanvisning, der ledsager systemerne, jf. stk. 2 og 5.
    2. Forpligtelserne i stk. 1 berører ikke andre brugerforpligtelser i henhold til EU-retten
    eller national ret eller brugerens mulighed for selv at tilrettelægge sine egne
    ressourcer og aktiviteter med henblik på at gennemføre de af udbyderen angivne
    foranstaltninger til menneskeligt tilsyn.
    3. Uden at dette berører stk. 1, og i det omfang brugeren udøver kontrol over
    inputdataene, skal denne bruger sikre, at inputdataene er relevante med hensyn til
    højrisiko-AI-systemets tilsigtede formål.
    4. Brugerne skal overvåge driften af højrisiko-AI-systemet på grundlag af
    brugsanvisningen. Hvis en bruger har begrundet formodning om, at anvendelsen i
    overensstemmelse med brugsanvisningen kan medføre, at AI-systemet udgør en
    risiko som omhandlet i artikel 65, stk. 1, skal vedkommende underrette udbyderen
    eller distributøren og ophøre med at anvende systemet. Brugeren skal også underrette
    udbyderen eller distributøren, hvis vedkommende konstaterer alvorlige hændelser
    eller funktionsfejl, jf. artikel 62, og afbryde anvendelsen af AI-systemet. Hvis
    brugeren ikke er i stand til at kontakte udbyderen, finder artikel 62 tilsvarende
    anvendelse.
    5. For brugere, som er kreditinstitutter, der er omfattet af direktiv 2013/36/EU, anses
    overvågningsforpligtelsen i første afsnit for at være opfyldt ved overholdelse af
    reglerne om ordninger, procedurer og mekanismer for intern ledelse i henhold til
    artikel 74 i nævnte direktiv.
    6. Brugere af højrisiko-AI-systemer skal opbevare de logfiler, der genereres automatisk
    af det pågældende højrisiko-AI-system, i det omfang sådanne logfiler er under deres
    kontrol. Logfilerne opbevares i en periode, der er passende i lyset af højrisiko-AI-
    systemets tilsigtede formål og gældende retlige forpligtelser i henhold til EU-retten
    eller national ret.
    Brugere, som er kreditinstitutter, der er omfattet af direktiv 2013/36/EU, skal
    opbevare logfilerne som en del af dokumentationen af ordningerne, processerne og
    mekanismerne for intern ledelse, jf. artikel 74 i nævnte direktiv.
    7. Brugere af højrisiko-AI-systemer skal anvende de oplysninger, der angives i henhold
    til artikel 13, til at opfylde deres forpligtelse til at foretage en konsekvensanalyse
    vedrørende databeskyttelse i henhold til artikel 35 i forordning (EU) 2016/679 eller
    artikel 27 i direktiv (EU) 2016/680, hvor det er relevant.
    DA 61 DA
    KAPITEL 4
    BEMYNDIGENDE MYNDIGHEDER OG BEMYNDIGEDE ORGANER
    Artikel 30
    Bemyndigende myndigheder
    1. Hver medlemsstat skal udpege eller oprette en bemyndigende myndighed med ansvar
    for at indføre og gennemføre de nødvendige procedurer for vurdering, udpegelse og
    bemyndigelse af overensstemmelsesvurderingsorganer og for overvågning heraf.
    2. Medlemsstaterne kan udpege et nationalt akkrediteringsorgan, jf. forordning (EF)
    nr. 765/2008, som bemyndigende myndighed.
    3. Bemyndigende myndigheder skal oprettes, organiseres og drives på en sådan måde,
    at der ikke opstår interessekonflikter med overensstemmelsesvurderingsorganerne,
    og at der sikres objektivitet og uvildighed i deres aktiviteter.
    4. Bemyndigende myndigheder skal være organiseret på en sådan måde, at beslutninger
    om bemyndigelse af overensstemmelsesvurderingsorganer træffes af kompetente
    personer, der ikke er identiske med dem, der foretog vurderingen af disse organer.
    5. En bemyndigende myndighed må ikke udføre aktiviteter, som udføres af
    overensstemmelsesvurderingsorganer, eller yde nogen rådgivningsservice på
    kommercielt eller konkurrencemæssigt grundlag.
    6. Bemyndigende myndigheder skal sikre, at de oplysninger, de indhenter, behandles
    fortroligt.
    7. Bemyndigende myndigheder skal have et tilstrækkelig stort kompetent personale til,
    at de kan udføre deres opgaver behørigt.
    8. De bemyndigende myndigheder skal sikre, at overensstemmelsesvurderingerne
    udføres på en forholdsmæssig måde for at undgå unødvendige byrder for udbyderne,
    og at bemyndigede organer udfører deres aktiviteter under behørig hensyntagen til en
    virksomheds størrelse, til den sektor, som den opererer i, til dens struktur og til det
    pågældende AI-systems kompleksitet.
    Artikel 31
    Ansøgning om bemyndigelse af et overensstemmelsesvurderingsorgan
    1. Overensstemmelsesvurderingsorganer skal indgive en ansøgning om bemyndigelse
    til den bemyndigende myndighed i den medlemsstat, hvor de er etableret.
    2. Ansøgningen om bemyndigelse skal ledsages af en beskrivelse af de
    overensstemmelsesvurderingsaktiviteter, det eller de
    overensstemmelsesvurderingsmoduler og de AI-teknologier, som
    overensstemmelsesvurderingsorganet hævder at være kompetent til, samt af et
    eventuelt akkrediteringscertifikat udstedt af et nationalt akkrediteringsorgan, hvori
    det attesteres, at overensstemmelsesvurderingsorganet opfylder kravene i artikel 33.
    Alle gyldige dokumenter vedrørende eksisterende udpegelser af det ansøgende
    bemyndigede organ i henhold til anden EU-harmoniseringslovgivning skal tilføjes.
    3. Hvis det pågældende overensstemmelsesvurderingsorgan ikke kan forelægge et
    akkrediteringscertificat, skal det forelægge den bemyndigende myndighed den
    dokumentation, der er nødvendig for at kontrollere, anerkende og regelmæssigt
    DA 62 DA
    overvåge, at det opfylder kravene i artikel 33. For bemyndigede organer, der er
    udpeget i henhold til anden EU-harmoniseringslovgivning, kan alle dokumenter og
    attester, der er knyttet til disse udpegelser, alt efter hvad der er relevant, anvendes til
    at understøtte deres udpegelsesprocedure i henhold til denne forordning.
    Artikel 32
    Bemyndigelsesprocedure
    1. De bemyndigende myndigheder må kun bemyndige
    overensstemmelsesvurderingsorganer, som opfylder kravene i artikel 33.
    2. De bemyndigende myndigheder underretter Kommissionen og de øvrige
    medlemsstater ved hjælp af det elektroniske notifikationsværktøj, der er udviklet og
    forvaltes af Kommissionen.
    3. Notifikationen skal indeholde fyldestgørende oplysninger om
    overensstemmelsesvurderingsaktiviteterne, det eller de pågældende
    overensstemmelsesvurderingsmoduler og de pågældende AI-teknologier.
    4. Det pågældende overensstemmelsesvurderingsorgan må kun udøve aktiviteter som
    bemyndiget organ, hvis Kommissionen og de øvrige medlemsstater ikke har gjort
    indsigelse inden for to uger efter en bemyndigelse.
    5. De bemyndigende myndigheder skal underrette Kommissionen og de øvrige
    medlemsstater om enhver relevant efterfølgende ændring af bemyndigelsen.
    Artikel 33
    Bemyndigede organer
    1. De bemyndigede organer skal verificere, at højrisiko-AI-systemer er i
    overensstemmelse med de overensstemmelsesvurderingsprocedurer, der er
    omhandlet i artikel 43.
    2. De bemyndigede organer skal opfylde de organisatoriske krav samt de
    kvalitetsstyrings-, ressource- og procedurekrav, der er nødvendige for at kunne
    udføre disse opgaver.
    3. De bemyndigede organers organisationsstruktur, ansvarsfordeling, rapporteringsveje
    og drift skal være af en sådan art, at de sikrer, at der er tillid til de bemyndigede
    organers arbejde og til resultaterne af de bemyndigede organers
    overensstemmelsesvurderingsaktiviteter.
    4. De bemyndigede organer skal være uafhængige af udbyderen af det højrisiko-AI-
    system, i forbindelse med hvilket de udfører overensstemmelsesvurderingsaktiviteter.
    Bemyndigede organer skal også være uafhængige af alle andre operatører, der har en
    økonomisk interesse i det vurderede højrisiko-AI-system, og af enhver konkurrent til
    udbyderen.
    5. De bemyndigede organer skal være organiseret og arbejde på en sådan måde, at der i
    deres aktiviteter sikres uafhængighed, objektivitet og uvildighed. De bemyndigede
    organer skal dokumentere og gennemføre en struktur og procedurer til sikring af
    uvildighed og til fremme og anvendelse af principperne om uvildighed i hele deres
    organisation, hos alt deres personale og i alle deres vurderingsaktiviteter.
    6. De bemyndigede organer skal have indført dokumenterede procedurer, der sikrer, at
    personale, udvalg, dattervirksomheder, underentreprenører og eventuelle tilknyttede
    DA 63 DA
    organer eller personalet i eksterne organer behandler de oplysninger, som de kommer
    i besiddelse af under udførelsen af overensstemmelsesvurderingsaktiviteterne,
    fortroligt, medmindre videregivelse af oplysningerne er fastsat ved lov. De
    bemyndigede organers personale har tavshedspligt med hensyn til alle oplysninger,
    det kommer i besiddelse af ved udførelsen af dets opgaver i henhold til denne
    forordning, undtagen over for de bemyndigende myndigheder i den medlemsstat,
    hvor aktiviteterne udføres.
    7. De bemyndigede organer skal have indført procedurer, der sætter dem i stand til at
    udføre deres aktiviteter under behørig hensyntagen til en virksomheds størrelse, til
    den sektor, som den opererer inden for, til dens struktur og til, hvor kompleks det
    pågældende AI-system er.
    8. De bemyndigede organer skal tegne en passende ansvarsforsikring for deres
    overensstemmelsesvurderingsaktiviteter, medmindre den pågældende medlemsstat er
    ansvarlig i henhold til national ret, eller medlemsstaten er direkte ansvarlig for
    overensstemmelsesvurderingen.
    9. De bemyndigede organer skal være i stand til at udføre alle de opgaver, som de
    pålægges ved denne forordning, med den størst mulig faglige integritet og den
    nødvendige kompetence på det specifikke område, uanset om disse opgaver udføres
    af bemyndigede organer selv eller på deres vegne og på deres ansvar.
    10. De bemyndigede organer skal have tilstrækkelige interne kompetencer til effektivt at
    kunne evaluere de opgaver, der udføres af eksterne parter på deres vegne. Derfor skal
    det bemyndigede organ til enhver tid og for hver
    overensstemmelsesvurderingsprocedure og hver type højrisiko-AI-system, som det er
    udpeget til, have permanent adgang til tilstrækkeligt administrativt, teknisk og
    videnskabeligt personale med erfaring og viden vedrørende de relevante AI-
    teknologier, data, databehandling og kravene i dette afsnits kapitel 2.
    11. De bemyndigede organer skal deltage i det koordinerende arbejde, jf. artikel 38. De
    skal også deltage direkte eller være repræsenteret i de europæiske
    standardiseringsorganisationer eller sikre, at de har et ajourført kendskab til de
    relevante standarder.
    12. De bemyndigede organer skal stille al relevant dokumentation til rådighed og efter
    anmodning forelægge denne, herunder udbyderens dokumentation, for den
    bemyndigende myndighed, der er omhandlet i artikel 30, så den kan udføre sine
    vurderings-, udpegelses-, bemyndigelses-, tilsyns- og overvågningsaktiviteter og
    fremme vurderingen som anført i dette kapitel.
    Artikel 34
    Dattervirksomheder og underentreprise i tilknytning til bemyndigede organer
    1. Hvis et bemyndiget organ giver bestemte opgaver i forbindelse med
    overensstemmelsesvurderingen i underentreprise eller anvender en dattervirksomhed,
    skal det sikre, at underentreprenøren eller dattervirksomheden opfylder kravene i
    artikel 33, og underrette den bemyndigende myndighed herom.
    2. De bemyndigede organer har det fulde ansvar for de opgaver, der udføres af
    underentreprenører eller dattervirksomheder, uanset hvor disse er etableret.
    3. Aktiviteter må kun gives i underentreprise eller udføres af en dattervirksomhed, hvis
    udbyderen har givet sit samtykke hertil.
    DA 64 DA
    4. De bemyndigede organer skal kunne stille de relevante dokumenter vedrørende
    vurderingen af underentreprenørens eller dattervirksomhedens kvalifikationer og det
    arbejde, som de har udført i henhold til denne forordning, til rådighed for den
    bemyndigende myndighed.
    Artikel 35
    Identifikationsnumre for og lister over bemyndigede organer, der er udpeget i henhold til
    denne forordning
    1. Kommissionen tildeler hvert bemyndiget organ et identifikationsnummer. Hvert
    bemyndiget organ tildeles kun ét nummer, også selv om organet er bemyndiget i
    henhold til flere EU-retsakter.
    2. Kommissionen offentliggør listen over organer, der er bemyndiget i henhold til
    denne forordning, herunder de identifikationsnumre, som de er blevet tildelt, og de
    aktiviteter, for hvilke de er bemyndiget. Kommissionen sikrer, at listen ajourføres.
    Artikel 36
    Ændringer af bemyndigelser
    1. Hvis en bemyndigende myndighed har mistanke om eller er blevet orienteret om, at
    et bemyndiget organ ikke længere opfylder kravene i artikel 33, eller at det ikke
    opfylder sine forpligtelser, skal den myndighed hurtigst muligt undersøge sagen med
    den størst mulige omhu. I den forbindelse skal den underrette det berørte
    bemyndigede organ om sine indvendinger og giver det mulighed for at tilkendegive
    sine synspunkter. Hvis en bemyndigende myndighed konkluderer, at det undersøgte
    bemyndigede organ ikke længere opfylder kravene i artikel 33, eller at det ikke
    opfylder sine forpligtelser, skal den begrænse, suspendere eller inddrage
    bemyndigelsen, alt efter hvad der er mest hensigtsmæssigt, og afhængigt af hvor
    alvorlig den manglende opfyldelse af kravene eller forpligtelserne er. Den skal
    derudover straks underrette Kommissionen og de øvrige medlemsstater herom.
    2. Hvis en bemyndigelse begrænses, suspenderes eller inddrages, eller hvis det
    bemyndigede organ har indstillet sine aktiviteter, skal den bemyndigende myndighed
    træffe de nødvendige foranstaltninger for at sikre, at dette bemyndigede organs sager
    enten overtages af et andet bemyndiget organ eller står til rådighed for de ansvarlige
    bemyndigende myndigheder efter disses anmodning.
    Artikel 37
    Anfægtelse af bemyndigede organers kompetence
    1. Kommissionen undersøger om nødvendigt alle tilfælde, hvor der er grund til at
    betvivle, at et bemyndiget organ opfylder kravene i artikel 33.
    2. Den bemyndigende myndighed skal efter anmodning forelægge Kommissionen alle
    relevante oplysninger vedrørende bemyndigelsen af det pågældende bemyndigede
    organ.
    3. Kommissionen sikrer, at alle fortrolige oplysninger, som den indhenter som led i sine
    undersøgelser i henhold til denne artikel, behandles fortroligt.
    4. Hvis Kommissionen konstaterer, at et bemyndiget organ ikke eller ikke længere
    opfylder kravene i artikel 33, vedtager den en begrundet afgørelse, der pålægger den
    bemyndigende medlemsstat at træffe de nødvendige korrigerende foranstaltninger,
    DA 65 DA
    herunder om nødvendigt inddragelse af bemyndigelsen. Denne
    gennemførelsesretsakt vedtages efter undersøgelsesproceduren, jf. artikel 74, stk. 2.
    Artikel 38
    Koordinering af bemyndigede organer
    1. Kommissionen sikrer, at der på de områder, der er omfattet af denne forordning,
    etableres passende koordinering og samarbejde mellem de bemyndigede organer, der
    er aktive inden for overensstemmelsesvurderingsprocedurer for AI-systemer i
    henhold til denne forordning, og at det i form af en sektorspecifik gruppe af
    bemyndigede organer fungerer korrekt.
    2. Medlemsstaterne skal sørge for, at de organer, de har bemyndiget, deltager i arbejdet
    i denne gruppe enten direkte eller gennem udpegede repræsentanter.
    Artikel 39
    Tredjelandes overensstemmelsesvurderingsorganer
    Overensstemmelsesvurderingsorganer, der er oprettet i henhold til lovgivningen i et
    tredjeland, med hvilket Unionen har indgået en aftale, kan godkendes til at udføre
    bemyndigede organers aktiviteter i henhold til denne forordning.
    KAPITEL 5
    STANDARDER, OVERENSSTEMMELSESVURDERING, CERTIFIKATER,
    REGISTRERING
    Artikel 40
    Harmoniserede standarder
    Højrisiko-AI-systemer, som er i overensstemmelse med harmoniserede standarder eller dele
    heraf, hvis referencer er offentliggjort i Den Europæiske Unions Tidende, formodes at være i
    overensstemmelse med de krav, der er fastsat i dette afsnits kapitel 2, for så vidt de nævnte
    standarder omfatter disse krav.
    Artikel 41
    Fælles specifikationer
    1. I tilfælde, hvor der ikke findes harmoniserede standarder som omhandlet i artikel 40,
    eller hvis Kommissionen finder, at de relevante harmoniserede standarder er
    utilstrækkelige, eller at der er behov for at tage hensyn til specifikke betænkeligheder
    vedrørende sikkerhed eller grundlæggende rettigheder, kan Kommissionen ved hjælp
    af gennemførelsesretsakter vedtage fælles specifikationer for de krav, der er fastsat i
    dette afsnits kapitel 2. Disse gennemførelsesretsakter vedtages efter
    undersøgelsesproceduren, jf. artikel 74, stk. 2.
    2. Kommissionen indsamler i forbindelse med udarbejdelsen af de fælles
    specifikationer, der er omhandlet i stk. 1, synspunkter fra relevante organer eller
    ekspertgrupper, der er nedsat i henhold til relevant sektorspecifik EU-ret.
    3. Højrisiko-AI-systemer, som er i overensstemmelse med de fælles specifikationer, der
    er omhandlet i stk. 1, formodes at være i overensstemmelse med de krav, der er
    DA 66 DA
    fastsat i dette afsnits kapitel 2, for så vidt de nævnte fælles specifikationer omfatter
    disse krav.
    4. I tilfælde, hvor udbydere ikke overholder de fælles specifikationer, der er omhandlet
    i stk. 1, skal de behørigt begrunde, at de har indført tekniske løsninger, der mindst
    svarer hertil.
    Artikel 42
    Formodning om overensstemmelse med visse krav
    1. Under hensyntagen til deres tilsigtede formål formodes højrisiko-AI-systemer, der er
    blevet trænet og testet med data vedrørende de specifikke geografiske,
    adfærdsmæssige og funktionelle rammer, som systemet skal anvendes inden for, at
    opfylde kravet i artikel 10, stk. 4.
    2. Højrisiko-AI-systemer, der er certificeret, eller for hvilke der er udstedt en
    overensstemmelseserklæring i henhold til en cybersikkerhedsordning i henhold til
    Europa-Parlamentets og Rådets forordning (EU) 2019/88163
    , og hvis referencer er
    offentliggjort i Den Europæiske Unions Tidende, formodes at være i
    overensstemmelse med cybersikkerhedskravene i nærværende forordnings artikel 15,
    såfremt cybersikkerhedsattesten eller overensstemmelseserklæringen eller dele heraf
    dækker disse krav.
    Artikel 43
    Overensstemmelsesvurdering
    1. Hvad angår højrisiko-AI-systemer, der er anført i bilag III, punkt 1, skal udbyderen,
    såfremt denne ved påvisningen af, at et højrisiko-AI-system opfylder kravene i dette
    afsnits kapitel 2, har anvendt harmoniserede standarder som omhandlet i artikel 40
    eller, hvor det er relevant, fælles specifikationer som omhandlet i artikel 41, anvende
    en af følgende procedurer:
    (a) overensstemmelsesvurderingsproceduren på grundlag af intern kontrol som
    omhandlet i bilag VI
    (b) overensstemmelsesvurderingsproceduren på grundlag af vurdering af
    kvalitetsstyringssystemet og vurdering af den tekniske dokumentation med
    inddragelse af et bemyndiget organ, jf. bilag VII.
    Hvis udbyderen ved påvisning af et højrisiko-AI-systems overensstemmelse med
    kravene i dette afsnits kapitel 2 ikke har anvendt eller kun delvist har anvendt
    harmoniserede standarder som omhandlet i artikel 40, eller hvis sådanne
    harmoniserede standarder ikke findes, og der ikke foreligger fælles specifikationer
    som omhandlet i artikel 41, skal udbyderen følge den
    overensstemmelsesvurderingsprocedure, der er anført i bilag VII.
    Med henblik på den overensstemmelsesvurderingsprocedure, der er omhandlet i
    bilag VII, kan udbyderen vælge hvilket som helst af de bemyndigede organer. Hvis
    systemet er beregnet til at blive taget i brug af retshåndhævende myndigheder,
    63
    Europa-Parlamentets og Rådets forordning (EU) 2019/881 af 17. april 2019 om ENISA (Den
    Europæiske Unions Agentur for Cybersikkerhed), om cybersikkerhedscertificering af informations- og
    kommunikationsteknologi og om ophævelse af forordning (EU) nr. 526/2013 (forordningen om
    cybersikkerhed) (EUT L 151 af 7.6.2019, s. 1).
    DA 67 DA
    indvandringsmyndigheder, asylmyndigheder eller EU's institutioner, organer eller
    agenturer, fungerer den markedsovervågningsmyndighed, der er omhandlet i
    artikel 63, stk. 5 eller 6, alt efter hvad der er relevant, imidlertid som bemyndiget
    organ.
    2. Hvad angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2-8, skal
    udbyderne følge overensstemmelsesvurderingsproceduren på grundlag af intern
    kontrol som omhandlet i bilag VI, som ikke foreskriver inddragelse af et bemyndiget
    organ. Hvad angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 5,
    litra b), og som bringes i omsætning eller tages i brug af kreditinstitutter, der er
    omfattet af direktiv 2013/36/EU, foretages overensstemmelsesvurderingen som led i
    den procedure, der er omhandlet i nævnte direktivs artikel 97-101.
    3. For højrisiko-AI-systemer, som de retsakter, der er opført i bilag II, afsnit A, finder
    anvendelse på, skal udbyderen følge den relevante overensstemmelsesvurdering som
    krævet i henhold til disse retsakter. Kravene i nærværende afsnits kapitel 2 finder
    anvendelse på disse højrisiko-AI-systemer og skal indgå i den nævnte vurdering.
    Punkt 4.3, 4.4 og 4.5 samt femte afsnit i punkt 4.6 i bilag VII finder også anvendelse.
    Med henblik på denne vurdering har bemyndigede organer, der er blevet bemyndiget
    i henhold til disse retsakter, ret til at kontrollere, at højrisiko-AI-systemerne opfylder
    kravene i nærværende afsnits kapitel 2, forudsat at disse bemyndigede organers
    overholdelse af kravene i artikel 33, stk. 4, 9 og 10, er blevet vurderet i forbindelse
    med bemyndigelsesproceduren i henhold til disse retsakter.
    Hvis de retsakter, der er opført i bilag II, afsnit A, giver producenten af produktet
    mulighed for at fravælge en af tredjepart udført overensstemmelsesvurdering,
    forudsat at producenten har anvendt alle de harmoniserede standarder, der omfatter
    alle de relevante krav, kan producenten kun gøre brug af denne mulighed, hvis
    vedkommende også har anvendt harmoniserede standarder eller, hvor det er relevant,
    fælles specifikationer som omhandlet i artikel 41, der omfatter kravene i dette afsnits
    kapitel 2.
    4. Højrisiko-AI-systemer skal underkastes en ny
    overensstemmelsesvurderingsprocedure, hvis de ændres væsentligt, uanset om det
    ændrede system skal videredistribueres eller fortsat anvendes af den nuværende
    bruger.
    For højrisiko-AI-systemer, der bliver ved med at lære efter at være bragt i omsætning
    eller taget i brug, udgør ændringer af højrisiko-AI-systemet og dets ydeevne, som
    udbyderen på forhånd har fastlagt på tidspunktet for den indledende
    overensstemmelsesvurdering, og som er en del af oplysningerne i den tekniske
    dokumentation, jf. bilag IV, punkt 2, litra f), ikke en væsentlig ændring.
    5. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i
    overensstemmelse med artikel 73 for at ajourføre bilag VI og bilag VII med henblik
    på at indføre elementer i overensstemmelsesvurderingsprocedurerne, der viser sig at
    blive nødvendige i lyset af den tekniske udvikling.
    6. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter for at ændre
    stk. 1 og 2 med henblik på at underkaste de i bilag III, punkt 2-8, omhandlede
    højrisiko-AI-systemer overensstemmelsesvurderingsproceduren i bilag VII eller dele
    heraf. Kommissionen vedtager sådanne delegerede retsakter under hensyntagen til
    effektiviteten af overensstemmelsesvurderingsproceduren på grundlag af intern
    kontrol, jf. bilag VI, med hensyn til at forebygge eller minimere de risici for
    DA 68 DA
    sundhed, sikkerhed og beskyttelsen af de grundlæggende rettigheder, som sådanne
    systemer medfører, samt hvorvidt de bemyndigede organer har adgang til
    tilstrækkelig kapacitet og ressourcer.
    Artikel 44
    Certifikater
    1. Certifikater, der udstedes af bemyndigede organer i overensstemmelse med bilag
    VII, skal udfærdiges på et officielt EU-sprog fastsat af den medlemsstat, hvor det
    bemyndigede organ er etableret, eller på et officielt EU-sprog, som det bemyndigede
    organ kan acceptere.
    2. Certifikaterne skal være gyldige i den periode, der er angivet deri, dog højst i fem år.
    På udbyderens anmodning kan et certifikats gyldighedsperiode forlænges med
    yderligere perioder på hver højst fem år på grundlag af en fornyet vurdering i
    overensstemmelse med de gældende overensstemmelsesvurderingsprocedurer.
    3. Hvis et bemyndiget organ fastslår, at et AI-system ikke længere opfylder kravene i
    dette afsnits kapitel 2, skal organet suspendere eller inddrage det udstedte certifikat
    eller begrænser det under iagttagelse af proportionalitetsprincippet, medmindre
    udbyderen af systemet gennem passende korrigerende handlinger og inden for en
    passende frist fastsat af det bemyndigede organ sikrer, at kravene opfyldes. Det
    bemyndigede organ skal begrunde sin beslutning.
    Artikel 45
    Appel af afgørelser truffet af bemyndigede organer
    Medlemsstaterne skal sikre, at det bemyndigede organs afgørelser kan appelleres af parter, der
    har en legitim interesse i den pågældende afgørelse.
    Artikel 46
    Oplysningskrav for bemyndigede organer
    1. De bemyndigede organer skal oplyse den bemyndigende myndighed om følgende:
    (a) alle EU-vurderingscertifikater for teknisk dokumentation, eventuelle tillæg til
    disse certifikater og godkendelser af kvalitetsstyringssystemer, der er udstedt i
    overensstemmelse med kravene i bilag VII
    (b) alle afslag på, begrænsninger af, suspensioner af eller inddragelser af EU-
    vurderingscertifikater for teknisk dokumentation eller godkendelser af
    kvalitetsstyringssystemer udstedt i overensstemmelse med kravene i bilag VII
    (c) alle forhold, der har indflydelse på omfanget af eller betingelserne for
    bemyndigelsen
    (d) alle anmodninger om oplysninger om overensstemmelsesvurderingsaktiviteter,
    som de har modtaget fra markedsovervågningsmyndighederne
    (e) efter anmodning, overensstemmelsesvurderingsaktiviteter, der er udført inden
    for det område, hvor de er bemyndiget, og enhver anden aktivitet, der er udført,
    herunder grænseoverskridende aktiviteter og underentreprise.
    2. Hvert bemyndiget organ skal underrette de øvrige bemyndigede organer om:
    DA 69 DA
    (a) afviste, suspenderede eller tilbagekaldte godkendelser af
    kvalitetsstyringssystemer samt, efter anmodning, udstedte godkendelser af
    kvalitetsstyringssystemer
    (b) EU-vurderingscertifikater for teknisk dokumentation eller tillæg hertil, som det
    har afvist, inddraget, suspenderet eller på anden måde begrænset, og, efter
    anmodning, de certifikater og/eller tillæg hertil, som det har udstedt.
    3. Hvert bemyndiget organ skal give de øvrige bemyndigede organer, som udfører
    lignende overensstemmelsesvurderingsaktiviteter vedrørende de samme AI-
    teknologier, relevante oplysninger om spørgsmål vedrørende negative og, efter
    anmodning, positive overensstemmelsesvurderingsresultater.
    Artikel 47
    Undtagelse fra overensstemmelsesvurderingsprocedure
    1. Uanset artikel 43 kan enhver markedsovervågningsmyndighed tillade, at specifikke
    højrisiko-AI-systemer bringes i omsætning eller tages i brug på den pågældende
    medlemsstats område af ekstraordinære hensyn til den offentlige sikkerhed eller
    beskyttelse af menneskers liv og sundhed, miljøbeskyttelse eller beskyttelse af
    centrale industrielle og infrastrukturmæssige aktiver. Tilladelsen skal gælde for en
    begrænset periode, mens de nødvendige overensstemmelsesvurderingsprocedurer
    gennemføres, og skal ophøre, når disse procedurer er afsluttet. Gennemførelsen af
    disse procedurer skal ske uden unødig forsinkelse.
    2. Den i stk. 1 omhandlede tilladelse må kun udstedes, hvis
    markedsovervågningsmyndigheden konkluderer, at højrisiko-AI-systemet opfylder
    kravene i dette afsnits kapitel 2. Markedsovervågningsmyndigheden skal underrette
    Kommissionen og de øvrige medlemsstater om enhver tilladelse, der udstedes i
    henhold til stk. 1.
    3. Hvis der ikke inden for 15 kalenderdage efter modtagelsen af de i stk. 2 omhandlede
    oplysninger er blevet gjort indsigelse af en medlemsstat eller Kommissionen mod en
    tilladelse, der i henhold til stk. 1 er udstedt af en medlemsstats
    markedsovervågningsmyndighed, anses denne tilladelse for at være berettiget.
    4. Hvis en medlemsstat inden for 15 kalenderdage efter modtagelsen af den i stk. 2
    omhandlede underretning gør indsigelse mod en tilladelse, der er udstedt af en
    markedsovervågningsmyndighed i en anden medlemsstat, eller hvis Kommissionen
    finder, at tilladelsen er i strid med EU-retten, eller at medlemsstaternes konklusion
    vedrørende systemets opfyldelse af kravene, jf. stk. 2, er ubegrundet, drøfter
    Kommissionen straks spørgsmålet med den relevante medlemsstat, og i denne
    forbindelse høres den eller de berørte operatører, som gives mulighed for at
    fremsætte deres synspunkter. På denne baggrund træffer Kommissionen afgørelse
    om, hvorvidt tilladelsen er berettiget eller ej. Kommissionen retter sin afgørelse til
    den pågældende medlemsstat og den eller de relevante operatører.
    5. Hvis tilladelsen anses for at være uberettiget, skal den inddrages af
    markedsovervågningsmyndigheden i den pågældende medlemsstat.
    6. Uanset stk. 1-5 finder artikel 59 i forordning (EU) 2017/745 og artikel 54 i
    forordning (EU) 2017/746 også anvendelse på højrisiko-AI-systemer, der er beregnet
    til at blive anvendt som sikkerhedskomponenter i udstyr, eller som i selv er udstyr,
    der er omfattet af forordning (EU) 2017/745 og forordning (EU) 2017/746, for så
    DA 70 DA
    vidt angår undtagelse fra overensstemmelsesvurderingen af opfyldelsen af kravene i
    dette afsnits kapitel 2.
    Artikel 48
    EU-overensstemmelseserklæring
    1. Udbyderen skal udarbejde en skriftlig EU-overensstemmelseserklæring for hvert AI-
    system og opbevare den, så den i ti år efter, at AI-systemet er blevet bragt i
    omsætning eller taget i brug, står til rådighed for de nationale kompetente
    myndigheder. Det skal af EU-overensstemmelseserklæringen fremgå, hvilket AI-
    system den vedrører. Et eksemplar af EU-overensstemmelseserklæringen skal efter
    anmodning fremsendes til de relevante nationale kompetente myndigheder.
    2. Det skal af EU-overensstemmelseserklæringen fremgå, at det pågældende højrisiko-
    AI-system opfylder kravene i dette afsnits kapitel 2. EU-
    overensstemmelseserklæringen skal indeholde de oplysninger, der er anført i bilag V,
    og skal oversættes til det eller de officielle EU-sprog, der kræves af den eller de
    medlemsstater, hvor højrisiko-AI-systemet gøres tilgængeligt.
    3. For højrisiko-AI-systemer, der er omfattet af anden EU-harmoniseringslovgivning, i
    henhold til hvilken der også kræves en EU-overensstemmelseserklæring, udarbejdes
    der en enkelt EU-overensstemmelseserklæring for al EU-lovgivning, der finder
    anvendelse på højrisiko-AI-systemet. Erklæringen skal indeholde alle oplysninger,
    der er påkrævet for at identificere, hvilken EU-harmoniseringslovgivning
    erklæringen vedrører.
    4. Ved at udarbejde EU-overensstemmelseserklæringen står udbyderen inde for, at
    kravene i dette afsnits kapitel 2 opfyldes. Udbyderen skal sørge for at holde EU-
    overensstemmelseserklæringen ajour, hvis det er relevant.
    5. Kommissionen tillægges beføjelse til at vedtage delegerede retsakter i
    overensstemmelse med artikel 73 for at ajourføre indholdet af EU-
    overensstemmelseserklæringen, jf. bilag V, med henblik på at indføre elementer, der
    viser sig at blive nødvendige på baggrund af den tekniske udvikling.
    Artikel 49
    CE-overensstemmelsesmærkning
    1. CE-mærkningen skal i tilknytning til højrisiko-AI-systemer anbringes synligt,
    letlæseligt og således, at den ikke kan slettes. Hvis højrisiko-AI-systemet er af en
    sådan art, at dette ikke er muligt eller berettiget, anbringes mærkningen på
    emballagen eller i den medfølgende dokumentation, alt efter hvad der relevant.
    2. CE-mærkningen, jf. nærværende artikels stk. 1, er underkastet de generelle
    principper i artikel 30 i forordning (EF) nr. 765/2008.
    3. Hvor det er relevant, skal CE-mærkningen følges af identifikationsnummeret for det
    bemyndigede organ, der er ansvarligt for overensstemmelsesvurderingsprocedurerne
    i artikel 43. Identifikationsnummeret skal også fremgå af salgsfremmende materiale,
    som nævner, at højrisiko-AI-systemet opfylder kravene til CE-mærkning.
    DA 71 DA
    Artikel 50
    Opbevaring af dokumentation
    Udbyderen skal i ti år efter, at AI-systemet er blevet bragt i omsætning eller taget i brug,
    kunne forelægge de nationale kompetente myndigheder:
    (a) den i artikel 11 omhandlede tekniske dokumentation
    (b) dokumentation vedrørende det i artikel 17 omhandlede kvalitetsstyringssystem
    (c) dokumentation vedrørende ændringer, der er godkendt af bemyndigede organer, hvor
    dette er relevant
    (d) afgørelser og andre dokumenter udstedt af de bemyndigede organer, hvor dette er
    relevant
    (e) den i artikel 48 omhandlede EU-overensstemmelseserklæring.
    Artikel 51
    Registrering
    Inden et højrisiko-AI-system som omhandlet i artikel 6, stk. 2, bringes i omsætning eller tages
    i brug, skal udbyderen eller, hvor det er relevant, den bemyndigede repræsentant registrere
    systemet i den EU-database, der er omhandlet i artikel 60.
    AFSNIT IV
    GENNEMSIGTIGHEDSFORPLIGTELSER FOR VISSE AI-SYSTEMER
    Artikel 52
    Gennemsigtighedsforpligtelser for visse AI-systemer
    1. Udbydere skal sikre, at AI-systemer, der er beregnet til at interagere med fysiske
    personer, udformes og udvikles på en sådan måde, at fysiske personer oplyses om, at
    de interagerer med et AI-system, medmindre dette er indlysende ud fra
    omstændighederne og anvendelsessammenhængen. Denne forpligtelse finder ikke
    anvendelse på AI-systemer, der ved lov er godkendt til at afsløre, forebygge,
    efterforske og retsforfølge strafbare handlinger, medmindre disse systemer er
    tilgængelige for offentligheden med henblik på at anmelde strafbare handlinger.
    2. Brugere af et system til følelsesgenkendelse eller et system til biometrisk
    kategorisering skal oplyse de fysiske personer, der er eksponeret for systemet, om
    anvendelsen af systemet. Denne forpligtelse finder ikke anvendelse på AI-systemer,
    der anvendes til biometrisk kategorisering, og som i henhold til lovgivningen er
    godkendt til at afsløre, forebygge og efterforske strafbare handlinger.
    3. Brugere af et AI-system, der genererer eller manipulerer billed-, lyd- eller
    videoindhold, der i væsentlig grad ligner faktiske personer, genstande, steder eller
    andre enheder eller begivenheder, og som fejlagtigt vil fremstå ægte eller
    sandfærdigt ("deepfake"), skal oplyse, at indholdet er blevet genereret kunstigt eller
    manipuleret.
    Første afsnit finder dog ikke anvendelse, hvis anvendelsen er tilladt ved lov med
    henblik på at afsløre, forebygge, efterforske og retsforfølge strafbare handlinger, eller
    hvis anvendelsen er nødvendig for udøvelsen af ytringsfriheden og retten til frihed
    for kunst og videnskab, der er sikret ved Den Europæiske Unions charter om
    DA 72 DA
    grundlæggende rettigheder, og giver passende garantier for tredjemands rettigheder
    og friheder.
    4. Stk. 1, 2 og 3 berører ikke kravene og forpligtelserne i denne forordnings afsnit III.
    AFSNIT V
    FORANSTALTNINGER TIL STØTTE FOR INNOVATION
    Artikel 53
    Reguleringsmæssige sandkasser for kunstig intelligens
    1. Reguleringsmæssige sandkasser for kunstig intelligens, der er oprettet af en eller
    flere medlemsstaters kompetente myndigheder eller Den Europæiske Tilsynsførende
    for Databeskyttelse, skal tilvejebringe et kontrolleret miljø, der letter udviklingen,
    prøvningen og valideringen af innovative AI-systemer i et begrænset tidsrum, inden
    de bringes i omsætning eller tages i brug i henhold til en specifik plan. Dette skal ske
    under de kompetente myndigheders direkte tilsyn og vejledning med henblik på at
    sikre overholdelse af kravene i denne forordning og, hvor det er relevant, anden EU-
    lovgivning og national lovgivning, som der føres tilsyn med i sandkassen.
    2. I det omfang de innovative AI-systemer omfatter behandling af personoplysninger
    eller på anden måde henhører under tilsynsområdet for andre nationale myndigheder
    eller kompetente myndigheder, der giver eller understøtter adgang til data, skal
    medlemsstaterne sikre, at de nationale databeskyttelsesmyndigheder og disse andre
    nationale myndigheder er tilknyttet driften af den reguleringsmæssige sandkasse for
    kunstig intelligens.
    3. De reguleringsmæssige sandkasser for kunstig intelligens berører ikke de kompetente
    myndigheders tilsynsbeføjelser eller korrigerende beføjelser. Enhver væsentlig risiko
    for sundheden, sikkerheden eller de grundlæggende rettigheder, der konstateres
    under udviklingen og afprøvningen af sådanne systemer, skal afbødes straks, og hvis
    dette ikke er muligt, skal udviklings- og prøvningsprocessen suspenderes, indtil en
    sådan afbødning finder sted.
    4. Deltagerne i den reguleringsmæssige sandkasse for kunstig intelligens forbliver
    ansvarlige i henhold til EU's og medlemsstaternes gældende ansvarslovgivning for
    enhver skade, der påføres tredjeparter som følge af forsøg i sandkassen.
    5. De af medlemsstaternes kompetente myndigheder, der har etableret
    reguleringsmæssige sandkasser for kunstig intelligens, skal koordinere deres
    aktiviteter og samarbejde inden for rammerne af Det Europæiske Udvalg for Kunstig
    Intelligens. De skal forelægge årlige rapporter for udvalget og Kommissionen om
    resultaterne af gennemførelsen af disse ordninger, herunder god praksis, indhøstede
    erfaringer og anbefalinger vedrørende deres udformning og, hvor det er relevant,
    vedrørende anvendelsen af denne forordning og anden EU-lovgivning, der overvåges
    inden for sandkassen.
    6. De nærmere bestemmelser og betingelserne for driften af de reguleringsmæssige
    sandkasser for kunstig intelligens, herunder udvælgelseskriterierne og proceduren for
    ansøgning, udvælgelse, deltagelse og udtræden af sandkassen, samt deltagernes
    rettigheder og forpligtelser fastsættes i gennemførelsesretsakter. Disse
    gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel 74, stk. 2.
    DA 73 DA
    Artikel 54
    Viderebehandling af personoplysninger med henblik på udvikling af visse AI-systemer i
    offentlighedens interesse i den reguleringsmæssige sandkasse for kunstig intelligens
    1. I den reguleringsmæssige sandkasse for kunstig intelligens behandles
    personoplysninger, der er lovligt indsamlet til andre formål, med henblik på
    udvikling og prøvning af visse innovative AI-systemer i sandkassen på følgende
    betingelser:
    (a) de innovative AI-systemer skal udvikles med henblik på at beskytte væsentlige
    samfundsinteresser på et eller flere af følgende områder:
    i) forebyggelse, efterforskning, afsløring eller retsforfølgning af strafbare
    handlinger eller fuldbyrdelse af strafferetlige sanktioner, herunder
    beskyttelse mod og forebyggelse af trusler mod den offentlige sikkerhed,
    under de kompetente myndigheders kontrol og ansvar. Behandlingen skal
    være baseret på den pågældende medlemsstats lovgivning eller EU-retten
    ii) den offentlige sikkerhed og folkesundheden, herunder
    sygdomsforebyggelse, -bekæmpelse og -behandling
    iii) et højt niveau af miljøbeskyttelse og forbedring af miljøkvaliteten
    (b) de behandlede oplysninger skal være nødvendige for at opfylde et eller flere af
    de krav, der er omhandlet i afsnit III, kapitel 2, såfremt disse krav ikke praktisk
    kan opfyldes ved behandling af anonymiserede eller syntetiske oplysninger
    eller andre oplysninger end personoplysninger
    (c) der skal foreligge effektive overvågningsmekanismer til at konstatere, om der
    kan opstå store risici for de registreredes grundlæggende rettigheder i
    forbindelse med forsøgene i sandkassen, samt beredskabsmekanismer til straks
    at afbøde disse risici og om nødvendigt standse behandlingen
    (d) alle personoplysninger, der skal behandles i forbindelse med sandkassen, skal
    befinde sig i et funktionelt adskilt, isoleret og beskyttet databehandlingsmiljø
    under deltagernes kontrol, og kun autoriserede personer har adgang til disse
    data
    (e) de behandlede personoplysninger må ikke videregives, overføres eller på anden
    måde tilgås af andre parter
    (f) enhver behandling af personoplysninger i forbindelse med sandkassen må ikke
    føre til foranstaltninger eller beslutninger, der berører de registrerede
    (g) alle personoplysninger, der skal behandles i forbindelse med sandkassen, skal
    slettes, når deltagelsen i sandboksen afsluttes, eller når opbevaringsperioden
    for personoplysningerne udløber
    (h) logfilerne over behandlingen af personoplysninger i forbindelse med
    sandkassen opbevares under deltagelsen i sandkassen og 1 år efter dens ophør
    udelukkende med henblik på og kun så længe, det er nødvendigt for at opfylde
    ansvarligheds- og dokumentationsforpligtelserne i henhold til denne artikel
    eller anden gældende EU-lovgivning eller national lovgivning
    (i) der skal som en del af den tekniske dokumentation i bilag IV opbevares en
    fuldstændig og detaljeret beskrivelse af processen og begrundelsen for
    træningen, prøvningen og valideringen af AI-systemet sammen med
    prøvningsresultaterne
    DA 74 DA
    (j) der skal på de kompetente myndigheders websted offentliggøres et kort resumé
    af det AI-projekt, der er udviklet i sandkassen, dets mål og dets forventede
    resultater.
    2. Stk. 1 berører ikke Unionens eller medlemsstaternes lovgivning, der udelukker
    behandling til andre formål end dem, der udtrykkeligt er nævnt i den pågældende
    lovgivning.
    Artikel 55
    Foranstaltninger for mindre udbydere og brugere
    1. Medlemsstaterne skal træffe følgende foranstaltninger:
    (a) give mindre udbydere og nystartede virksomheder prioriteret adgang til de
    reguleringsmæssige sandkasser for kunstig intelligens, i det omfang de
    opfylder betingelserne for deltagelse deri
    (b) organisere specifikke oplysningsaktiviteter, der er tilpasset mindre udbyderes
    og brugeres behov, om anvendelsen af denne forordning
    (c) etablere en særlig kommunikationskanal med mindre udbydere og brugere og
    andre innovatorer, hvor det er relevant, for at yde vejledning og besvare
    spørgsmål om gennemførelsen af denne forordning.
    2. Der skal tages hensyn til de mindre udbyderes særlige interesser og behov ved
    fastsættelsen af gebyrerne for overensstemmelsesvurdering i henhold til artikel 43,
    idet gebyrerne nedsættes i forhold til deres størrelse og markedsstørrelse.
    AFSNIT VI
    FORVALTNING
    KAPITEL 1
    DET EUROPÆISKE UDVALG FOR KUNSTIG INTELLIGENS
    Artikel 56
    Oprettelse af Det Europæiske Udvalg for Kunstig Intelligens
    1. Der oprettes et "Europæisk Udvalg for Kunstig Intelligens" ("udvalget").
    2. Udvalget yder rådgivning og bistand til Kommissionen med henblik på at:
    (a) bidrage til et effektivt samarbejde mellem de nationale tilsynsmyndigheder og
    Kommissionen om anliggender, der er omfattet af denne forordning
    (b) koordinere og bidrage til Kommissionens, de nationale tilsynsmyndigheders og
    andre kompetente myndigheders vejledning og analyser vedrørende nye
    spørgsmål i hele det indre marked med hensyn til anliggender, der er omfattet
    af denne forordning
    (c) bistå de nationale tilsynsmyndigheder og Kommissionen med at sikre en
    ensartet anvendelse af denne forordning.
    DA 75 DA
    Artikel 57
    Udvalgets struktur
    1. Udvalget består af de nationale tilsynsmyndigheder, der repræsenteres af lederen
    eller en tilsvarende embedsmand på højt plan i den pågældende myndighed, og Den
    Europæiske Tilsynsførende for Databeskyttelse. Andre nationale myndigheder kan
    indbydes til møderne, hvis de drøftede spørgsmål er relevante for dem.
    2. Udvalget vedtager sin forretningsorden med simpelt flertal blandt medlemmerne med
    Kommissionens samtykke. Forretningsordenen skal også indeholde de operationelle
    aspekter i forbindelse med udførelsen af udvalgets opgaver som anført i artikel 58.
    Udvalget kan efter behov nedsætte undergrupper med henblik på at behandle
    specifikke spørgsmål.
    3. Udvalgets formandskab varetages af Kommissionen. Kommissionen indkalder til
    møderne og udarbejder dagsordenen i overensstemmelse med udvalgets opgaver i
    henhold til denne forordning og dens forretningsorden. Kommissionen yder
    administrativ og analytisk støtte til Udvalgets aktiviteter i henhold til denne
    forordning.
    4. Udvalget kan indbyde eksterne eksperter og observatører til at deltage i møderne og
    kan udveksle synspunkter med interesserede tredjeparter for at oplyse om sine
    aktiviteter i et passende omfang. Med henblik herpå kan Kommissionen lette
    udvekslingen mellem udvalget og andre af Unionens organer, kontorer, agenturer og
    rådgivende grupper.
    Artikel 58
    Udvalgets opgaver
    Når Udvalget yder rådgivning og bistand til Kommissionen i forbindelse med artikel 56,
    stk. 2, skal det navnlig:
    (a) indsamle og udveksle ekspertise og bedste praksis blandt medlemsstaterne
    (b) bidrage til en ensartet administrativ praksis i medlemsstaterne, herunder til driften af
    reguleringsmæssige sandkasser, jf. artikel 53
    (c) afgive udtalelser, henstillinger eller skriftlige bidrag om spørgsmål vedrørende
    gennemførelsen af denne forordning, navnlig
    i) om tekniske specifikationer eller eksisterende standarder vedrørende de i
    afsnit III, kapitel 2, fastsatte krav
    ii) om anvendelsen af harmoniserede standarder eller fælles specifikationer som
    omhandlet i artikel 40 og 41
    iii) om udarbejdelse af vejledende dokumenter, herunder retningslinjerne for
    fastsættelse af administrative bøder, jf. artikel 71.
    DA 76 DA
    KAPITEL 2
    NATIONALE KOMPETENTE MYNDIGHEDER
    Artikel 59
    Udpegelse af nationale kompetente myndigheder
    1. Hver medlemsstat skal oprette eller udpege nationale kompetente myndigheder med
    henblik på at sikre denne forordnings anvendelse og gennemførelse. De nationale
    kompetente myndigheder skal være organiseret på en sådan måde, at der i deres
    arbejde og opgaver sikres objektivitet og uvildighed.
    2. Hver medlemsstat skal udpege en national tilsynsmyndighed blandt de nationale
    kompetente myndigheder. Den nationale tilsynsmyndighed skal fungere som
    bemyndigende myndighed og markedsovervågningsmyndighed, medmindre en
    medlemsstat har organisatoriske og administrative grunde til at udpege mere end én
    myndighed.
    3. Medlemsstaterne skal underrette Kommissionen om deres udpegelse(r) og, hvor det
    er relevant, om begrundelsen for at udpege mere end én myndighed.
    4. Medlemsstaterne skal sikre, at de nationale kompetente myndigheder modtager
    tilstrækkelige finansielle og menneskelige ressourcer til at udføre deres opgaver i
    henhold til denne forordning. De nationale kompetente myndigheder skal navnlig
    råde over et tilstrækkeligt antal medarbejdere på fast basis, hvis kompetencer og
    ekspertise skal omfatte en indgående forståelse af AI-teknologier, data og
    databehandling, grundlæggende rettigheder og sundheds- og sikkerhedsrisici samt
    viden om gældende standarder og retlige krav.
    5. Medlemsstaterne skal hvert år aflægge rapport til Kommissionen om status for de
    nationale kompetente myndigheders finansielle og menneskelige ressourcer med en
    vurdering af deres tilstrækkelighed. Kommissionen videresender disse oplysninger til
    udvalget med henblik på drøftelse og eventuelle henstillinger.
    6. Kommissionen letter udvekslingen af erfaringer mellem de nationale kompetente
    myndigheder.
    7. De nationale kompetente myndigheder kan yde vejledning og rådgivning om
    gennemførelsen af denne forordning, herunder til mindre udbydere. Når de nationale
    kompetente myndigheder agter at yde vejledning og rådgivning i forbindelse med et
    AI-system på områder, der er omfattet af anden EU-lovgivning, skal de kompetente
    nationale myndigheder høres i henhold til denne EU-lovgivning, hvis det er relevant.
    Medlemsstaterne kan også oprette et centralt kontaktpunkt til kommunikation med
    operatører.
    8. I tilfælde hvor Unionens institutioner, agenturer og organer er omfattet af denne
    forordning, fungerer Den Europæiske Tilsynsførende for Databeskyttelse som den
    kompetente myndighed for tilsynet med dem.
    DA 77 DA
    AFSNIT VII
    EU-DATABASE FOR SELVSTÆNDIGE HØJRISIKO-AI-SYSTEMER
    Artikel 60
    EU-database for selvstændige højrisiko-AI-systemer
    1. Kommissionen opretter og vedligeholder i samarbejde med medlemsstaterne en EU-
    database med de i stk. 2 omhandlede oplysninger vedrørende højrisiko-AI-systemer,
    jf. artikel 6, stk. 2, som er registreret i overensstemmelse med artikel 51.
    2. Udbyderne skal registrere de oplysninger, der er anført i bilag VIII, i EU-databasen.
    Kommissionen yder dem teknisk og administrativ støtte.
    3. Oplysningerne i EU-databasen skal være offentligt tilgængelige.
    4. EU-databasen må kun indeholde personoplysninger i det omfang, det er nødvendigt
    for at indsamle og behandle oplysninger i overensstemmelse med denne forordning.
    Disse oplysninger omfatter navne og kontaktoplysninger på de fysiske personer, der
    er ansvarlige for registrering af systemet og har retlig beføjelse til at repræsentere
    udbyderen.
    5. Kommissionen er dataansvarlig for EU-databasen. Den sikrer også, at udbyderne
    modtager tilstrækkelig teknisk og administrativ støtte.
    AFSNIT VIII
    OVERVÅGNING EFTER OMSÆTNINGEN, UDVEKSLING AF
    OPLYSNINGER OG MARKEDSOVERVÅGNING
    KAPITEL 1
    OVERVÅGNING EFTER OMSÆTNINGEN
    Artikel 61
    Udbydernes overvågning efter omsætningen og planer for overvågning efter omsætningen af
    højrisiko-AI-systemer
    1. Udbyderne skal oprette og dokumentere et system til overvågning efter omsætningen
    på en måde, der står i et rimeligt forhold til AI-teknologiernes art og risiciene ved
    højrisiko-AI-systemet.
    2. Systemet til overvågning efter omsætningen skal aktivt og systematisk indsamle,
    dokumentere og analysere relevante data, som brugerne afgiver, eller som indsamles
    gennem andre kilder, om højrisiko-AI-systemers ydeevne i hele deres levetid og give
    udbyderen mulighed for at evaluere AI-systemernes fortsatte overholdelse de i afsnit
    III, kapitel 2, fastsatte krav.
    3. Systemet til overvågning efter omsætningen skal baseres på en plan for overvågning
    efter omsætningen. Planen for overvågning efter omsætningen skal være en del af
    den tekniske dokumentation, jf. bilag IV. Kommissionen vedtager en
    gennemførelsesretsakt om detaljerede bestemmelser om en model for planen for
    overvågning efter omsætningen og listen over elementer, der skal indgå i planen.
    DA 78 DA
    4. For højrisiko-AI-systemer, der er omfattet af de retsakter, der er omhandlet i bilag II,
    hvor der allerede er etableret et system og en plan for overvågning efter omsætningen
    i henhold til denne lovgivning, skal de elementer, der er beskrevet i stk. 1, 2 og 3,
    integreres i systemet og planen, hvor det er relevant.
    Første afsnit finder også anvendelse på de i bilag III, punkt 5, litra b), omhandlede
    højrisiko-AI-systemer, der bringes i omsætning eller tages i brug af kreditinstitutter,
    der er reguleret ved direktiv 2013/36/EU.
    KAPITEL 2
    UDVEKSLING AF OPLYSNINGER OM HÆNDELSER OG FUNKTIONSFEJL
    Artikel 62
    Indberetning af alvorlige hændelser og funktionsfejl
    1. Udbydere af højrisiko-AI-systemer, der bringes i omsætning på EU-markedet, skal
    indberette enhver alvorlig hændelse eller funktionsfejl i forbindelse med disse
    systemer, som udgør en misligholdelse af forpligtelser i henhold til den del af EU-
    retten, der har til formål at beskytte de grundlæggende rettigheder, til
    markedsovervågningsmyndighederne i de medlemsstater, hvor hændelsen eller
    misligholdelsen fandt sted.
    En sådan indberetning skal foretages umiddelbart efter, at udbyderen har fastslået en
    årsagssammenhæng mellem AI-systemet og hændelsen eller funktionsfejlen eller
    rimelig sandsynlighed for en sådan sammenhæng, og under alle omstændigheder
    senest 15 dage efter, at udbyderne har fået kendskab til den alvorlige hændelse eller
    funktionsfejlen.
    2. Når markedsovervågningsmyndigheden modtager en indberetning vedrørende
    misligholdelse af forpligtelser i henhold til den del af EU-retten, der har til formål at
    beskytte de grundlæggende rettigheder, skal den underrette de nationale offentlige
    myndigheder eller organer, der er omhandlet i artikel 64, stk. 3. Kommissionen
    udarbejder særlig vejledning for at lette overholdelsen af forpligtelserne i stk. 1.
    Denne vejledning udstedes senest 12 måneder efter denne forordnings ikrafttræden.
    3. I forbindelse med de i bilag III, punkt 5, litra b), omhandlede højrisiko-AI-systemer,
    der bringes i omsætning eller tages i brug af kreditinstitutter, der er reguleret ved
    direktiv 2013/36/EU, og for højrisiko-AI-systemer, der er beregnet til at blive
    anvendt som sikkerhedskomponenter i udstyr, eller som i selv er udstyr, der er
    omfattet af forordning (EU) 2017/745 og forordning (EU) 2017/746, begrænses
    indberetningen af alvorlige hændelser eller funktionsfejl til dem, der udgør en
    misligholdelse af forpligtelser i henhold til den del af EU-retten, der har til formål at
    beskytte de grundlæggende rettigheder.
    DA 79 DA
    KAPITEL 3
    HÅNDHÆVELSE
    Artikel 63
    Markedsovervågning og kontrol af AI-systemer på EU-markedet
    1. Forordning (EU) 2019/1020 finder anvendelse på AI-systemer, der er omfattet af
    nærværende forordning. Med henblik på effektiv håndhævelse af nærværende
    forordning gælder dog følgende:
    (a) enhver henvisning til en erhvervsdrivende i henhold til forordning (EU)
    2019/1020 skal forstås således, at den omfatter alle operatører, der er omfattet
    af afsnit III, kapitel 3, i nærværende forordning
    (b) enhver henvisning til et produkt i henhold til forordning (EU) 2019/1020 skal
    forstås således, at den omfatter alle AI-systemer, der henhører under
    nærværende forordnings anvendelsesområde.
    2. Den nationale tilsynsmyndighed skal regelmæssigt aflægge rapport til
    Kommissionen om resultaterne af relevante markedsovervågningsaktiviteter. Den
    nationale tilsynsmyndighed skal straks indberette alle oplysninger, der er fremskaffet
    i forbindelse med markedsovervågningsaktiviteter, og som kan være af potentiel
    interesse for anvendelsen af EU-lovgivningen om konkurrenceregler, til
    Kommissionen og de relevante nationale konkurrencemyndigheder.
    3. For så vidt angår højrisiko-AI-systemer, som er knyttet til produkter, der er omfattet
    af de i bilag II, afsnit A, opførte retsakter, er markedsovervågningsmyndigheden med
    henblik på denne forordning den myndighed, der i henhold til disse retsakter er
    ansvarlig for markedsovervågningsaktiviteter.
    4. For så vidt angår AI-systemer, der bringes i omsætning, tages i brug eller anvendes
    af finansielle institutioner, der er omfattet af EU-lovgivningen om finansielle
    tjenesteydelser, er markedsovervågningsmyndigheden med henblik på denne
    forordning den relevante myndighed, der i henhold til denne lovgivning er ansvarlig
    for det finansielle tilsyn med disse institutioner.
    5. For så vidt angår AI-systemer, der er anført i punkt 1, litra a), i det omfang
    systemerne anvendes til retshåndhævelsesformål, jf. punkt 6 og 7 i bilag III, skal
    medlemsstaterne med henblik på denne forordning udpege som
    markedsovervågningsmyndigheder enten de kompetente datatilsynsmyndigheder i
    henhold til direktiv (EU) 2016/680 eller forordning 2016/679 eller de nationale
    kompetente myndigheder, der fører tilsyn med de retshåndhævelses-, indvandrings-
    eller asylmyndigheder, der ibrugtager eller anvender disse systemer.
    6. I tilfælde hvor Unionens institutioner, agenturer og organer er omfattet af denne
    forordning, fungerer Den Europæiske Tilsynsførende for Databeskyttelse som deres
    markedsovervågningsmyndighed.
    7. Medlemsstaterne skal fremme koordineringen mellem
    markedsovervågningsmyndigheder, der er udpeget i henhold til denne forordning, og
    andre relevante nationale myndigheder eller organer, der fører tilsyn med
    anvendelsen af den EU-harmoniseringslovgivning, der er opført i bilag II, eller anden
    EU-lovgivning, der kan være relevant for de i bilag III omhandlede højrisiko-AI-
    systemer.
    DA 80 DA
    Artikel 64
    Adgang til oplysninger og dokumentation
    1. I forbindelse med deres arbejde skal markedsovervågningsmyndighederne have fuld
    adgang til de trænings-, validerings- og prøvningsdatasæt, der anvendes af
    udbyderen, herunder via programmeringsgrænseflader for applikationer ("API'er")
    eller andre passende tekniske midler og værktøjer, der muliggør fjernadgang.
    2. Hvis det er nødvendigt for at vurdere, om højrisiko-AI-systemet er i
    overensstemmelse med kravene i afsnit III, kapitel 2, skal
    markedsovervågningsmyndighederne efter begrundet anmodning gives adgang til
    kildekoden for AI-systemet.
    3. Nationale offentlige myndigheder eller organer, der fører tilsyn med eller håndhæver
    opfyldelsen af forpligtelser i henhold til EU-retten om beskyttelse af de
    grundlæggende rettigheder i forbindelse med anvendelsen af højrisiko-AI-systemer,
    jf. bilag III, har beføjelse til at anmode om og få adgang til al dokumentation, der er
    udarbejdet eller opretholdt i henhold til denne forordning, hvis adgang til denne
    dokumentation er nødvendig for udøvelsen af de beføjelser, der er omfattet af deres
    mandat, inden for rammerne af deres jurisdiktion. Den relevante offentlige
    myndighed eller det relevante offentlige organ skal underrette
    markedsovervågningsmyndigheden i den pågældende medlemsstat om enhver sådan
    anmodning.
    4. Senest 3 måneder efter denne forordnings ikrafttræden skal hver medlemsstat
    identificere de offentlige myndigheder eller organer, der er omhandlet i stk. 3, og
    offentliggøre en liste på den nationale tilsynsmyndigheds websted. Medlemsstaterne
    skal sende listen til Kommissionen og alle de øvrige medlemsstater og holde listen
    ajour.
    5. Hvis den i stk. 3 omhandlede dokumentation er utilstrækkelig til at fastslå, om der er
    sket en misligholdelse af forpligtelser i henhold til den del af EU-retten, der har til
    formål at beskytte de grundlæggende rettigheder, kan den offentlige myndighed eller
    det offentlige organ, der er omhandlet i stk. 3, fremsætte en begrundet anmodning til
    markedsovervågningsmyndigheden om at tilrettelægge prøvning af højrisiko-AI-
    systemet ved hjælp af tekniske midler. Markedsovervågningsmyndigheden skal
    tilrettelægge prøvningen med tæt inddragelse af den anmodende offentlige
    myndighed eller det anmodende offentlige organ inden for rimelig tid efter
    anmodningen.
    6. Alle oplysninger og al dokumentation, som de i stk. 3 omhandlede nationale
    offentlige myndigheder eller organer modtager i henhold til bestemmelserne i denne
    artikel, skal behandles i overensstemmelse med tavshedspligten, jf. artikel 70.
    Artikel 65
    Procedure i tilfælde af AI-systemer, der udgør en risiko på nationalt plan
    1. AI-systemer, der udgør en risiko, skal forstås som et produkt, der udgør en risiko,
    som defineret i artikel 3, nr. 19), i forordning (EU) 2019/1020, for så vidt angår risici
    for menneskers sundhed eller sikkerhed eller for beskyttelsen af personers
    grundlæggende rettigheder.
    2. Hvis en medlemsstats markedsovervågningsmyndighed har tilstrækkelig grund til at
    antage, at et AI-system udgør en risiko som omhandlet i stk. 1, skal den foretage en
    evaluering af det pågældende AI-system for så vidt angår dets opfyldelse af alle de
    DA 81 DA
    krav og forpligtelser, der er fastsat i denne forordning. Hvis der foreligger risici for
    beskyttelsen af de grundlæggende rettigheder, skal
    markedsovervågningsmyndigheden også underrette de relevante nationale offentlige
    myndigheder eller organer, der er omhandlet i artikel 64, stk. 3. De relevante
    operatører skal om nødvendigt samarbejde med
    markedsovervågningsmyndighederne og de andre nationale offentlige myndigheder
    eller organer, der er omhandlet i artikel 64, stk. 3.
    Hvis markedsovervågningsmyndigheden i forbindelse med evalueringen konstaterer,
    at AI-systemet ikke opfylder kravene og forpligtelserne i denne forordning, skal de
    straks anmode den pågældende operatør om at træffe alle fornødne foranstaltninger
    for at sørge for, at AI-systemet opfylder kravene og forpligtelserne, trække AI-
    systemet tilbage fra markedet eller tilbagekalde det inden for en rimelig tidsfrist, som
    de fastsætter i forhold til risikoens art.
    Markedsovervågningsmyndigheden skal underrette det relevante bemyndigede organ
    herom. Artikel 18 i forordning (EU) 2019/1020 finder anvendelse på de i andet afsnit
    omhandlede foranstaltninger.
    3. Hvis markedsovervågningsmyndigheden konstaterer, at den manglende opfyldelse af
    kravene ikke er begrænset til medlemsstatens område, skal den underrette
    Kommissionen og de øvrige medlemsstater om resultaterne af evalueringen og om de
    tiltag, den har pålagt operatøren at iværksætte.
    4. Operatøren skal sikre, at der træffes alle fornødne korrigerende foranstaltninger over
    for alle de pågældende AI-systemer, som denne har gjort tilgængelige på markedet i
    hele Unionen.
    5. Hvis AI-systemets operatør ikke træffer de fornødne foranstaltninger inden for den
    frist, der er omhandlet i stk. 2, skal markedsovervågningsmyndigheden træffe de
    nødvendige foreløbige foranstaltninger for at forbyde eller begrænse AI-systemets
    tilgængelighed på deres nationale markeder eller for at trække produktet tilbage fra
    markedet eller kalde det tilbage. Den myndighed skal straks underrette
    Kommissionen og de øvrige medlemsstater om sådanne foranstaltninger.
    6. De i stk. 5 omhandlede oplysninger skal indeholde alle tilgængelige oplysninger,
    særlig de nødvendige data til identifikation af det AI-system, der ikke opfylder
    kravene, AI-systemets oprindelse, arten af den påståede manglende opfyldelse af
    kravene og af den pågældende risiko, arten og varigheden af de trufne nationale
    foranstaltninger samt de synspunkter, som den pågældende operatør har fremsat.
    Markedsovervågningsmyndighederne skal navnlig oplyse, om den manglende
    overensstemmelse med kravene skyldes et eller flere af følgende:
    (a) AI-systemets manglende opfyldelse af kravene i afsnit III, kapitel 2
    (b) mangler ved de harmoniserede standarder eller fælles specifikationer, der er
    omhandlet i artikel 40 og 41, og som danner grundlag for
    overensstemmelsesformodningen.
    7. Markedsovervågningsmyndighederne i de andre medlemsstater end
    markedsovervågningsmyndigheden i den medlemsstat, der har indledt proceduren,
    skal straks underrette Kommissionen og de øvrige medlemsstater om de trufne
    foranstaltninger og om yderligere oplysninger, som de måtte råde over, om det
    pågældende AI-systems manglende opfyldelse af kravene og om deres indsigelser,
    hvis de ikke er indforstået med den meddelte nationale foranstaltning.
    DA 82 DA
    8. Hvis der ikke inden for tre måneder efter modtagelsen af de i stk. 5 omhandlede
    oplysninger er blevet gjort indsigelse af en medlemsstat eller Kommissionen mod en
    foreløbig foranstaltning truffet af en medlemsstat, anses denne foranstaltning for at
    være berettiget. Dette berører ikke den pågældende operatørs procedurerettigheder i
    henhold til artikel 18 i forordning (EU) 2019/1020.
    9. Markedsovervågningsmyndighederne i samtlige medlemsstater skal sikre, at der
    straks træffes de fornødne restriktive foranstaltninger med hensyn til det pågældende
    produkt, f.eks. tilbagetrækning af produktet fra deres marked.
    Artikel 66
    Beskyttelsesprocedure på EU-plan
    1. Hvis en medlemsstat inden for tre måneder efter modtagelsen af den i artikel 65, stk.
    5, omhandlede underretning har gjort indsigelse mod en foranstaltning truffet af en
    anden medlemsstat, eller hvis Kommissionen finder, at foranstaltningen er i strid
    med EU-retten, drøfter Kommissionen straks spørgsmålet med den relevante
    medlemsstat og den eller de relevante operatører og evaluerer den nationale
    foranstaltning. På grundlag af resultaterne af denne evaluering træffer Kommissionen
    senest 9 måneder efter den i artikel 65, stk. 5, omhandlede underretning afgørelse
    om, hvorvidt den nationale foranstaltning er berettiget eller ej, og meddeler den
    pågældende medlemsstat denne afgørelse.
    2. Hvis den nationale foranstaltning anses for at være berettiget, skal samtlige
    medlemsstater træffe de nødvendige foranstaltninger for at sikre, at det AI-system,
    der ikke opfylder kravene, trækkes tilbage fra deres marked, og underrette
    Kommissionen herom. Hvis den nationale foranstaltning anses for ikke at være
    berettiget, skal den pågældende medlemsstat trække foranstaltningen tilbage.
    3. Hvis den nationale foranstaltning anses for at være berettiget, og hvis AI-systemets
    manglende opfyldelse af kravene tilskrives mangler ved de harmoniserede standarder
    eller fælles specifikationer som omhandlet i denne forordnings artikel 40 og 41,
    anvender Kommissionen proceduren i artikel 11 i forordning (EU) nr. 1025/2012.
    Artikel 67
    AI-systemer, som opfylder kravene, men som udgør en risiko
    1. Hvis en medlemsstats markedsovervågningsmyndighed efter at have foretaget en
    vurdering i henhold til artikel 65 finder, at et AI-system, selv om det opfylder
    kravene i denne forordning, udgør en risiko for menneskers sundhed eller sikkerhed,
    for misligholdelse af forpligtelser i henhold til den del af EU-retten, der har til formål
    at beskytte de grundlæggende rettigheder, eller for andre samfundsinteresser, skal
    den pålægge den pågældende operatør at træffe alle nødvendige foranstaltninger for
    at sikre, at det pågældende AI-system, når det bringes i omsætning eller tages i brug,
    ikke længere udgør en risiko, eller for at trække AI-systemet tilbage fra markedet
    eller kalde det tilbage inden for en rimelig tidsfrist, som den fastsætter i forhold til
    risikoens art.
    2. Udbyderen eller andre relevante operatører skal sikre, at der træffes korrigerende
    foranstaltninger med hensyn til alle de pågældende AI-systemer, som de har gjort
    tilgængelige på markedet i hele Unionen, inden for den tidsfrist, der er fastsat af
    medlemsstatens markedsovervågningsmyndighed, jf. stk. 1.
    DA 83 DA
    3. Medlemsstaten skal straks underrette Kommissionen og de øvrige medlemsstater
    herom. Denne underretning skal indeholde alle tilgængelige oplysninger, især de
    nødvendige data til identifikation af de pågældende AI-systemer, AI-systemets
    oprindelse og forsyningskæde, arten af den pågældende risiko og arten og varigheden
    af de trufne nationale foranstaltninger.
    4. Kommissionen drøfter straks spørgsmålet med medlemsstaterne og den pågældende
    operatør og vurderer de trufne nationale foranstaltninger. På grundlag af resultaterne
    af denne vurdering træffer Kommissionen afgørelse om, hvorvidt foranstaltningen er
    berettiget eller ej, og foreslår om nødvendigt passende foranstaltninger.
    5. Kommissionen retter sin afgørelse til medlemsstaterne.
    Artikel 68
    Formel manglende opfyldelse af kravene
    1. Hvis en medlemsstats markedsovervågningsmyndighed konstaterer et af følgende
    forhold, skal den pålægge den pågældende udbyder at bringe den manglende
    opfyldelse af kravene til ophør:
    (a) overensstemmelsesmærkningen er anbragt i modstrid med artikel 49
    (b) der er ikke anbragt nogen overensstemmelsesmærkning
    (c) der er ikke udarbejdet en EU-overensstemmelseserklæring
    (d) EU-overensstemmelseserklæringen er ikke udarbejdet korrekt
    (e) der er ikke anbragt noget identifikationsnummer for det bemyndigede organ,
    der er involveret i overensstemmelsesvurderingsproceduren, hvor dette er
    relevant.
    2. Hvis der fortsat er tale om manglende opfyldelse af kravene som omhandlet i stk. 1,
    skal den pågældende medlemsstat træffe alle nødvendige foranstaltninger for at
    begrænse eller forbyde, at AI-systemet gøres tilgængeligt på markedet, eller sikre, at
    det kaldes tilbage eller trækkes tilbage fra markedet.
    AFSNIT IX
    ADFÆRDSKODEKSER
    Artikel 69
    Adfærdskodekser
    1. Kommissionen og medlemsstaterne tilskynder til og letter udarbejdelsen af
    adfærdskodekser, der har til formål at fremme frivillig anvendelse af de i afsnit III,
    kapitel 2, fastsatte krav på AI-systemer, der ikke er højrisiko-AI-systemer, på
    grundlag af tekniske specifikationer og løsninger, der er egnede til at sikre
    opfyldelsen af disse krav i lyset af systemernes tilsigtede formål.
    2. Kommissionen og udvalget tilskynder til og letter udarbejdelsen af adfærdskodekser,
    der har til formål at fremme frivillig anvendelse af krav vedrørende f.eks.
    miljømæssig bæredygtighed, tilgængelighed for personer med handicap,
    interessenters deltagelse i udformningen og udviklingen af AI-systemerne og
    mangfoldighed blandt udviklingsteams på grundlag af klare mål og centrale
    resultatindikatorer til måling af realiseringen af disse mål.
    DA 84 DA
    3. Adfærdskodekser kan udarbejdes af individuelle udbydere af AI-systemer, af
    organisationer, der repræsenterer dem, eller af begge, herunder med inddragelse af
    brugere og eventuelle interesserede parter og deres repræsentative organisationer.
    Adfærdskodekser kan omfatte et eller flere AI-systemer under hensyntagen til
    ligheden mellem de relevante systemers tilsigtede formål.
    4. Når Kommissionen og udvalget tilskynder til og letter udarbejdelsen af
    adfærdskodekser, tager de hensyn til de mindre udbyderes og nystartede
    virksomheders særlige interesser og behov.
    AFSNIT X
    TAVSHEDSPLIGT OG SANKTIONER
    Artikel 70
    Tavshedspligt
    1. De nationale kompetente myndigheder og bemyndigede organer, der er involveret i
    anvendelsen af denne forordning, skal overholde tavshedspligten for oplysninger og
    data, der indhentes under udførelsen af deres opgaver og arbejde, på en sådan måde,
    at de navnlig beskytter:
    (a) intellektuelle ejendomsrettigheder og fysiske eller juridiske personers fortrolige
    forretningsoplysninger eller forretningshemmeligheder, herunder kildekode,
    med undtagelse af de tilfælde, der er omhandlet i artikel 5 i direktiv 2016/943
    om beskyttelse af fortrolig knowhow og fortrolige forretningsoplysninger
    (forretningshemmeligheder) mod ulovlig erhvervelse, brug og videregivelse
    (b) den effektive gennemførelse af denne forordning, navnlig for så vidt angår
    inspektioner, undersøgelser eller audit) offentlige og nationale
    sikkerhedsinteresser
    (c) strafferetlige eller administrative procedurers integritet.
    2. Uden at berører stk. 1, må oplysninger, der udveksles fortroligt mellem de nationale
    kompetente myndigheder og mellem de nationale kompetente myndigheder og
    Kommissionen, ikke videregives uden forudgående høring af den oprindelige
    nationale kompetente myndighed og brugeren, i tilfælde hvor højrisiko-AI-systemer
    som omhandlet i bilag III, punkt 1, 6 og 7, anvendes af retshåndhævende
    myndigheder, indvandringsmyndigheder eller asylmyndigheder, hvis en sådan
    videregivelse ville bringe offentlige og nationale sikkerhedsinteresser i fare.
    I tilfælde hvor de retshåndhævende myndigheder, indvandringsmyndighederne eller
    asylmyndighederne er udbydere af højrisiko-AI-systemer, jf. bilag III, punkt 1, 6 og
    7, skal den tekniske dokumentation, der er omhandlet i bilag IV, forblive hos disse
    myndigheder. Disse myndigheder skal sikre, at de
    markedsovervågningsmyndigheder, der er omhandlet i artikel 63, stk. 5 og 6, alt efter
    hvad der er relevant, efter anmodning straks kan få adgang til dokumentationen eller
    få en kopi heraf. Kun det af markedsovervågningsmyndighedens personale, der har et
    passende sikkerhedsgodkendelsesniveau, må få adgang til dokumentationen eller en
    kopi heraf.
    3. Stk. 1 og 2 berører ikke Kommissionens, medlemsstaternes og de bemyndigede
    organers rettigheder og forpligtelser med hensyn til udveksling af oplysninger og
    DA 85 DA
    udsendelse af advarsler eller de berørte parters forpligtelse til at afgive oplysninger
    inden for rammerne af medlemsstaternes straffelovgivning.
    4. Kommissionen og medlemsstaterne kan om nødvendigt udveksle fortrolige
    oplysninger med reguleringsmyndigheder i tredjelande, med hvilke de har indgået
    bilaterale eller multilaterale aftaler om fortrolighed, der garanterer en tilstrækkelig
    grad af fortrolighed.
    Artikel 71
    Sanktioner
    1. I overensstemmelse med de vilkår og betingelser, der er fastsat i denne forordning,
    skal medlemsstaterne fastsætte regler om sanktioner, herunder administrative bøder,
    for overtrædelse af denne forordning og træffe alle nødvendige foranstaltninger for at
    sikre, at de gennemføres korrekt og effektivt. Sanktionerne skal være effektive, stå i
    et rimeligt forhold til overtrædelsen og have afskrækkende virkning. Der skal navnlig
    tages hensyn til mindre udbyderes og nystartede virksomheders interesser og deres
    økonomiske levedygtighed.
    2. Medlemsstaterne skal give Kommissionen meddelelse om disse regler og
    foranstaltninger og skal straks underrette den om senere ændringer, der berører dem.
    3. Følgende overtrædelser skal straffes med administrative bøder på op til
    30 000 000 EUR eller, hvis gerningsmanden er en virksomhed, op til 6 % af dens
    samlede globale årsomsætning i det foregående regnskabsår, alt efter hvilket beløb
    der er størst:
    (a) manglende overholdelse af forbuddet mod de i artikel 5 anførte former for
    praksis med hensyn til kunstig intelligens
    (b) AI-systemets manglende opfyldelse af kravene i artikel 10.
    4. AI-systemets manglende opfyldelse af ethvert krav eller enhver forpligtelse i henhold
    til denne forordning, bortset fra kravene i artikel 5 og 10, skal straffes med
    administrative bøder på op til 20 000 000 EUR eller, hvis lovovertræderen er en
    virksomhed, op til 4 % af dens samlede globale årlige omsætning i det foregående
    regnskabsår, alt efter hvilket beløb der er størst.
    5. Afgivelse af ukorrekte, ufuldstændige eller vildledende oplysninger til bemyndigede
    organer og nationale kompetente myndigheder som svar på en anmodning skal
    straffes med administrative bøder på op til 10 000 000 EUR eller, hvis
    lovovertræderen er en virksomhed, op til 2 % af dens samlede globale årlige
    omsætning i det foregående regnskabsår, alt efter hvilket beløb der er størst.
    6. Ved fastsættelsen af den administrative bødes størrelse skal der i hvert enkelt tilfælde
    tages hensyn til alle relevante omstændigheder i den specifikke situation, og der skal
    tages behørigt hensyn til følgende:
    (a) overtrædelsens art, grovhed og varighed samt dens konsekvenser
    (b) hvorvidt andre markedsovervågningsmyndigheder allerede har pålagt den
    samme operatør administrative bøder for samme overtrædelse
    (c) størrelsen på den operatør, der har begået overtrædelsen, og dens
    markedsandel.
    DA 86 DA
    7. Hver medlemsstat skal fastsætte regler om, hvorvidt og i hvilket omfang
    administrative bøder må pålægges offentlige myndigheder og organer, der er
    etableret i den pågældende medlemsstat.
    8. Afhængigt af medlemsstaternes retssystem kan reglerne om administrative bøder
    anvendes på en sådan måde, at bøderne pålægges af kompetente nationale domstole
    eller andre organer, alt efter hvad der er relevant i disse medlemsstater. Anvendelsen
    af disse regler i disse medlemsstater har tilsvarende virkning.
    Artikel 72
    Administrative bøder til Unionens institutioner, agenturer og organer
    1. Den Europæiske Tilsynsførende for Databeskyttelse kan pålægge de af Unionens
    institutioner, agenturer og organer, der er omfattet af denne forordnings
    anvendelsesområde, administrative bøder. Når der træffes afgørelse om, hvorvidt der
    skal pålægges en administrativ bøde, og ved fastsættelsen af den administrative
    bødes størrelse skal der i hvert enkelt tilfælde tages hensyn til alle relevante
    omstændigheder i den specifikke situation, og der skal tages behørigt hensyn til
    følgende:
    (a) overtrædelsens art, grovhed og varighed samt dens konsekvenser
    (b) samarbejdet med Den Europæiske Tilsynsførende for Databeskyttelse med
    henblik på at afhjælpe overtrædelsen og afbøde de mulige negative virkninger
    af overtrædelsen, herunder overholdelse af enhver af de foranstaltninger, som
    Den Europæiske Tilsynsførende for Databeskyttelse tidligere har pålagt den
    eller det pågældende af Unionens institutioner, agenturer eller organer med
    hensyn til samme genstand
    (c) eventuelle lignende overtrædelser, som den eller det pågældende af Unionens
    institutioner, agenturer eller organer tidligere har begået.
    2. Der pålægges administrative bøder på op til 500 000 EUR for følgende
    overtrædelser:
    (a) manglende overholdelse af forbuddet mod de i artikel 5 anførte former for
    praksis med hensyn til kunstig intelligens
    (b) AI-systemets manglende opfyldelse af kravene i artikel 10.
    3. AI-systemets manglende opfyldelse af ethvert krav eller enhver forpligtelse i henhold
    til denne forordning, bortset fra kravene i artikel 5 og 10, skal straffes med
    administrative bøder på op til 250 000 EUR.
    4. Inden der træffes afgørelse i henhold til denne artikel, giver Den Europæiske
    Tilsynsførende for Databeskyttelse den eller det af Unionens institutioner, agenturer
    eller organer, der er genstand for de procedurer, som gennemføres af Den
    Europæiske Tilsynsførende for Databeskyttelse, muligheden for at blive hørt om
    genstanden for den mulige overtrædelse. Den Europæiske Tilsynsførende for
    Databeskyttelse baserer udelukkende sine afgørelser på elementer og forhold, som de
    berørte parter har haft mulighed for at fremsætte bemærkninger til. Eventuelle
    klagere inddrages i vid udstrækning i proceduren.
    5. De deltagende parters ret til forsvar skal sikres fuldt ud i procedureforløbet. De har
    ret til aktindsigt i Den Europæiske Tilsynsførende for Databeskyttelses sagsakter
    DA 87 DA
    med forbehold af fysiske personers eller virksomheders berettigede interesse i at
    beskytte deres personoplysninger eller forretningshemmeligheder.
    6. Midler, der er indsamlet ved pålæg af bøder som omhandlet i denne artikel, tilfalder
    Unionens almindelige budget.
    AFSNIT XI
    DELEGATION AF BEFØJELSER OG UDVALGSPROCEDURE
    Artikel 73
    Udøvelse af de delegerede beføjelser
    1. Beføjelsen til at vedtage delegerede retsakter tillægges Kommissionen på de i denne
    artikel fastlagte betingelser.
    2. Den i artikel 4, artikel 7, stk. 1, artikel 11, stk. 3, artikel 43, stk. 5 og 6, og artikel 48,
    stk. 5, omhandlede delegation af beføjelser tillægges Kommissionen for en
    ubegrænset periode fra [datoen for denne forordnings ikrafttræden].
    3. Den i artikel 4, artikel 7, stk. 1, artikel 11, stk. 3, artikel 43, stk. 5 og 6, og artikel 48,
    stk. 5, omhandlede delegation af beføjelser kan til enhver tid tilbagekaldes af
    Europa-Parlamentet eller Rådet. En afgørelse om tilbagekaldelse bringer
    delegationen af de beføjelser, der er angivet i den pågældende afgørelse, til ophør.
    Den får virkning dagen efter offentliggørelsen af afgørelsen i Den Europæiske
    Unions Tidende eller på et senere tidspunkt, der angives i afgørelsen. Den berører
    ikke gyldigheden af delegerede retsakter, der allerede er i kraft.
    4. Så snart Kommissionen vedtager en delegeret retsakt, giver den samtidigt Europa-
    Parlamentet og Rådet meddelelse herom.
    5. Enhver delegeret retsakt vedtaget i henhold til artikel 4, artikel 7, stk. 1, artikel 11,
    stk. 3, artikel 43, stk. 5 og 6, og artikel 48, stk. 5, træder kun i kraft, hvis hverken
    Europa-Parlamentet eller Rådet har gjort indsigelse inden for en frist på tre måneder
    fra underretningen om den pågældende retsakt til Europa-Parlamentet og Rådet, eller
    hvis Europa-Parlamentet og Rådet inden udløbet af denne frist begge har informeret
    Kommissionen om, at de ikke agter at gøre indsigelse. Fristen forlænges med tre
    måneder på Europa-Parlamentets eller Rådets initiativ.
    Artikel 74
    Udvalgsprocedure
    1. Kommissionen bistås af et udvalg. Dette udvalg er et udvalg som omhandlet i
    forordning (EU) nr. 182/2011.
    2. Når der henvises til dette stykke, finder artikel 5 i forordning (EU) nr. 182/2011
    anvendelse.
    DA 88 DA
    AFSNIT XII
    AFSLUTTENDE BESTEMMELSER
    Artikel 75
    Ændring af forordning (EF) nr. 300/2008
    I artikel 4, stk. 3, i forordning (EF) nr. 300/2008, tilføjes følgende afsnit:
    "Når der vedtages detaljerede foranstaltninger vedrørende tekniske specifikationer og
    procedurer for godkendelse og brug af sikkerhedsudstyr vedrørende systemer med kunstig
    intelligens, jf. definitionen i Europa-Parlamentets og Rådets forordning (EU) YYY/XX [om
    kunstig intelligens]*, skal der tages hensyn til kravene i afsnit III, kapitel 2, i nævnte
    forordning."
    __________
    * Forordning (EU) YYY/XX [om kunstig intelligens] (EUT ...)."
    Artikel 76
    Ændring af forordning (EU) nr. 167/2013
    I artikel 17, stk. 5, i forordning (EU) nr. 167/2013 tilføjes følgende afsnit:
    "Når der i henhold til første afsnit vedtages delegerede retsakter vedrørende systemer med
    kunstig intelligens, som er sikkerhedskomponenter, jf. definitionen i Europa-Parlamentets og
    Rådets forordning (EU) YYY/XX [om kunstig intelligens]*, skal der tages hensyn til kravene
    i afsnit III, kapitel 2, i nævnte forordning.
    __________
    * Forordning (EU) YYY/XX [om kunstig intelligens] (EUT ...)."
    Artikel 77
    Ændring af forordning (EU) nr. 168/2013
    I artikel 22, stk. 5, i forordning (EU) nr. 168/2013 tilføjes følgende afsnit:
    "Når der i henhold til første afsnit vedtages delegerede retsakter vedrørende systemer med
    kunstig intelligens, som er sikkerhedskomponenter, jf. definitionen i Europa-Parlamentets og
    Rådets forordning (EU) YYY/XX [om kunstig intelligens]*, skal der tages hensyn til kravene
    i afsnit III, kapitel 2, i nævnte forordning.
    __________
    * Forordning (EU) YYY/XX [om kunstig intelligens] (EUT ...)."
    Artikel 78
    Ændring af direktiv 2014/90/EU
    I artikel 8 i direktiv 2014/90/EU tilføjes følgende stykke:
    "4. For så vidt angår systemer med kunstig intelligens, som er sikkerhedskomponenter, jf.
    definitionen i Europa-Parlamentets og Rådets forordning (EU) YYY/XX [om kunstig
    intelligens]*, tager Kommissionen, når den udfører sine aktiviteter i henhold til stk. 1, og når
    DA 89 DA
    den vedtager tekniske specifikationer og prøvningsstandarder i overensstemmelse med stk. 2
    og 3, hensyn til kravene i afsnit III, kapitel 2, i nævnte forordning.
    __________
    * Forordning (EU) YYY/XX [om kunstig intelligens] (EUT ...).".
    Artikel 79
    Ændring af direktiv (EU) 2016/797
    I artikel 5 i direktiv (EU) 2016/797 tilføjes følgende stykke:
    "12. Når der i henhold til stk. 1 vedtages delegerede retsakter eller i henhold til stk. 11
    vedtages gennemførelsesretsakter vedrørende systemer med kunstig intelligens, som er
    sikkerhedskomponenter, jf. definitionen i Europa-Parlamentets og Rådets forordning (EU)
    YYY/XX [om kunstig intelligens]*, skal der tages hensyn til kravene i afsnit III, kapitel 2, i
    nævnte forordning.
    __________
    * Forordning (EU) YYY/XX [om kunstig intelligens] (EUT ...).".
    Artikel 80
    Ændring af forordning (EU) 2018/858
    I artikel 5 i forordning (EU) 2018/858 tilføjes følgende stykke:
    "4. Når der i henhold til stk. 3 vedtages delegerede retsakter vedrørende systemer med kunstig
    intelligens, som er sikkerhedskomponenter, jf. definitionen i Europa-Parlamentets og Rådets
    forordning (EU) YYY/XX [om kunstig intelligens]*, skal der tages hensyn til kravene i afsnit
    III, kapitel 2, i nævnte forordning.
    __________
    * Forordning (EU) YYY/XX [om kunstig intelligens] (EUT ...).".
    Artikel 81
    Ændring af forordning (EU) 2018/1139
    I forordning (EU) 2018/1139 foretages følgende ændringer:
    1. I artikel 17 tilføjes følgende stykke:
    "3. Uden at det berører stk. 2, når der i henhold til stk. 1 vedtages gennemførelsesretsakter
    vedrørende systemer med kunstig intelligens, som er sikkerhedskomponenter, jf. definitionen
    i Europa-Parlamentets og Rådets forordning (EU) YYY/XX [om kunstig intelligens]*, skal
    der tages hensyn til kravene i afsnit III, kapitel 2, i nævnte forordning.
    __________
    * Forordning (EU) YYY/XX [om kunstig intelligens] (EUT ...)."
    2. I artikel 19 tilføjes følgende stykke:
    "4. Når der i henhold til stk. 1 og 2 vedtages delegerede retsakter vedrørende systemer med
    kunstig intelligens, som er sikkerhedskomponenter, jf. definitionen i forordning (EU)
    YYY/XX [om kunstig intelligens], skal der tages hensyn til kravene i afsnit III, kapitel 2, i
    nævnte forordning."
    DA 90 DA
    3. I artikel 43 tilføjes følgende stykke:
    "4. Når der i henhold til stk. 1 vedtages gennemførelsesretsakter vedrørende systemer med
    kunstig intelligens, som er sikkerhedskomponenter, jf. definitionen i forordning (EU)
    YYY/XX [om kunstig intelligens], skal der tages hensyn til kravene i afsnit III, kapitel 2, i
    nævnte forordning."
    4. I artikel 47 tilføjes følgende stykke:
    "3. Når der i henhold til stk. 1 og 2 vedtages delegerede retsakter vedrørende systemer med
    kunstig intelligens, som er sikkerhedskomponenter, jf. definitionen i forordning (EU)
    YYY/XX [om kunstig intelligens], skal der tages hensyn til kravene i afsnit III, kapitel 2, i
    nævnte forordning."
    5. I artikel 57 tilføjes følgende stykke:
    "Når der vedtages sådanne gennemførelsesretsakter vedrørende systemer med kunstig
    intelligens, som er sikkerhedskomponenter, jf. definitionen i forordning (EU) YYY/XX [om
    kunstig intelligens], skal der tages hensyn til kravene i afsnit III, kapitel 2, i nævnte
    forordning."
    6. I artikel 58 tilføjes følgende stykke:
    "3. Når der i henhold til stk. 1 og 2 vedtages delegerede retsakter vedrørende systemer med
    kunstig intelligens, som er sikkerhedskomponenter, jf. definitionen i forordning (EU)
    YYY/XX [om kunstig intelligens], skal der tages hensyn til kravene i afsnit III, kapitel 2, i
    nævnte forordning.".
    Artikel 82
    Ændring af forordning (EU) 2019/2144
    I artikel 11 i forordning (EU) 2019/2144 tilføjes følgende stykke:
    "3. "Når der i henhold til stk. 2 vedtages gennemførelsesretsakter vedrørende systemer med
    kunstig intelligens, som er sikkerhedskomponenter, jf. definitionen i Europa-Parlamentets og
    Rådets forordning (EU) YYY/XX [om kunstig intelligens]*, skal der tages hensyn til kravene
    i afsnit III, kapitel 2, i nævnte forordning.
    __________
    * Forordning (EU) YYY/XX [om kunstig intelligens] (EUT ...).".
    Artikel 83
    AI-systemer, der allerede er bragt i omsætning eller taget i brug
    1. Denne forordning finder ikke anvendelse på AI-systemer, som er komponenter i de
    store IT-systemer, der er oprettet ved de retsakter, der er opført i bilag IX, og som er
    blevet bragt i omsætning eller taget i brug før den [12 måneder efter datoen for
    denne forordnings anvendelse, jf. artikel 85, stk. 2], medmindre erstatning eller
    ændring af disse retsakter medfører en væsentlig ændring af det eller de pågældende
    AI-systemers design eller tilsigtede formål.
    De krav, der er fastsat i denne forordning, skal, hvor det er relevant, tages i
    betragtning ved den evaluering, som skal foretages i henhold til de retsakter, der er
    opført i bilag IX, af hvert af de store IT-systemer, der er oprettet ved disse respektive
    retsakter.
    DA 91 DA
    2. Denne forordning finder kun anvendelse på andre højrisiko-AI-systemer end dem,
    der er omhandlet i stk. 1, og som er bragt i omsætning eller taget i brug inden den
    [datoen for denne forordnings anvendelse, jf. artikel 85, stk. 2], hvis disse systemer
    fra denne dato er genstand for betydelige ændringer af deres design eller tilsigtede
    formål.
    Artikel 84
    Evaluering og revision
    1. Kommissionen vurderer behovet for at ændre listen i bilag III en gang om året efter
    denne forordnings ikrafttræden.
    2. Senest [tre år efter datoen for denne forordnings anvendelse, jf. artikel 85, stk. 2] og
    hvert fjerde år derefter forelægger Kommissionen Europa-Parlamentet og Rådet en
    rapport om evaluering og revision af denne forordning. Rapporterne offentliggøres.
    3. I de i stk. 2 omhandlede rapporter lægges der særlig vægt på følgende:
    (a) status over de nationale kompetente myndigheders finansielle og menneskelige
    ressourcer med henblik på effektivt at udføre de opgaver, de pålægges i
    henhold til denne forordning
    (b) status over de sanktioner og navnlig de administrative bøder, der er omhandlet
    i artikel 71, stk. 1, som medlemsstaterne har pålagt som følge af overtrædelser
    af bestemmelserne i denne forordning.
    4. Senest [tre år efter datoen for denne forordnings anvendelse, jf. artikel 85, stk. 2] og
    hvert fjerde år derefter evaluerer Kommissionen virkningen og effektiviteten af
    adfærdskodekser med henblik på at fremme anvendelsen af kravene i afsnit III,
    kapitel 2, og eventuelt andre yderligere krav til andre AI-systemer end højrisiko-AI-
    systemer.
    5. Med henblik på stk. 1-4 indgiver udvalget, medlemsstaterne og de nationale
    kompetente myndigheder oplysninger til Kommissionen på dennes anmodning.
    6. Når Kommissionen foretager evaluering og revision, jf. stk. 1-4, tager den hensyn til
    holdninger og resultater fra udvalget, fra Europa-Parlamentet, fra Rådet og fra andre
    relevante organer eller kilder.
    7. Kommissionen forelægger om nødvendigt relevante forslag til ændring af denne
    forordning, navnlig under hensyntagen til den teknologiske udvikling og i lyset af
    fremskridtene i informationssamfundet.
    Artikel 85
    Ikrafttræden og anvendelse
    1. Denne forordning træder i kraft på tyvendedagen efter offentliggørelsen i Den
    Europæiske Unions Tidende.
    2. Denne forordning anvendes fra [24 måneder efter forordningens ikrafttræden].
    3. Uanset stk. 2:
    (a) anvendes afsnit III, kapitel 4, og afsnit VI fra den [tre måneder efter denne
    forordnings ikrafttræden]
    (b) anvendes artikel 71 fra den [12 måneder efter denne forordnings ikrafttræden].
    DA 92 DA
    Denne forordning er bindende i alle enkeltheder og gælder umiddelbart i hver medlemsstat.
    Udfærdiget i Bruxelles, den […].
    På Europa-Parlamentets vegne På Rådets vegne
    Formand Formand
    DA 93 DA
    FINANSIERINGSOVERSIGT
    1. FORSLAGETS/INITIATIVETS RAMME
    1.1. Forslagets/initiativets betegnelse
    1.2. Berørt(e) politikområde(r)
    1.3. Forslaget/initiativet vedrører
    1.4. Mål
    1.4.1. Generelt/generelle mål
    1.4.2. Specifikt/specifikke mål
    1.4.3. Forventet/forventede resultat(er) og virkning(er)
    1.4.4. Resultatindikatorer
    1.5. Begrundelse for forslaget/initiativet
    1.5.1. Behov, der skal opfyldes på kort eller lang sigt, herunder en detaljeret tidsplan
    for iværksættelsen af initiativet
    1.5.2. Merværdien ved et EU-tiltag (f.eks. som følge af koordineringsfordele,
    retssikkerhed, større effekt eller komplementaritet). Ved "merværdien ved et EU-
    tiltag" forstås her merværdien af EU's intervention i forhold til den værdi, som
    medlemsstaterne ville have skabt enkeltvis
    1.5.3. Erfaringer fra tidligere foranstaltninger af lignende art
    1.5.4. Forenelighed med den flerårige finansielle ramme og mulige synergivirkninger
    med andre relevante instrumenter
    1.5.5 Vurdering af de forskellige finansieringsmuligheder, der er til rådighed,
    herunder muligheden for omfordeling
    1.6. Forslagets/initiativets varighed og finansielle virkninger
    1.7. Planlagt(e) forvaltningsmetode(r)
    2. FORVALTNINGSFORANSTALTNINGER
    2.1. Bestemmelser om overvågning og rapportering
    2.2. Forvaltnings- og kontrolsystem
    2.2.1. Begrundelse for den/de foreslåede forvaltningsmetode(r),
    finansieringsmekanisme(r), betalingsvilkår og kontrolstrategi
    2.2.2. Oplysninger om de konstaterede risici og det/de interne kontrolsystem(er), der
    etableres for at afbøde dem
    2.2.3. Vurdering af og begrundelse for kontrolforanstaltningernes
    omkostningseffektivitet (forholdet mellem kontrolomkostningerne og værdien af de
    forvaltede midler) samt vurdering af den forventede risiko for fejl (ved betaling og
    ved afslutning)
    DA 94 DA
    2.3. Foranstaltninger til forebyggelse af svig og uregelmæssigheder
    3. FORSLAGETS/INITIATIVETS ANSLÅEDE FINANSIELLE VIRKNINGER
    3.1. Berørt(e) udgiftsområde(r) i den flerårige finansielle ramme og udgiftspost(er)
    på budgettet
    3.2. Forslagets anslåede finansielle virkninger for bevillingerne
    3.2.1. Sammenfatning af de anslåede virkninger for aktionsbevillingerne
    3.2.2. Anslåede resultater finansieret med aktionsbevillinger
    3.2.3. Sammenfatning af de anslåede virkninger for administrationsbevillingerne
    3.2.4. Forenelighed med indeværende flerårige finansielle ramme
    3.2.5. Bidrag fra tredjemand
    3.3. Anslåede virkninger for indtægterne
    DA 95 DA
    FINANSIERINGSOVERSIGT
    1. FORSLAGETS/INITIATIVETS RAMME
    1.1. Forslagets/initiativets betegnelse
    Europa-Parlamentets og Rådets forordning om harmoniserede regler for kunstig
    intelligens (retsakten om kunstig intelligens) og om ændring af visse af Unionens
    lovgivningsmæssige retsakter
    1.2. Berørt(e) politikområde(r)
    Kommunikationsnet, Indhold og Teknologi
    Det Indre Marked, Erhvervspolitik, Iværksætteri og SMV'er
    De budgetmæssige konsekvenser vedrører de nye opgaver, som Kommissionen har
    fået overdraget, herunder støtte til Det Europæiske Udvalg for Kunstig Intelligens
    Aktivitet: Europas digitale fremtid i støbeskeen
    1.3. Forslaget/initiativet vedrører
    X en ny foranstaltning
     en ny foranstaltning som opfølgning på et pilotprojekt/en forberedende
    foranstaltning64
     en forlængelse af en eksisterende foranstaltning
     omlægning af en foranstaltning til en ny foranstaltning
    1.4. Mål
    1.4.1. Generelt/generelle mål
    Det overordnede mål med tiltaget er at sikre et velfungerende indre marked ved at
    skabe gunstige betingelser for udvikling og anvendelse af pålidelig kunstig
    intelligens i Unionen.
    1.4.2. Specifikt/specifikke mål
    Specifikt mål nr. 1
    At fastsætte krav, der er specifikke for AI-systemer, og forpligtelser for alle deltagere
    i værdikæden for at sikre, at AI-systemer, der bringes i omsætning og tages i brug, er
    sikre og overholder den gældende lovgivning om grundlæggende rettigheder og
    Unionens værdier
    Specifikt mål nr. 2
    At sikre retssikkerhed for at fremme investeringer og innovation inden for kunstig
    intelligens ved at gøre det klart, hvilke væsentlige krav, forpligtelser samt
    overensstemmelses- og overholdelsesprocedurer der skal følges for at bringe et AI-
    system i omsætning eller tage det i brug på EU-markedet
    Specifikt mål nr. 3
    64
    Jf. finansforordningens artikel 54, stk. 2, litra a) hhv. b).
    DA 96 DA
    At forbedre forvaltningen og den effektive håndhævelse af den eksisterende
    lovgivning om grundlæggende rettigheder og sikkerhedskrav, der gælder for AI-
    systemer, ved at give relevante myndigheder nye beføjelser og ressourcer samt klare
    regler om overensstemmelsesvurderingsprocedurer, efterfølgende
    overvågningsprocedurer og fordelingen af forvaltnings- og tilsynsopgaver på hhv.
    nationalt niveau og EU-plan
    Specifikt mål nr. 4
    At lette udviklingen af et indre marked for lovlige, sikre og pålidelige AI-
    anvendelser og forhindre markedsfragmentering ved at træffe EU-foranstaltninger
    for at fastsætte minimumskrav for AI-systemer, der skal bringes i omsætning og
    tages i brug på EU-markedet i overensstemmelse med gældende lovgivning om
    grundlæggende rettigheder og sikkerhed.
    1.4.3. Forventet/forventede resultat(er) og virkning(er)
    Angiv, hvilke virkninger forslaget/initiativet forventes at få for modtagerne/målgrupperne.
    Udbydere af kunstig intelligens bør nyde godt af et minimalt, men klart sæt krav, der
    skaber retssikkerhed og sikrer adgang til hele det indre marked.
    Brugerne af AI-systemer bør have retssikkerhed for, at de AI-systemer, de køber,
    overholder europæiske love og værdier.
    Forbrugerne bør nyde godt af en mindre risiko for trusler mod deres sikkerhed og
    krænkelser af deres grundlæggende rettigheder.
    1.4.4. Resultatindikatorer
    Angiv indikatorerne til kontrol af forslagets/initiativets gennemførelse.
    Indikator 1
    Antal alvorlige hændelser eller handlinger udført af AI-systemer, som udgør
    alvorlige hændelser eller misligholdelse af forpligtelserne vedrørende de
    grundlæggende rettigheder, opgjort (halvårligt) efter anvendelsesområde og beregnet
    a) i absolutte tal, b) som andel pr. iværksat anvendelse og c) som andel pr. berørt
    borger.
    Indikator 2
    a) AI-investeringer i alt i EU (på årsbasis)
    b) AI-investeringer i alt pr. medlemsstat (på årsbasis)
    c) andel af virksomheder, der anvender kunstig intelligens (på årsbasis)
    d) andel af SMV'er, der anvender kunstig intelligens (på årsbasis)
    a) og b) beregnes på grundlag af officielle kilder og benchmarks i forhold til private
    overslag
    c) og d) fastslås ved regelmæssige virksomhedsundersøgelser
    DA 97 DA
    1.5. Begrundelse for forslaget/initiativet
    1.5.1. Behov, der skal opfyldes på kort eller lang sigt, herunder en detaljeret tidsplan for
    iværksættelsen af initiativet
    Forordningen bør finde fuld anvendelse halvandet år efter vedtagelsen. Elementer i
    forvaltningsstrukturen bør dog være på plads inden da. Medlemsstaterne skal navnlig
    have udpeget eksisterende myndigheder og/eller oprettet nye myndigheder til at
    udføre de i den ovenstående lovgivning omhandlede opgaver, og Det Europæiske
    Udvalg for Kunstig Intelligens bør oprettes og være funktionsdygtigt. På det
    tidspunkt, hvor den europæiske database over AI-systemer finder anvendelse, bør
    databasen være fuldt ud funktionel. Parallelt med vedtagelsesprocessen er det derfor
    nødvendigt at udvikle databasen, således at dens udvikling er afsluttet, når
    forordningen træder i kraft.
    1.5.2. Merværdien ved et EU-tiltag (f.eks. som følge af koordineringsfordele, retssikkerhed,
    større effekt eller komplementaritet). Ved "merværdien ved et EU-tiltag" forstås her
    merværdien af EU's intervention i forhold til den værdi, som medlemsstaterne ville
    have skabt enkeltvis
    Et kludetæppe af potentielt divergerende nationale regler vil forhindre et
    gnidningsløst udbud af AI-systemer i hele EU og vil være ineffektivt med hensyn til
    at garantere sikkerheden, beskyttelsen af de grundlæggende rettigheder og Unionens
    værdier i de forskellige medlemsstater. En fælles EU-lovgivningsforanstaltning
    vedrørende kunstig intelligens kan sætte skub i det indre marked og har et stort
    potentiale til at give den europæiske industri både en konkurrencefordel på den
    globale scene og stordriftsfordele, som ikke kan opnås af de enkelte medlemsstater
    alene.
    1.5.3. Erfaringer fra tidligere foranstaltninger af lignende art
    Direktiv 2000/31/EF om elektronisk handel udgør den centrale ramme for det indre
    markeds funktionalitet og tilsynet med digitale tjenester og fastlægger en
    grundlæggende struktur for en generel samarbejdsmekanisme mellem
    medlemsstaterne, som i princippet omfatter alle krav, der gælder for digitale
    tjenester. Evalueringen af direktivet pegede på mangler ved flere aspekter af denne
    samarbejdsmekanisme, herunder vigtige proceduremæssige aspekter såsom manglen
    på klare tidsfrister for medlemsstaternes reaktion kombineret med en generel mangel
    på reaktionsevne over for anmodninger fra deres modparter. Dette har i årenes løb
    ført til manglende tillid mellem medlemsstaterne med hensyn til at løse problemer
    vedrørende udbydere, der tilbyder digitale tjenester på tværs af grænserne.
    Evalueringen af direktivet viste, at der er behov for at fastsætte et differentieret sæt
    regler og krav på europæisk plan. Derfor vil gennemførelsen af de specifikke
    forpligtelser, der er fastsat i denne forordning, kræve en særlig
    samarbejdsmekanisme på EU-plan med en forvaltningsstruktur, der sikrer
    koordinering af de specifikke ansvarlige organer på EU-plan.
    1.5.4. Forenelighed med den flerårige finansielle ramme og mulige synergivirkninger med
    andre relevante instrumenter
    Forordningen om harmoniserede regler for kunstig intelligens og om ændring af
    visse af Unionens lovgivningsmæssige retsakter fastsættes der en ny fælles ramme
    for krav til AI-systemer, som går langt ud over den ramme, der er fastsat i den
    DA 98 DA
    eksisterende lovgivning. Derfor er det med dette forslag nødvendigt at oprette en ny
    national og europæisk regulerings- og koordineringsfunktion.
    Med hensyn til mulige synergier med andre relevante instrumenter kan de
    bemyndigende myndigheders rolle på nationalt plan varetages af nationale
    myndigheder, der varetager lignende funktioner i henhold til andre EU-forordninger.
    Ved at øge tilliden til kunstig intelligens og dermed tilskynde til investeringer i
    udvikling og indførelse af kunstig intelligens supplerer den desuden programmet for
    et digitalt Europa, der som en af fem prioriteter har fremme af udbredelsen af kunstig
    intelligens.
    1.5.5. Vurdering af de forskellige finansieringsmuligheder, der er til rådighed, herunder
    muligheden for omfordeling
    Personalet vil blive omfordelt. De øvrige omkostninger vil blive støttet over
    bevillingsrammen for programmet for et digitalt Europa i betragtning af, at formålet
    med denne forordning — at sikre pålidelig kunstig intelligens — bidrager direkte til
    et af hovedmålene for programmet for et digitalt Europa — at fremskynde
    udviklingen og udbredelsen af kunstig intelligens i Europa.
    1.6. Forslagets/initiativets varighed og finansielle virkninger
     Begrænset varighed
    –  gældende fra [DD/MM]ÅÅÅÅ til [DD/MM]ÅÅÅÅ
    –  finansielle virkninger fra ÅÅÅÅ til ÅÅÅÅ for forpligtelsesbevillinger og fra
    ÅÅÅÅ til ÅÅÅÅ for betalingsbevillinger
    X Ubegrænset varighed
    – Iværksættelse med en indkøringsperiode på et/to (bekræftes senere) år
    – derefter gennemførelse i fuldt omfang
    1.7. Planlagt(e) forvaltningsmetode(r)65
    X Direkte forvaltning ved Kommissionen
    –  i dens tjenestegrene, herunder ved dens personale i EU's delegationer
    –  i forvaltningsorganerne
     Delt forvaltning i samarbejde med medlemsstaterne
     Indirekte forvaltning ved at overlade budgetgennemførelsesopgaver til:
    –  tredjelande eller organer, som tredjelande har udpeget
    –  internationale organisationer og deres agenturer (angives nærmere)
    –  Den Europæiske Investeringsbank og Den Europæiske Investeringsfond
    –  de organer, der er omhandlet i finansforordningens artikel 70 og 71
    –  offentligretlige organer
    –  privatretlige organer, der har fået overdraget samfundsopgaver, forudsat at de
    stiller tilstrækkelige finansielle garantier
    65
    Forklaringer vedrørende forvaltningsmetoder og henvisninger til finansforordningen findes på
    webstedet BudgWeb: http://www.cc.cec/budg/man/budgmanag/budgmanag_en.html.
    DA 99 DA
    –  privatretlige organer, undergivet lovgivningen i en medlemsstat, som har fået
    overdraget gennemførelsen af et offentlig-privat partnerskab, og som stiller
    tilstrækkelige finansielle garantier
    –  personer, der har fået overdraget gennemførelsen af specifikke aktioner i den
    fælles udenrigs- og sikkerhedspolitik i henhold til afsnit V i traktaten om Den
    Europæiske Union, og som er anført i den relevante basisretsakt
    – Hvis der angives flere forvaltningsmetoder, gives der en nærmere forklaring i afsnittet "Bemærkninger".
    Bemærkninger
    DA 100 DA
    2. FORVALTNINGSFORANSTALTNINGER
    2.1. Bestemmelser om overvågning og rapportering
    Angiv hyppighed og betingelser.
    Forordningen vil blive gennemgået og evalueret fem år efter forordningens
    ikrafttræden. Kommissionen vil rapportere om evalueringens resultater til Europa-
    Parlamentet, Rådet og Det Europæiske Økonomiske og Sociale Udvalg.
    2.2. Forvaltnings- og kontrolsystem(er)
    2.2.1. Begrundelse for den/de foreslåede forvaltningsmetode(r), finansieringsmekanisme(r),
    betalingsvilkår og kontrolstrategi
    I forordningen fastlægges der en ny politik med hensyn til harmoniserede regler for
    udbud af systemer med kunstig intelligens på det indre marked, samtidig med at der
    sikkerheden beskyttes og de grundlæggende rettigheder sikres overholdt. Disse nye
    regler kræver en sammenhængsmekanisme for anvendelse af forpligtelserne i
    henhold til denne forordning på tværs af grænserne, som skal tage form af en ny
    rådgivende gruppe til at koordinere de nationale myndigheders aktiviteter.
    For at kunne løse disse nye opgaver er det nødvendigt at afsætte tilstrækkelige
    ressourcer til Kommissionens tjenestegrene. Håndhævelsen af den nye forordning
    forventes at kræve 10 fuldtidsækvivalenter (5 fuldtidsækvivalenter til støtte for
    udvalgets aktiviteter og 5 fuldtidsækvivalenter til Den Europæiske Tilsynsførende for
    Databeskyttelses funktion som et bemyndigende organ for AI-systemer, der
    anvendes af EU-organer).
    2.2.2. Oplysninger om de konstaterede risici og det/de interne kontrolsystem(er), der
    etableres for at afbøde dem
    For at sikre, at udvalgets medlemmer kan foretage velunderbyggede analyser på
    grundlag af faktuelle oplysninger, fastsættes det, at udvalget bør støttes af
    Kommissionens administrative struktur, og at der skal nedsættes en ekspertgruppe,
    der skal yde yderligere ekspertise, når det er nødvendigt.
    2.2.3. Vurdering af og begrundelse for kontrolforanstaltningernes omkostningseffektivitet
    (forholdet mellem kontrolomkostningerne og værdien af de forvaltede midler) samt
    vurdering af den forventede risiko for fejl (ved betaling og ved afslutning)
    I betragtning af den lave værdi pr. transaktion (f.eks. godtgørelse af rejseudgifter for
    en delegeret i forbindelse med et møde) synes standardkontrolprocedurerne for
    mødeudgifter at være tilstrækkelige. Hvad angår udviklingen af databasen, er
    tildelingen af kontrakter underlagt et stærkt internt kontrolsystem i GD CNECT
    gennem centraliserede indkøbsaktiviteter.
    2.3. Foranstaltninger til forebyggelse af svig og uregelmæssigheder
    Angiv eksisterende eller påtænkte forebyggelses- og beskyttelsesforanstaltninger, f.eks. fra strategien
    til bekæmpelse af svig.
    De eksisterende foranstaltninger til forebyggelse af svig, der gælder for
    Kommissionen, vil dække de supplerende bevillinger, der er nødvendige i
    forbindelse med denne forordning.
    DA 101 DA
    3. FORSLAGETS/INITIATIVETS ANSLÅEDE FINANSIELLE VIRKNINGER
    3.1. Berørt(e) udgiftsområde(r) i den flerårige finansielle ramme og udgiftspost(er) på budgettet
     Eksisterende budgetposter
    I samme rækkefølge som udgiftsområderne i den flerårige finansielle ramme og budgetposterne.
    Udgifts-
    område i
    den
    flerårige
    finansielle
    ramme
    Budgetpost
    Udgiftens
    art
    Bidrag
    Nummer
    OB/IOB
    66
    fra
    EFTA-
    lande
    67
    fra
    kandidat-
    lande
    68
    fra tredje-
    lande
    iht. finansforord-
    ningens artikel 21,
    stk. 2, litra b)
    7 20 02 06 Administrationsudgifter IOB NEJ NEJ NEJ NEJ
    1
    02 04 03 Programmet for et digitalt
    Europa — Kunstig intelligens
    OB JA NEJ NEJ NEJ
    1
    02 01 30 01 Udgifter til
    støttefunktioner i forbindelse med
    programmet for et digitalt Europa
    IOB JA NEJ NEJ NEJ
    3.2. Forslagets anslåede finansielle virkninger for bevillingerne
    3.2.1. Sammenfatning af de anslåede virkninger for udgifterne for aktionsbevillingerne
    –  Forslaget/initiativet medfører ikke anvendelse af aktionsbevillinger
    – X Forslaget/initiativet medfører anvendelse af aktionsbevillinger som anført herunder:
    66
    OB = opdelte bevillinger/IOB = ikke-opdelte bevillinger.
    67
    EFTA: Den Europæiske Frihandelssammenslutning.
    68
    Kandidatlande og, hvis det er relevant, potentielle kandidatlande på Vestbalkan.
    DA 102 DA
    i mio. EUR (tre decimaler)
    Udgiftsområde i den flerårige finansielle ramme 1
    GD: CNECT
    År
    2022
    År
    2023
    År
    2024
    År
    2025
    År
    2026
    År
    2027
    69 I ALT
    Aktionsbevillinger
    Budgetpost
    70
    02 04 03
    Forpligtelser (1a) 1,000 1,000
    Betalinger (2a) 0,600 0,100 0,100 0,100 0,100 1,000
    Budgetpost
    Forpligtelser (1b)
    Betalinger (2b)
    Administrationsbevillinger finansieret
    over bevillingsrammen for særprogrammer
    71
    Budgetpost 02 01 30 01 (3) 0,240 0,240 0,240 0,240 0,240 1,200
    Bevillinger I ALT
    til GD CNECT
    Forpligtelser =1a+1b+3 1,240 0,240 0,240 0,240 2,200
    Betalinger
    =2a+2b
    +3
    0,840 0,340 0,340 0,340 0,340 2,200
    69
    Vejledende og afhængig af de disponible budgetmidler.
    70
    Ifølge den officielle budgetkontoplan.
    71
    Teknisk og/eller administrativ bistand og udgifter til støtte for gennemførelsen af EU's programmer og/eller foranstaltninger (tidligere BA-poster), indirekte
    forskning, direkte forskning.
    DA 103 DA
     Aktionsbevillinger I ALT
    Forpligtelser (4) 1,000 1,000
    Betalinger (5) 0,600 0,100 0,100 0,100 0,100 1,000
     Administrationsbevillinger finansieret over bevillingsrammen for
    særprogrammer I ALT
    (6) 0,240 0,240 0,240 0,240 0,240 1,200
    Bevillinger I ALT
    under UDGIFTSOMRÅDE 1
    i den flerårige finansielle ramme
    Forpligtelser =4+6 1,240 0,240 0,240 0,240 0,240 2,200
    Betalinger =5+6 0,840 0,340 0,340 0,340 0,340 2,200
    Hvis flere udgiftsområder berøres af forslaget/initiativet, indsættes der et tilsvarende afsnit for hvert udgiftsområde
    Aktionsbevillinger I ALT (alle
    aktionsrelaterede udgiftsområder)
    Forpligtelser (4)
    Betalinger (5)
     Administrationsbevillinger finansieret over
    bevillingsrammen for særprogrammer I ALT (alle
    aktionsrelaterede udgiftsområder)
    (6)
    Bevillinger I ALT
    under UDGIFTSOMRÅDE 1-6
    i den flerårige finansielle ramme
    (referencebeløb)
    Forpligtelser =4+6
    Betalinger =5+6
    Udgiftsområde i den flerårige finansielle ramme 7 "Administrationsudgifter"
    Dette afsnit skal udfyldes ved hjælp af arket vedrørende administrative budgetoplysninger, der først skal indføres i bilaget til
    finansieringsoversigten (bilag V til de interne regler), som uploades til DECIDE med henblik på høring af andre tjenestegrene.
    DA 104 DA
    i mio. EUR (tre decimaler)
    År
    2023
    År
    2024
    År
    2025
    År
    2026
    År 2027
    Efter
    2027
    72 I ALT
    GD: CNECT
     Menneskelige ressourcer 0,760 0,760 0,760 0,760 0,760 0,760 3,800
     Andre administrationsudgifter 0,010 0,010 0,010 0,010 0,010 0,010 0,050
    I ALT GD CNECT Bevillinger 0,760 0,760 0,760 0,760 0,760 0,760 3,850
    Den Europæiske Tilsynsførende for Databeskyttelse
    (EDPS)
     Menneskelige ressourcer 0,760 0,760 0,760 0,760 0,760 0,760 3,800
     Andre administrationsudgifter
    I ALT EDPS Bevillinger 0,760 0,760 0,760 0,760 0,760
    0,760 3,800
    Bevillinger I ALT
    under UDGIFTSOMRÅDE 7
    i den flerårige finansielle ramme
    (Forpligtelser i alt = betalinger i alt) 1,530 1,530 1,530 1,530 1,530 1,530 7,650
    i mio. EUR (tre decimaler)
    År
    2022
    År
    2023
    År
    2024
    År
    2025
    År 2026 År 2027 I ALT
    Bevillinger I ALT
    under UDGIFTSOMRÅDE 1-7
    i den flerårige finansielle ramme
    Forpligtelser 2,770 1,770 1,770 1,770 1,770 9,850
    Betalinger 2,370 1,870 1,870 1,870 1,870 9,850
    72
    Alle tal i denne kolonne er vejledende og afhænger af videreførelsen af programmerne og disponible bevillinger.
    DA 105 DA
    3.2.2. Anslåede resultater finansieret med aktionsbevillinger
    Forpligtelsesbevillinger i mio. EUR (tre decimaler)
    Angiv mål og
    resultater
    
    År
    2022
    År
    2023
    År
    2024
    År
    2025
    År
    2026
    År
    2027
    Efter
    2027
    73 I ALT
    RESULTATER
    Type
    Gnsntl.
    omkost-
    ninger
    Antal
    Om-
    kost-
    ninger
    Antal
    Om-
    kost-
    ninger
    Antal
    Omkost-
    ninger
    Antal
    Om-
    kost-
    ninger
    Antal
    Om-
    kost-
    ninger
    Antal
    Om-
    kost-
    ninger
    Antal
    Om-
    kost-
    ninger
    Anta
    l
    resul
    tater
    i alt
    Om-
    kost-
    ninger
    i alt
    SPECIFIKT MÅL NR. 1
    74
    …
    Database 1 1,000 1 1 1 1 1 0,100 1 1,000
    Møder — Resultat 10 0,200 10 0,200 10 0,200 10 0,200 10 0,200 10 0,200 50 1,000
    Kommunikationsakti
    viteter
    2 0,040 2 0,040 2 0,040 2 0,040 2 0,040 2 0,040 10 0,040
    Subtotal for specifikt mål nr. 1
    SPECIFIKT MÅL NR. 2
    - Resultat
    Subtotal for specifikt mål nr. 2
    I ALT 13 0,240 13 0,240 13 0,240 13 0,240 13 0,240 13 0,100 65 2,200
    73
    Alle tal i denne kolonne er vejledende og afhænger af videreførelsen af programmerne og disponible bevillinger.
    74
    Som beskrevet i punkt 1.4.2. "Specifikt/specifikke mål".
    DA 106 DA
    3.2.3. Sammenfatning af de anslåede virkninger for administrationsbevillingerne
    –  Forslaget/initiativet medfører ikke anvendelse af administrationsbevillinger
    – X Forslaget/initiativet medfører anvendelse af administrationsbevillinger som
    anført herunder:
    i mio. EUR (tre decimaler)
    År
    2022
    År
    2023
    År
    2024
    År
    2025
    År
    2026
    År
    2027
    Årligt efter
    2027
    75 I ALT
    UDGIFTSOMRÅDE 7
    i den flerårige finansielle
    ramme
    Menneskelige ressourcer 1,520 1,520 1,520 1,520 1,520 1,520 7,600
    Andre
    administrationsudgifter
    0,010 0,010 0,010 0,010 0,010 0,010 0,050
    Subtotal
    UDGIFTSOMRÅDE 7
    i den flerårige finansielle
    ramme
    1,530 1,530 1,530 1,530 1,530 1,530 7,650
    Uden for
    UDGIFTSOMRÅDE 7
    76
    of the i den flerårige
    finansielle ramme
    Menneskelige ressourcer
    Andre
    administrationsudgifter
    0,240 0,240 0,240 0,240 0,240 0,240 1,20
    Subtotal
    uden for
    UDGIFTSOMRÅDE 7
    i den flerårige finansielle
    ramme
    0,240 0,240 0,240 0,240 0,240 0,240 1,20
    I ALT 1,770 1,770 1,770 1,770 1,770 1,770 8,850
    Bevillingerne til menneskelige ressourcer og andre administrationsudgifter vil blive dækket ved hjælp af de bevillinger, som
    generaldirektoratet allerede har afsat til forvaltning af foranstaltningen, og/eller ved intern omfordeling i generaldirektoratet,
    eventuelt suppleret med yderligere bevillinger, som tildeles det ansvarlige generaldirektorat i forbindelse med den årlige
    tildelingsprocedure under hensyntagen til de budgetmæssige begrænsninger.
    75
    Alle tal i denne kolonne er vejledende og afhænger af videreførelsen af programmerne og disponible bevillinger.
    76
    Teknisk og/eller administrativ bistand og udgifter til støtte for gennemførelsen af EU's programmer
    og/eller foranstaltninger (tidligere BA-poster), indirekte forskning, direkte forskning.
    DA 107 DA
    3.2.3.1. Anslået behov for menneskelige ressourcer
    –  Forslaget/initiativet medfører ikke anvendelse af menneskelige ressourcer
    – X Forslaget/initiativet medfører anvendelse af menneskelige ressourcer som
    anført herunder:
    Overslag angives i årsværk
    .
    År
    2023
    År 2024
    År
    2025
    2026 2027
    Efter
    202777
     Stillinger i stillingsfortegnelsen (tjenestemænd og midlertidigt ansatte)
    20 01 02 01 (i Kommissionens hovedsæde og
    repræsentationskontorer)
    10 10 10 10 10 10
    20 01 02 03 (i delegationerne)
    01 01 01 01 (indirekte forskning)
    01 01 01 11 (direkte forskning)
    Andre budgetposter (angiv nærmere)
     Eksternt personale (i årsværk)
    78
    20 02 01 (KA, UNE, V under den samlede bevillingsramme)
    20 02 03 (KA, LA, UNE, V og JMD i delegationerne)
    XX 01 xx yy zz
    79 - i hovedsædet
    - i delegationerne
    01 01 01 02 (KA, UNE, V – indirekte forskning)
    01 01 01 12 (KA, UNE, V – direkte forskning)
    Andre budgetposter (skal angives)
    I ALT 10 10 10 10 10 10
    XX angiver det berørte politikområde eller budgetafsnit.
    Personalebehovet vil blive dækket ved hjælp af det personale, som generaldirektoratet allerede har afsat til
    forvaltning af foranstaltningen, og/eller ved interne rokader i generaldirektoratet, eventuelt suppleret med
    yderligere bevillinger, som tildeles det ansvarlige generaldirektorat i forbindelse med den årlige
    tildelingsprocedure under hensyntagen til de budgetmæssige begrænsninger.
    EDPS forventes at stille halvdelen af de nødvendige ressourcer til rådighed.
    Opgavebeskrivelse:
    Tjenestemænd og midlertidigt ansatte Forberedelsen af i alt 13-16 møder, udkast til rapporter, det politiske arbejde (f.eks.
    vedrørende fremtidige ændringer af listen over højrisiko-AI-anvendelser) og
    varetagelse af forbindelserne med medlemsstaternes myndigheder vil kræve fire AD-
    fuldtidsækvivalenter og én AST-fuldtidsækvivalent.
    Den Europæiske Tilsynsførende for Databeskyttelse er ansvarlig for AI-systemer
    udviklet af EU-institutionerne. På grundlag af tidligere erfaringer kan det anslås, at der
    kræves fem AD-fuldtidsækvivalenter for at opfylde Den Europæiske Tilsynsførende
    77
    Alle tal i denne kolonne er vejledende og afhænger af videreførelsen af programmerne og disponible
    bevillinger.
    78
    KA: kontraktansatte, LA: lokalt ansatte, UNE: udstationerede nationale eksperter, V: vikarer, JMD:
    juniormedarbejdere i delegationerne.
    79
    Delloft for eksternt personale under aktionsbevillingerne (tidligere BA-poster).
    DA 108 DA
    for Databeskyttelse ansvar i henhold til lovgivningsudkastet.
    Eksternt personale
    DA 109 DA
    3.2.4. Forenelighed med indeværende flerårige finansielle ramme
    Forslaget/initiativet:
    – X kan finansieres fuldt ud gennem omfordeling inden for det relevante
    udgiftsområde i den flerårige finansielle ramme (FFR)
    Der er ikke behov for omlægning.
    –  kræver anvendelse af den uudnyttede margen under det relevante
    udgiftsområde i FFR og/eller anvendelse af særlige instrumenter som fastlagt i
    FFR-forordningen
    Gør rede for behovet med angivelse af de berørte udgiftsområder og budgetposter, de beløb, der er tale
    om, og de instrumenter, der foreslås anvendt.
    –  kræver en revision af FFR
    Gør rede for behovet med angivelse af de berørte udgiftsområder og budgetposter og de beløb, der er
    tale om.
    3.2.5. Bidrag fra tredjemand
    Forslaget/initiativet:
    – X indeholder ikke bestemmelser om samfinansiering med tredjemand
    –  indeholder bestemmelser om samfinansiering med tredjemand, jf. følgende
    overslag:
    Bevillinger i mio. EUR (tre decimaler)
    År
    n
    80
    År
    n+1
    År
    n+2
    År
    n+3
    Indsæt så mange år som
    nødvendigt for at vise
    virkningernes varighed (jf. punkt
    1.6)
    I alt
    Angiv det organ, der
    deltager i
    samfinansieringen
    Samfinansierede
    bevillinger I ALT
    80
    År n er det år, hvor gennemførelsen af forslaget/initiativet påbegyndes. Erstat "n" med det forventede
    første gennemførelsesår (f.eks.: 2021). Dette gælder også for de efterfølgende år.
    DA 110 DA
    3.3. Anslåede virkninger for indtægterne
    –  Forslaget/initiativet har følgende finansielle virkninger:
    –  Forslaget/initiativet har følgende finansielle virkninger:
    –  for andre indtægter
    –  for andre indtægter
    – Angiv, om indtægterne er formålsbestemte 
    i mio. EUR (tre decimaler)
    Indtægtspost på budgettet
    Bevillinger til
    rådighed i
    indeværende
    regnskabsår
    Forslagets/initiativets virkninger
    81
    År
    n
    År
    n+1
    År
    n+2
    År
    n+3
    Indsæt så mange år som nødvendigt for at
    vise virkningernes varighed (jf. punkt
    1.6)
    Artikel …
    For indtægter, der er formålsbestemte, angives det, hvilke af budgettets udgiftsposter der berøres.
    Andre bemærkninger (f.eks. om hvilken metode, der er benyttet til at beregne virkningerne for
    indtægterne).
    81
    Med hensyn til EU's traditionelle egne indtægter (told og sukkerafgifter) opgives beløbene netto, dvs.
    bruttobeløb, hvorfra der er trukket opkrævningsomkostninger på 20 %.
    

    1_DA_annexe_proposition_part1_v2.pdf

    https://www.ft.dk/samling/20211/kommissionsforslag/kom(2021)0206/forslag/1773316/2410670.pdf

    DA DA
    EUROPA-
    KOMMISSIONEN
    Bruxelles, den 21.4.2021
    COM(2021) 206 final
    ANNEXES 1 to 9
    BILAG
    til
    Forslag til Europa-Parlamentets og Rådets forordning
    OM FASTSÆTTELSE AF HARMONISEREDE REGLER OM KUNSTIG
    INTILLIGENS( RETSAKTEN OM KUNSTIG INTILLIGENS) OG ÆNDRING AF
    VISSE EU-RETSAKTER
    {SEC(2021) 167 final} - {SWD(2021) 84 final} - {SWD(2021) 85 final}
    Europaudvalget 2021
    KOM (2021) 0206 - Forslag til forordning
    Offentligt
    DA 1 DA
    BILAG I
    TEKNIKKER OG TILGANGE TIL KUNSTIG INTELLIGENS
    jf. artikel 3, stk. 1
    (a) maskinlæringstilgange, herunder superviseret, usuperviseret og reinforcement
    learning, ved hjælp af en bred vifte af metoder, herunder dyb læring
    (b) logiske og videnbaserede tilgange, herunder videnrepræsentation, induktiv (logisk)
    programmering, videnbaser, inferens- og deduktionsmotorer, (symbolsk)
    ræsonnement og ekspertsystemer
    (c) statistiske metoder, bayesianske estimations-, søgnings- og optimeringsmetoder.
    DA 2 DA
    BILAG II
    LISTE OVER EU-HARMONISERINGSLOVGIVNING
    Del A — Liste over EU-harmoniseringslovgivning under den nye lovgivningsmæssige
    ramme
    1. Europa-Parlamentets og Rådets direktiv 2006/42/EF af 17. maj 2006 om maskiner og
    om ændring af direktiv 95/16/EF (EUT L 157 af 9.6.2006, s. 24) (som ophævet ved
    maskinforordningen)
    2. Europa-Parlamentets og Rådets direktiv 2009/48/EF af 18. juni 2009 om
    sikkerhedskrav til legetøj (EUT L 170 af 30.6.2009, s. 1)
    3. Europa-Parlamentets og Rådets direktiv 2013/53/EU af 20. november 2013 om
    fritidsfartøjer og personlige fartøjer og om ophævelse af direktiv 94/25/EF
    (EUT L 354 af 28.12.2013, s. 90)
    4. Europa-Parlamentets og Rådets direktiv 2014/33/EU af. 26. februar 2014 om
    harmonisering af medlemsstaternes love om elevatorer og sikkerhedskomponenter til
    elevatorer (EUT L 96 af 29.3.2014, s. 251)
    5. Europa-Parlamentets og Rådets direktiv 2014/34/EU af 26. februar 2014 om
    harmonisering af medlemsstaternes love om materiel og sikringssystemer til
    anvendelse i en potentielt eksplosiv atmosfære (EUT L 96 af 29.3.2014, s. 309)
    6. Europa-Parlamentets og Rådets direktiv 2014/53/EU af 16. april 2014 om
    harmonisering af medlemsstaternes love om tilgængeliggørelse af radioudstyr på
    markedet og om ophævelse af direktiv 1999/5/EF (EUT L 153 af 22.5.2014, s. 62)
    7. Europa-Parlamentets og Rådets direktiv 2014/68/EU af 15. maj 2014 om
    harmonisering af medlemsstaternes lovgivning om tilgængeliggørelse på markedet af
    trykbærende udstyr (EUT L 189 af 27.6.2014, s. 164)
    8. Europa-Parlamentets og Rådets forordning (EU) 2016/424 af 9. marts 2016 om
    tovbaneanlæg og om ophævelse af direktiv 2000/9/EF (EUT L 81 af 31.3.2016, s. 1)
    9. Europa-Parlamentets og Rådets forordning (EU) 2016/425 af 9. marts 2016 om
    personlige værnemidler og om ophævelse af Rådets direktiv 89/686/EØF (EUT L 81
    af 31.3.2016, s. 51)
    10. Europa-Parlamentets og Rådets forordning (EU) 2016/426 af 9. marts 2016 om
    apparater, der forbrænder gasformigt brændstof, og om ophævelse af direktiv
    2009/142/EF (EUT L 81 af 31.3.2016, s. 99)
    11. Europa-Parlamentets og Rådets forordning (EU) 2017/745 af 5. april 2017 om
    medicinsk udstyr, om ændring af direktiv 2001/83/EF, forordning (EF) nr. 178/2002
    og forordning (EF) nr. 1223/2009 og om ophævelse af Rådets direktiv 90/385/EØF
    og 93/42/EØF (EUT L 117 af 5.5.2017, s. 1)
    12. Europa-Parlamentets og Rådets forordning (EU) 2017/746 af 5. april 2017 om
    medicinsk udstyr til in vitro-diagnostik og om ophævelse af direktiv 98/79/EF og
    Kommissionens afgørelse 2010/227/EU (EUT L 117 af 5.5.2017, s. 176).
    DA 3 DA
    Del B. Liste over anden EU-harmoniseringslovgivning
    1. Europa-Parlamentets og Rådets forordning (EF) nr. 300/2008 af 11. marts 2008 om
    fælles bestemmelser om sikkerhed inden for civil luftfart og om ophævelse af
    forordning (EF) nr. 2320/2002 (EUT L 97 af 9.4.2008, s. 72)
    2. Europa-Parlamentets og Rådets forordning (EU) nr. 168/2013 af 15. januar 2013 om
    godkendelse og markedsovervågning af to- og trehjulede køretøjer samt quadricykler
    (EUT L 60 af 2.3.2013, s. 52)
    3. Europa-Parlamentets og Rådets forordning (EU) nr. 167/2013 af 5. februar 2013 om
    godkendelse og markedsovervågning af landbrugs- og skovbrugstraktorer (EUT L 60
    af 2.3.2013, s. 1)
    4. Europa-Parlamentets og Rådets direktiv 2014/90/EU af 23. juli 2014 om skibsudstyr
    og om ophævelse af Rådets direktiv 96/98/EF (EUT L 257 af 28.8.2014, s. 146)
    5. Europa-Parlamentets og Rådets direktiv (EU) 2016/797 af 11. maj 2016 om
    interoperabilitet i jernbanesystemet i Den Europæiske Union (EUT L 138 af
    26.5.2016, s. 44)
    6. Europa-Parlamentets og Rådets forordning (EU) 2018/858 af 30. maj 2018 om
    godkendelse og markedsovervågning af motorkøretøjer og påhængskøretøjer dertil
    samt af systemer, komponenter og separate tekniske enheder til sådanne køretøjer,
    om ændring af forordning (EF) nr. 715/2007 og (EF) nr. 595/2009 og om ophævelse
    af direktiv 2007/46/EF (EUT L 151 af 14.6.2018, s. 1) 3. Europa-Parlamentets og
    Rådets forordning (EU) 2019/2144 af 27. november 2019 om krav til
    typegodkendelse af motorkøretøjer og påhængskøretøjer dertil samt systemer,
    komponenter og separate tekniske enheder til sådanne køretøjer for så vidt angår
    deres generelle sikkerhed og beskyttelsen af køretøjspassagerer og bløde trafikanter
    og om ændring af Europa-Parlamentets og Rådets forordning (EU) 2018/858 og
    ophævelse af forordning (EF) nr. 78/2009, forordning (EF) nr. 79/2009 og Europa-
    Parlamentets og Rådets forordning (EF) nr. 661/2009 og Kommissionens forordning
    (EF) nr. 631/2009, (EU) nr. 406/2010, (EU) nr. 672/2010, (EU) nr. 1003/2010, (EU)
    nr. 1005/2010, (EU) nr. 1008/2010, (EU) nr. 1009/2010, (EU) nr. 19/2011, (EU) nr.
    109/2011, (EU) nr. 458/2011, (EU) nr. 65/2012, (EU) nr. 130/2012, (EU) nr.
    347/2012, (EU) nr. 351/2012, (EU) nr. 1230/2012 og (EU) 2015/166 (EUT L 325 af
    16.12.2019, s. 1)
    7. Europa-Parlamentets og Rådets forordning (EU) 2018/1139 af 4. juli 2018 om fælles
    regler for civil luftfart og oprettelse af Den Europæiske Unions
    Luftfartssikkerhedsagentur og om ændring af Europa-Parlamentets og Rådets
    forordning (EF) nr. 2111/2005, (EF) nr. 1008/2008, (EU) nr. 996/2010 og (EU)
    nr. 376/2014 og direktiv 2014/30/EU og 2014/53/EU og om ophævelse af Europa-
    Parlamentets og Rådets forordning (EF) nr. 552/2004 og (EF) nr. 216/2008 og
    Rådets forordning (EØF) nr. 3922/91 (EUT L 212 af 22.8.2018, s. 1), for så vidt
    angår konstruktion, fremstilling og bringe i omsætning af luftfartøjer, som er
    omhandlet i nævnte forordnings artikel 2, stk. 1, litra a) og b), når det drejer sig om
    ubemandede luftfartøjer og tilhørende motorer, propeller, dele og udstyr til
    fjernkontrol af disse luftfartøjer.
    DA 4 DA
    BILAG III
    HØJRISIKO-AI-SYSTEMER, jf. artikel 6, stk. 2
    Højrisiko-AI-systemer i henhold til artikel 6, stk. 2, er de AI-systemer, der er opført under et
    af følgende områder:
    1. biometrisk identifikation og kategorisering af fysiske personer:
    (a) AI-systemer der er beregnet til biometrisk fjernidentifikation i realtid og
    efterfølgende biometrisk fjernidentifikation af fysiske personer
    2. Forvaltning og drift af kritisk infrastruktur:
    (a) AI-systemer, der er beregnet til anvendelse som sikkerhedskomponenter i
    forvaltningen og driften af vejtrafik og forsyning af vand, gas, varme og
    elektricitet
    3. Uddannelse og erhvervsuddannelse:
    (a) AI-systemer, der er beregnet til at fastslå, om fysiske personer skal optages,
    eller hvordan de skal fordeles, på uddannelsesinstitutioner
    (b) AI-systemer, der er beregnet til evaluering af studerende på
    uddannelsesinstitutioner og til at vurdere personer i forbindelse med prøver,
    der normalt kræves for at få adgang til uddannelsesinstitutioner
    4. beskæftigelse, forvaltning af arbejdstagere og adgang til selvstændig virksomhed:
    (a) AI-systemer, der er beregnet til rekruttering eller udvælgelse af fysiske
    personer, navnlig til annoncering af ledige stillinger, screening eller filtrering
    af ansøgninger, evaluering af ansøgere under samtaler eller prøver
    (b) AI-systemer, der er beregnet til beslutningstagning om forfremmelse og
    afskedigelse og til opgavefordeling, overvågning og evaluering af personers
    præstationer og adfærd i arbejdsrelaterede kontraktforhold
    5. Adgang til og benyttelse af væsentlige private og offentlige tjenester og fordele:
    (a) AI-systemer, der er beregnet til at blive anvendt af offentlige myndigheder eller
    på vegne af offentlige myndigheder til at vurdere fysiske personers berettigelse
    til offentlige sociale ydelser og tjenester samt til at tildele, reducere, annullere
    eller tilbagekalde sådanne ydelser og tjenester
    (b) AI-systemer, der er beregnet til at foretage kreditvurderinger af fysiske
    personer eller fastslå deres kreditværdighed, med undtagelse af AI-systemer,
    der tages i brug af mindre udbydere til eget brug
    (c) AI-systemer, der er beregnet til at sende beredskabstjenester i nødsituationer
    eller til at tildele prioriteter i forbindelse hermed, herunder brandslukning og
    lægehjælp.
    6. Retshåndhævelse:
    (a) AI-systemer, der er beregnet til at blive anvendt af retshåndhævende
    myndigheder til at foretage individuelle risikovurderinger af fysiske personer
    for at vurdere risikoen for, at en fysisk person begår, genbegår eller bliver
    potentielt offer for lovovertrædelser
    (b) AI-systemer, der er beregnet til at blive anvendt af retshåndhævende
    myndigheder som polygrafer og lignende værktøjer eller til at påvise en fysisk
    persons følelsesmæssige tilstand
    DA 5 DA
    (c) AI-systemer, der er beregnet til at blive anvendt af retshåndhævende
    myndigheder til at opdage deepfake-indhold som omhandlet i artikel 52, stk. 3
    (d) AI-systemer, der er beregnet til at blive anvendt af retshåndhævende
    myndigheder til at vurdere pålideligheden af bevismateriale i forbindelse med
    efterforskning eller retsforfølgning af lovovertrædelser
    (e) AI-systemer, der er beregnet til at blive anvendt af retshåndhævende
    myndigheder til at forudsige forekomsten eller gentagelsen af en faktisk eller
    potentiel strafbar handling ud fra profilering af fysiske personer som omhandlet
    i artikel 3, stk. 4, i direktiv (EU) 2016/680 eller til at vurdere fysiske personers
    eller gruppers personlighedstræk og personlige egenskaber eller tidligere
    kriminelle adfærd
    (f) AI-systemer, der er beregnet til at blive anvendt af retshåndhævende
    myndigheder til profilering af fysiske personer som omhandlet i artikel 3, stk.
    4, i direktiv (EU) 2016/680 i forbindelse med afsløring, efterforskning eller
    retsforfølgning af lovsovertrædelser
    (g) AI-systemer, der er beregnet til at blive anvendt til kriminalanalyser
    vedrørende fysiske personer, og som gør det muligt for retshåndhævende
    myndigheder at søge i komplekse og både forbundne og ikkeforbundne store
    datasæt, der er tilgængelige i forskellige datakilder eller i forskellige
    dataformater, med henblik på at identificere ukendte mønstre eller opdage
    skjulte forbindelser i dataene.
    7. Migrationsstyring, asylforvaltning og grænsekontrol:
    (a) AI-systemer, der er beregnet til at blive anvendt af kompetente offentlige
    myndigheder som polygrafer og lignende værktøjer eller til at påvise en fysisk
    persons følelsesmæssige tilstand
    (b) AI-systemer, der er beregnet til at blive anvendt af kompetente offentlige
    myndigheder til at vurdere en risiko, herunder en sikkerhedsrisiko, en risiko for
    irregulær indvandring eller en sundhedsrisiko, som udgøres af en fysisk person,
    der har til hensigt at rejse ind i eller er indrejst i en medlemsstat
    (c) AI-systemer, der er beregnet til at blive anvendt af kompetente offentlige
    myndigheder til at kontrollere ægtheden af fysiske personers rejselegitimation
    og anden dokumentation og opdage forfalskede dokumenter ved at kontrollere
    deres sikkerhedselementer
    (d) AI-systemer, der er beregnet til at bistå kompetente offentlige myndigheder i
    behandlingen af ansøgninger om asyl, visum og opholdstilladelser og hertil
    relaterede klager med henblik på at fastslå, om de fysiske personer, der
    ansøger, er berettigede
    8. Retspleje og demokratiske processer:
    (a) AI-systemer, der er beregnet til at bistå retlige myndigheder med at undersøge
    og fortolke fakta og lovgivningen og anvende lovgivningen i konkrete,
    faktuelle sager.
    DA 6 DA
    BILAG IV
    TEKNISK DOKUMENTATION, jf. artikel 11, stk. 1
    Den tekniske dokumentation, der er omhandlet i artikel 11, stk. 1, skal som minimum
    indeholde følgende oplysninger, alt efter hvad der er relevant for det pågældende AI-system:
    1. En generel beskrivelse af AI-systemet, herunder:
    (a) det tilsigtede formål, den eller de personer, der udvikler systemet, samt
    systemets dato og version
    (b) hvis det er relevant, hvordan AI-systemet interagerer eller kan bruges til at
    interagere med hardware eller software, der ikke er en del af selve AI-systemet
    (c) versionerne af relevant software eller firmware og eventuelle krav vedrørende
    opdatering
    (d) en beskrivelse af alle måder, hvorpå AI-systemet bringes i omsætning eller
    tages i brug
    (e) en beskrivelse af den hardware, som AI-systemet er beregnet til at køre på
    (f) hvis AI-systemet er komponent i produkter: fotografier eller illustrationer, der
    viser disse produkters eksterne karakteristika, mærkning og interne layout
    (g) brugsanvisning til brugeren og, hvis det er relevant, monteringsvejledning
    2. En detaljeret beskrivelse af elementerne i AI-systemet og af processen for dets
    udvikling, herunder:
    (a) de metoder og trin, der er brugt i udviklingen af AI-systemet, herunder, hvor
    det er relevant, anvendelse af forhåndstrænede systemer eller værktøjer leveret
    af tredjeparter, og hvordan disse er blevet anvendt, integreret eller ændret af
    udbyderen
    (b) systemets konstruktionsspecifikationer, dvs. AI-systemets og algoritmernes
    generelle logik, navnlig de vigtigste designvalg, herunder begrundelser og
    antagelser, også med hensyn til personer eller grupper af personer, som
    systemet er beregnet til at blive anvendt på, de overordnede klassifikationsvalg,
    hvad systemet er designet til at optimere for og relevansen af de forskellige
    parametre, samt beslutninger om eventuelle trade-offs i de tekniske løsninger,
    der er valgt for at opfylde kravene i afsnit III, kapitel 2
    (c) en beskrivelse af systemarkitekturen, der forklarer, hvordan
    softwarekomponenterne bygger på eller tilføres hinanden og integreres i den
    samlede anvendelse; de beregningsressourcer, der anvendes til at udvikle,
    træne, teste og validere AI-systemet
    (d) hvis det er relevant, datakravene i form af datablade, der beskriver de anvendte
    træningsmetoder og -teknikker og de anvendte træningsdatasæt, herunder
    oplysninger om disse datasæts oprindelse, omfang og vigtigste karakteristika,
    hvordan dataene er indsamlet og udvalgt, mærkningsprocedurer (f.eks. for
    superviseret læring) og datarensningsmetoder (f.eks. detektion af outliers)
    (e) vurdering af de foranstaltninger til menneskeligt tilsyn, der er nødvendige i
    henhold til artikel 14, herunder en vurdering af de tekniske foranstaltninger,
    der er nødvendige for at lette brugernes fortolkning af AI-systemets output, jf.
    artikel 13, stk. 3, litra d)
    DA 7 DA
    (f) hvis det er relevant, en detaljeret beskrivelse af på forhånd fastlagte ændringer
    af AI-systemet og dets ydeevne sammen med alle relevante oplysninger
    vedrørende de tekniske løsninger, der er valgt for at sikre, at AI-systemet til
    stadighed opfylder de relevante krav i afsnit III, kapitel 2
    (g) de anvendte validerings- og testprocedurer, herunder oplysninger om de
    anvendte validerings- og testdata og deres vigtigste karakteristika, parametre til
    måling af nøjagtighed, robusthed, cybersikkerhed og overholdelse af andre
    relevante krav i afsnit III, kapitel 2, herunder potentielt diskriminerende
    virkninger, samt testlogfiler og alle testrapporter, der er dateret og underskrevet
    af de ansvarlige personer, herunder med hensyn til forudbestemte ændringer
    som omhandlet i litra f)
    3. Detaljerede oplysninger om AI-systemets funktion, samt overvågning og kontrol,
    navnlig med hensyn til dets kapacitet og begrænsninger i ydeevne, herunder
    nøjagtighedsgraden for specifikke personer eller grupper af personer, som systemet
    er beregnet til at blive anvendt på, og det samlede forventede nøjagtighedsniveau i
    forhold til det tilsigtede formål, de forventede utilsigtede resultater og kilder til risici
    for sundhed og sikkerhed, grundlæggende rettigheder og forskelsbehandling i lyset af
    AI-systemets tilsigtede formål, foranstaltningerne til menneskeligt tilsyn i
    overensstemmelse med artikel 14, herunder de tekniske foranstaltninger, der er
    indført for at lette brugernes fortolkning af AI-systemets output, samt specifikationer
    for inputdata, hvis det er relevant
    4. en detaljeret beskrivelse af risikostyringssystemet i overensstemmelse med artikel 9
    5. en beskrivelse af eventuelle ændringer af systemet i løbet af dets livscyklus
    6. en liste over de helt eller delvis anvendte harmoniserede standarder, hvis referencer
    er offentliggjort i Den Europæiske Unions Tidende, samt, hvis disse harmoniserede
    standarder ikke er blevet anvendt, detaljerede beskrivelser af de løsninger, der er
    anvendt for at opfylde kravene, der er fastsat i afsnit III, kapitel 2, herunder en liste
    over andre relevante tekniske specifikationer, som er anvendt
    7. en kopi af EU-overensstemmelseserklæringen
    8. en detaljeret beskrivelse af det system, der er indført til evaluering af AI-systemets
    ydeevne, efter at systemet er bragt i omsætning, jf. artikel 61, herunder planen for
    overvågning efter omsætningen, jf. artikel 61, stk. 3.
    DA 8 DA
    BILAG V
    EU-OVERENSSTEMMELSESERKLÆRING
    EU-overensstemmelseserklæringen, jf. artikel 48, skal indeholde følgende oplysninger:
    1. AI-systemets navn, type og enhver yderligere entydig reference, der gør det muligt at
    identificere og spore AI-systemet
    2. udbyderens navn og adresse eller, hvis det er relevant, den autoriserede repræsentants
    navn og adresse
    3. en erklæring om, at EU-overensstemmelseserklæringen udstedes på udbyderens
    ansvar
    4. en erklæring om, at det pågældende AI-system er i overensstemmelse med denne
    forordning og eventuelt med al anden relevant EU-lovgivning, der fastsætter
    bestemmelser om udstedelse af en EU-overensstemmelseserklæring
    5. referencer til de relevante anvendte harmoniserede standarder eller referencer til
    anden fælles specifikation, som der erklæres overensstemmelse med
    6. hvis det er relevant, navnet og identifikationsnummeret på det bemyndigede organ,
    en beskrivelse af den gennemførte overensstemmelsesvurderingsprocedure og
    identifikation af det udstedte certifikat
    7. udstedelsessted og -dato for erklæringen, navn og stilling på den person, der har
    underskrevet den, samt en angivelse af, for hvem og på hvis vegne vedkommende
    har underskrevet, og underskrift.
    DA 9 DA
    BILAG VI
    PROCEDURER FOR OVERENSSTEMMELSESVURDERING BASERET PÅ
    INTERN KONTROL
    1. Proceduren for overensstemmelsesvurdering baseret på intern kontrol er
    overensstemmelsesvurderingsproceduren beskrevet i punkt 2-4
    2. Udbyderen kontrollerer, at det etablerede kvalitetsstyringssystem er i
    overensstemmelse med kravene i artikel 17.
    3. Udbyderen undersøger oplysningerne i den tekniske dokumentation med henblik på
    at vurdere, hvorvidt AI-systemet opfylder de relevante væsentlige krav i afsnit III,
    kapitel 2.
    4. Udbyderen kontrollerer også, at design- og udviklingsprocessen for AI-systemet og
    dets overvågning efter omsætningen, jf. artikel 61, er i overensstemmelse med den
    tekniske dokumentation.
    DA 10 DA
    BILAG VII
    OVERENSSTEMMELSE BASERET PÅ VURDERING AF
    KVALITETSSTYRINGSSYSTEMET OG PÅ VURDERING AF TEKNISK
    DOKUMENTATION
    1. Indledning
    Overensstemmelse baseret på vurdering af kvalitetsstyringssystemet og vurdering af
    den tekniske dokumentation er overensstemmelsesvurderingsproceduren beskrevet i
    punkt 2-5.
    2. Oversigt
    Det godkendte kvalitetsstyringssystem for udformning, udvikling og prøvning af AI-
    systemer i henhold til artikel 17 undersøges i overensstemmelse med punkt 3 og er
    underlagt den i punkt 5 omhandlede kontrol. AI-systemets tekniske dokumentation
    undersøges i overensstemmelse med punkt 4.
    3. Kvalitetsstyringssystem
    3.1. Udbyderens ansøgning skal omfatte:
    (a) udbyderens navn og adresse og desuden udbyderens bemyndigede
    repræsentants navn og adresse, hvis ansøgningen indgives af denne
    (b) listen over AI-systemer, der er omfattet af det samme kvalitetsstyringssystem
    (c) den tekniske dokumentation for hvert AI-system, der er omfattet af det samme
    kvalitetsstyringssystem
    (d) dokumentationen vedrørende kvalitetsstyringssystemet, som skal omfatte alle
    de aspekter, der er anført i artikel 17
    (e) en beskrivelse af de procedurer, der er indført for at sikre, at
    kvalitetsstyringssystemet fortsat vil fungere hensigtsmæssigt og effektivt
    (f) en skriftlig erklæring om, at samme ansøgning ikke er blevet indgivet til et
    andet bemyndiget organ.
    3.2. Det bemyndigede organ vurderer kvalitetsstyringssystemet for at fastslå, om det
    opfylder kravene i artikel 17.
    Afgørelsen meddeles udbyderen eller dennes bemyndigede repræsentant.
    Meddelelsen skal indeholde resultaterne af vurderingen af kvalitetsstyringssystemet
    og en begrundelse for afgørelsen.
    3.3. Det godkendte kvalitetsstyringssystem skal vedligeholdes af udbyderen, således at
    det forbliver hensigtsmæssigt og effektivt.
    3.4. Enhver påtænkt ændring af det godkendte kvalitetsstyringssystem eller listen over
    AI-systemer, der er omfattet af dette, skal af udbyderen meddeles det bemyndigede
    organ.
    Det bemyndigede organ vurderer de foreslåede ændringer og afgør, om det ændrede
    kvalitetsstyringssystem stadig opfylder de i punkt 3.2 omhandlede krav, eller om en
    fornyet vurdering er nødvendig.
    Det bemyndigede organ meddeler udbyderen sin afgørelse. Meddelelsen skal
    indeholde resultaterne af undersøgelsen af de foreslåede ændringer og en
    begrundelse for afgørelsen.
    DA 11 DA
    4. Kontrol af den tekniske dokumentation
    4.1. Ud over den i punkt 3 omhandlede ansøgning, skal udbyderen til det bemyndigede
    organ indsende en ansøgning om vurdering af den tekniske dokumentation
    vedrørende det AI-system, som denne agter at bringe i omsætning eller ibrugtage, og
    som er omfattet af det kvalitetsstyringssystem, der er omhandlet i punkt 3.
    4.2. Ansøgningen skal indeholde:
    (a) udbyderens navn og adresse
    (b) en skriftlig erklæring om, at samme ansøgning ikke er blevet indgivet til et
    andet bemyndiget organ
    (c) den i bilag IV omhandlede tekniske dokumentation.
    4.3. Den tekniske dokumentation vurderes af det bemyndigede organ. I forbindelse med
    deres arbejde skal det bemyndigede organ have fuld adgang til de trænings- og
    prøvningsdatasæt, der anvendes af udbyderen, herunder via
    programmeringsgrænseflader for applikationer ("API'er") eller andre passende midler
    og værktøjer, der muliggør fjernadgang.
    4.4. I forbindelse med vurderingen af den tekniske dokumentation kan det bemyndigede
    organ kræve, at udbyderen fremlægger yderligere dokumentation eller udfører
    yderligere prøvninger for at muliggøre en korrekt vurdering af AI-systemets
    overensstemmelse med kravene i afsnit III, kapitel 2. Hvis det bemyndigede organ
    ikke er tilfreds med de prøvninger, som udbyderen har foretaget, skal det
    bemyndigede organ selv foretage de nødvendige prøvninger direkte, hvis det er
    relevant.
    4.5. Hvis det er nødvendigt for at vurdere, om højrisiko-AI-systemet opfylder kravene i
    afsnit III, kapitel 2, skal det bemyndigede organ efter begrundet anmodning gives
    adgang til kildekoden for AI-systemet.
    4.6. Afgørelsen meddeles udbyderen eller dennes bemyndigede repræsentant.
    Meddelelsen skal indeholde resultaterne af vurderingen af den tekniske
    dokumentation og en begrundelse for afgørelsen.
    Hvis AI-systemet opfylder kravene i afsnit III, kapitel 2, udsteder det bemyndigede
    organ et EU-vurderingscertifikat for teknisk dokumentation. Certifikatet skal
    indeholde udbyderens navn og adresse, undersøgelseskonklusionerne, eventuelle
    betingelser for dets gyldighed og de nødvendige data til identifikation af AI-
    systemet.
    Certifikatet og bilagene hertil skal indeholde alle relevante oplysninger, der gør det
    muligt at vurdere AI-systemets opfyldelse af kravene, herunder, hvis det er relevant,
    kontrol under brug.
    Hvis AI-systemet ikke opfylder kravene i afsnit III, kapitel 2, afviser det
    bemyndigede organ at udstede et EU-vurderingscertifikat for teknisk dokumentation
    og oplyser ansøgeren herom og giver en detaljeret begrundelse for afslaget.
    Hvis AI-systemet ikke opfylder kravet vedrørende de data, der anvendes til at træne
    det, skal AI-systemet gentrænes, inden der ansøges om en ny
    overensstemmelsesvurdering. I dette tilfælde skal det bemyndigede organs
    begrundede afgørelse om afslag på udstedelse af et EU-vurderingscertifikat for
    teknisk dokumentation indeholde specifikke betragtninger om kvaliteten af de data,
    DA 12 DA
    der er anvendt til at træne AI-systemet, navnlig om årsagerne til, at systemet ikke
    opfylder kravene.
    4.7. Enhver ændring af AI-systemet, der kan påvirke AI-systemets opfyldelse af kravene
    eller systemets tilsigtede formål, skal godkendes af det bemyndigede organ, der
    udstedte EU-vurderingscertifikatet for teknisk dokumentation. Udbyderen skal
    underrette det bemyndigede organ om sin hensigt om at indføre nogen af ovennævnte
    ændringer, eller hvis denne på anden måde bliver opmærksom på forekomsten af
    sådanne ændringer. Det bemyndigede organ vurderer de påtænkte ændringer og
    afgør, om de påtænkte ændringer kræver en ny overensstemmelsesvurdering i
    henhold til artikel 43, stk. 4, eller om de kan behandles ved hjælp af et tillæg til EU-
    vurderingscertifikatet for teknisk dokumentation. I sidstnævnte tilfælde vurderer det
    bemyndigede organ ændringerne, underretter udbyderen om sin afgørelse og
    udsteder, såfremt ændringerne godkendes, et tillæg til EU-vurderingscertifikatet for
    teknisk dokumentation til udbyderen.
    5. Overvågning af det godkendte kvalitetsstyringssystem
    5.1. Formålet med det tilsyn, der udføres af det bemyndigede organ, der er omhandlet i
    punkt 3, er at sikre, at udbyderen behørigt opfylder vilkårene og betingelserne i det
    godkendte kvalitetsstyringssystem.
    5.2. Med henblik på vurdering skal udbyderen give det bemyndigede organ adgang til de
    lokaler, hvor udformningen, udviklingen og prøvningen af AI-systemerne finder
    sted. Udbyderen skal yderligere give det bemyndigede organ alle nødvendige
    oplysninger.
    5.3. Det bemyndigede organ aflægger jævnligt kontrolbesøg for at sikre, at udbyderen
    vedligeholder og anvender kvalitetsstyringssystemet, og det udsteder en
    kontrolrapport til udbyderen. I forbindelse med disse kontrolbesøg kan det
    bemyndigede organ foretage yderligere prøvninger af de AI-systemer, for hvilke der
    er udstedt et EU-vurderingscertifikat for teknisk dokumentation.
    DA 13 DA
    BILAG VIII
    OPLYSNINGER, DER SKAL INDSENDES VED REGISTRERING AF HØJRISIKO-
    AI-SYSTEMER, JF. ARTIKEL 51
    De følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til
    højrisiko-AI-systemer, der registreres i overensstemmelse med artikel 51.
    1. udbyderens navn, adresse og kontaktoplysninger
    2. hvis oplysninger forelægges af en anden person på vegne af udbyderen, denne
    persons navn, adresse og kontaktoplysninger
    3. den bemyndigede repræsentants navn, adresse og kontaktoplysninger, hvis det er
    relevant
    4. AI-systemets handelsnavn og enhver yderligere entydig reference, der gør det muligt
    at identificere og spore AI-systemet
    5. beskrivelse af det tilsigtede formål med AI-systemet
    6. AI-systemets status (i omsætning/i drift, ikke længere i omsætning/i drift,
    tilbagekaldt)
    7. type, nummer og udløbsdato for det certifikat, der er udstedt af det bemyndigede
    organ, samt navn eller identifikationsnummer på det pågældende bemyndigede
    organ, hvis det er relevant
    8. en scannet kopi af det i punkt 7 omhandlede certifikat, hvis det er relevant
    9. medlemsstater, hvor AI-systemet bringes i omsætning eller er bragt i omsætning,
    ibrugtages eller er taget i brug, gøres tilgængeligt eller er tilgængeligt i Unionen
    10. en kopi af den i artikel 48 omhandlede EU-overensstemmelseserklæring
    11. brugsanvisninger i elektronisk form, dog gives disse oplysninger ikke for højrisiko-
    AI-systemer inden for retshåndhævelse, migrationsstyring, asylforvaltning og
    grænsekontrol som omhandlet i bilag III, punkt 1, 6 og 7
    12. URL for yderligere oplysninger (valgfrit).
    DA 14 DA
    BILAG IX
    EU-LOVGIVNING OM STORE IT-SYSTEMER INDEN FOR OMRÅDET MED
    FRIHED, SIKKERHED OG RETFÆRDIGHED
    1. Schengeninformationssystemet
    (a) Europa-Parlamentets og Rådets forordning (EU) 2018/1860 af 28. november
    2018 om brug af Schengeninformationssystemet i forbindelse med
    tilbagesendelse af tredjelandsstatsborgere med ulovligt ophold (EUT L 312 af
    7.12.2018, s. 1)
    (b) Europa-Parlamentets og Rådets forordning (EU) 2018/1861 af 28. november
    2018 om oprettelse, drift og brug af Schengeninformationssystemet (SIS) på
    området ind- og udrejsekontrol, om ændring af konventionen om
    gennemførelse af Schengenaftalen og om ændring og ophævelse af forordning
    (EF) nr. 1987/2006 (EUT L 312 af 7.12.2018, s. 14)
    (c) Europa-Parlamentets og Rådets forordning (EU) 2018/1862 af 28. november
    2018 om oprettelse, drift og brug af Schengeninformationssystemet (SIS) på
    området politisamarbejde og strafferetligt samarbejde, om ændring og
    ophævelse af Rådets afgørelse 2007/533/RIA og om ophævelse af Europa-
    Parlamentets og Rådets forordning (EF) nr. 1986/2006 og Kommissionens
    afgørelse 2010/261/EU (EUT L 312 af 7.12.2018, s. 56).
    2. Visuminformationssystemet
    (a) Forslag til EUROPA-PARLAMENTETS OG RÅDETS FORORDNING om
    ændring af forordning (EF) nr. 767/2008, forordning (EF) nr. 810/2009,
    forordning (EU) 2017/2226, forordning (EU) 2016/399, forordning XX/2018
    [forordningen om interoperabilitet] og beslutning 2004/512/EF og om
    ophævelse af Rådets afgørelse 2008/633/RIA — COM(2018) 302 final.
    Ajourføres, når forordningen er vedtaget (april/maj 2021) af medlovgiverne.
    3. Eurodac
    (a) Ændret forslag til EUROPA-PARLAMENTETS OG RÅDETS
    FORORDNING om oprettelse af "Eurodac" til sammenligning af biometriske
    oplysninger med henblik på en effektiv anvendelse af forordning (EU)
    XXX/XXX [forordningen om asylforvaltning og migrationsstyring] og
    forordning (EU) XXX/XXX [genbosætningsforordningen], identificering af en
    tredjelandsstatsborger eller en statsløs person med ulovligt ophold og om
    medlemsstaternes retshåndhævende myndigheders og Europols adgang til at
    indgive anmodning om sammenligning med Eurodacoplysninger med henblik
    på retshåndhævelse og om ændring af forordning (EU) 2018/1240 og (EU)
    2019/818 — COM(2020) 614 final.
    4. Ind- og udrejsesystemet
    (a) Europa-Parlamentets og Rådets forordning (EU) 2017/2226 af 30. november
    2017 om oprettelse af et ind- og udrejsesystem til registrering af ind- og
    udrejseoplysninger og oplysninger om nægtelse af indrejse vedrørende
    tredjelandsstatsborgere, der passerer medlemsstaternes ydre grænser, om
    fastlæggelse af betingelserne for adgang til ind- og udrejsesystemet til
    retshåndhævelsesformål og om ændring af konventionen om gennemførelse af
    Schengenaftalen og forordning (EF) nr. 767/2008 og (EU) nr. 1077/2011 (EUT
    L 327 af 9.12.2017, s. 20).
    DA 15 DA
    5. Det europæiske system vedrørende rejseinformation og rejsetilladelse
    (a) Europa-Parlamentets og Rådets forordning (EU) 2018/1240 af 12. september
    2018 om oprettelse af et europæisk system vedrørende rejseinformation og
    rejsetilladelse (ETIAS) og om ændring af forordning (EU) nr. 1077/2011, (EU)
    nr. 515/2014, (EU) 2016/399, (EU) 2016/1624 og (EU) 2017/2226 (EUT L 236
    af 19.9.2018, s. 1)
    (b) Europa-Parlamentets og Rådets forordning (EU) 2018/1241 af 12. september
    2018 om ændring af forordning (EU) 2016/794 med henblik på oprettelse af et
    europæisk system vedrørende rejseinformation og rejsetilladelse (ETIAS)
    (EUT L 236 af 19.9.2018, s. 72).
    6. Det europæiske informationssystem vedrørende strafferegistre for statsborgere i
    tredjelande og statsløse
    (a) Europa-Parlamentets og Rådets forordning (EU) 2019/816 af 17. april 2019 om
    oprettelse af et centralt system til bestemmelse af, hvilke medlemsstater der
    ligger inde med oplysninger om straffedomme afsagt over
    tredjelandsstatsborgere og statsløse personer (ECRIS-TCN) for at supplere det
    europæiske informationssystem vedrørende strafferegistre, og om ændring af
    forordning (EU) 2018/1726 (EUT L 135 af 22.5.2019, s. 1).
    7. Interoperabilitet
    (a) Europa-Parlamentets og Rådets forordning (EU) 2019/817 af 20. maj 2019 om
    fastsættelse af en ramme for interoperabilitet mellem EU-informationssystemer
    vedrørende grænser og visum (EUT L 135 af 22.5.2019, s. 27)
    (b) Europa-Parlamentets og Rådets forordning (EU) 2019/818 af 20. maj 2019 om
    fastsættelse af en ramme for interoperabilitet mellem EU-informationssystemer
    vedrørende politisamarbejde og retligt samarbejde, asyl og migration
    (EUT L 135 af 22.5.2019, s. 85).
    DA 16 DA