Jelen cikkünkben a korábbi, ITT OLVASHATÓ cikkünk folytatásaként bemutatjuk az Európai Bizottság által 2021-ben közzétett, a mesterséges intelligenciára vonatkozó harmonizált szabályok (A mesterséges intelligenciáról szóló jogszabály, „AI Act”) megállapításáról és egyes uniós jogalkotási aktusok módosításáról szóló rendelet-tervezetének az Európai Parlamentben 2023. május 11-én, az IMCO&LIBE együttes bizottsági ülés alkalmával a bizottságok elfogadott kompromisszumos szövegjavaslatát.

Jelen cikkünkben folytatjuk a parlamenti kompromisszumos szövegjavaslatban foglalt leglényegesebb módosítások bemutatását, mint a tiltott és magas kockázatú MI-re vonatkozó új javaslatok, és az MI fejlesztési és felhasználási lánc szereplőire telepített új kötelezettségeket.

Magyarázat a táblázat olvasásához:

  • normál szöveg: Parlament által a Bizottság tervezetéhez képest nem módosított szöveg
  • kiemelt szöveg: Parlament által újonnan beillesztett szövegjavaslat
  • áthúzott szöveg: Bizottság tervezetében szereplő, Parlament által törölt szöveg
Szabályozási tárgykör / magyarázat AI Act Parlament által elfogadott kompromisszumos javaslata (szó szerint idézve) Cikk száma Oldalszám a PDF-ben
Tiltott MI gyakorlatok
Biometrikus azonosító szoftverekre („biometric identification”) vonatkozó tilalom kiterjesztése. Az 5. cikk eredetileg csak a valós idejű használatot tiltotta, a politikai megállapodás szerint viszont az ex-post felhasználás is korlátozott lesz: utólag csak súlyos bűncselekmények esetén és kizárólag előzetes bírósági jóváhagyással lehetett használni (kumulatív feltételek).

 

Ez alapján egyelőre úgy tűnik, hogy az uniós jogalkotó a tilalmat a magánszektorbeli alkalmazásra is kiterjesztené.

(d) the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces. for the purpose of law enforcement, unless and in as far as such use is strictly necessary for one of the following objectives: 130 (i) the targeted search for specific potential victims of crime, including missing children; (ii) the prevention of a specific, substantial and imminent threat to the life or physical safety of natural persons or of a terrorist attack; (iii) the detection, localisation, identification or prosecution of a perpetrator or suspect of a criminal offence referred to in Article 2(2) of Council Framework Decision 2002/584/JHA62 and punishable in the Member State concerned by a custodial sentence or a detention order for a maximum period of at least three years, as determined by the law of that Member State. 5. cikk (1) bek. (d) 129-130. o.
(e) the putting into service or use of AI systems for the analysis of recorded footage of publicly accessible spaces through ‘post’ remote biometric identification systems, unless they are subject to a pre-judicial authorisation in accordance with Union law and strictly necessary for the targeted search connected to a specific serious criminal offense as defined in Article 83(1) of TFEU that already took place for the purpose of law enforcement. 5. cikk (1) bek. (e)

 

 

131. o.
Az érzelemfelismerő MI használata tilos a bűnüldözés, a határigazgatás /határrendészet, a munkahelyek és az oktatás területén (dc) the placing on the market, putting into service or use of AI systems to infer

emotions of a natural person in the areas of law enforcement, border

management, in workplace and education institutions.

5. cikk (1) bek. (dc) 128. o.
Magas kockázatú MI-rendszerek
II. és III. Melléklet magas kockázatú MI besorolás

Különösen: 6. cikk (2) bek. a III. Mellékletben felsorolt felhasználási esetekre:

Egy további szint került be a magas kockázatú MI kategória feltételeként, ami azt jelenti, hogy a III. melléklet kategóriái alá tartozó mesterséges intelligenciamodell csak akkor minősül magas kockázatúnak, ha az egészségre, biztonságra vagy alapvető jogokra nézve jelentős veszélyt jelent

 

 

 

Classification rules for high-risk AI systems

1. Irrespective of whether an AI system is placed on the market or put into service independently from the products referred to in points (a) and (b), that AI system shall be considered high-risk where both of the following conditions are fulfilled:

(a) the AI system is intended to be used as a safety component of a product or the AI system is itself a product, covered by the Union harmonisation legislation listed in Annex II,

(b) the product whose safety component pursuant to point (a) is the AI system, or the AI system itself as a product, is required to undergo a third-party conformity assessment related to risks for health and safety, with a view to the placing on the market or putting into service of that product pursuant to the Union harmonisation legislation listed in Annex II.

2. In addition to the high-risk AI systems referred to in paragraph 1, AI systems falling under one or more of the critical areas and use cases referred to in Annex III shall be considered high-risk if they pose a significant risk of harm to the health, safety or fundamental rights of natural persons. Where an AI system falls under Annex III point 2, it shall be considered high-risk if it poses a significant risk of harm to the environment.

The Commission shall, 6 months prior to the entry into force of this Regulation, following consultation with the AI Office and relevant stakeholders, provide guidelines clearly specifying the circumstances where the output of AI systems referred to in Annex III would pose a significant risk of harm to the health, safety or fundamental rights of natural persons or cases in which it would not.

 

2a. Where providers falling under one or more of the critical areas and use cases referred to in Annex III consider that their AI system does not pose a significant risk as described in paragraph 2, they shall submit a reasoned notification to the National 118 Supervisory Authority that they are not subject to the requirements of Title III Chapter 2 of this Regulation. Where the AI system is intended to be used in two or more Member States, the aforementioned notification shall be addressed to the AI Office. Without prejudice to Article 65, the National Supervisory Authority shall review and reply, directly or via the AI Office, within 3 months if they deem the AI system to be misclassified.

6. cikk (1)-(2) bek. 117-118. o.
DSA nagyon nagy online platformok („very large online platforms”, „VLOP”) által használt ajánlórendszer, ha közösségi média használja AI systems intended to be used by social media platforms that have been designated as very large online platforms within the meaning of Article 33 of Regulation EU 2022/2065, in their recommender systems to recommend to the recipient of the service user-generated content available on the platform. III. Melléklet 8. pont (ab) 125. o.
Kötelezettségek kizárólag a “deployer” számára magas kockázatú MI rendszer esetén 1. Deployers of high-risk AI systems shall take appropriate technical and organisational measures to ensure they use such systems in accordance with the instructions of use accompanying the systems, pursuant to paragraphs 2 and 5 of this Article.

1a. To the extent deployers exercise control over the high-risk AI system, they shall

        i.            implement human oversight according to the requirements laid down in this Regulation

      ii.             ensure that the natural persons assigned to ensure human oversight of the high-risk AI systems are competent, properly qualified and trained, and have the necessary resources in order to ensure the effective supervision of the AI system in accordance with Article 14

iii.            ensure that relevant and appropriate robustness and cybersecurity measures are regularly monitored for effectiveness and are regularly adjusted or updated.

(…)

6a. Without prejudice to Article 52, deployers of high-risk AI systems referred to in Annex III, which make decisions or assist in making decisions related to natural persons, shall inform the natural persons that they are subject to the use of the high-risk AI system. This information shall include the intended purpose and the type of decisions it makes.

29. cikk 42. o.
Alapjogi hatásvizsgálat („Fundamental rights impact assessment”, „FRIA”) – A FRIA elvégzésére a “deployer” köteles, és minden olyan magas kockázatú MI rendszer esetén el kell végezni, amely a III. Melléklet alapján magas kockázatú, kivéve a kritikus infrastruktúra üzemeltetéssel kapcsolatos MI esetén (III. Melléklet 2. pont) Fundamental rights impact assessment for high-risk AI systems

1. Prior to putting a high-risk AI system as defined in Article 6(2) into use, with the exception of AI systems intended to be used in area 2 of Annex III, deployers shall conduct an assessment of the systems’ impact in the specific context of use. This assessment shall include, at a minimum, the following elements: (…)

29a. cikk (1) – (6) bek. 42-44. o.
Bírság
(3) Tiltott MI rendszerek használata:

40 millió euró vagy éves nettó árbevétel 7 %-a

 

 

 

 

(3a) 10. cikk (Data and data governance) és 13. cikk (Transparency and provision of information to users) megsértése esetén:

20 millió euró vagy éves nettó árbevétel 4 %-a

 

(4) Foundation model-re vonatkozóan (ideértve a generatív MI-t is)

–          5. cikk (tiltott MI rendszerek)

–          10. cikk

–          13. cikk

megsértése esetén

10 millió euró vagy éves nettó árbevétel 2 %-a.

 

Ez a bírságstruktúra elméletileg azt jelenti, hogy a (4) bekezdés lex specialis a (3) és (3a) bekezdésekhez képest a „foundation model”-re, amelyre minden esetben egyöntetűen a 10 millió euró vagy az éves nettó árbevétel 2 %-a bírságküszöb alkalmazandó.

3. Non-compliance with the prohibition of the artificial intelligence practices referred to in Article 5 shall be subject to administrative fines of up to 40 000 000 EUR or, if the offender is a company, up to 7 % of its total worldwide annual turnover for the preceding financial year, whichever is higher;

 

3a. Non-compliance of the AI system with the requirements laid down in Article 10 and 13 shall be subject to administrative fines of up to 20 000 000 EUR or, if the offender is a company, up to 4% of its total worldwide annual turnover for the preceding financial year, whichever is the higher

 

4. Non-compliance of AI system or foundation model with any requirements or obligations under this Regulation, other than those laid down in Articles 5, and 10 and 13, shall be subject to administrative fines of up to 10 000 000 EUR or, if the offender is a company, up to 2% of its total worldwide annual turnover for the preceding financial year, whichever is higher

71. cikk (3) – (4) bek.

 

75. o.

 

 

Következő lépések

Az ICMO-LIBE bizottságok által elfogadott kompromisszumos szövegjavaslatot a Parlament formálisan várhatóan a következő, júniusban esedékes plenáris ülésén fogadja el. Ezzel, hogy mind a Tanács, mind a Parlament által elkészített kompromisszumos szövegjavaslat elfogadásra kerül, a jogalkotási eljárás a következő szakaszba, az ún. trilógus („trilogue”) eljárásba, azaz a háromszervi egyeztetés szakaszába léphet. A trilógus eljárásan a Bizottság mediátori szerepben igyekszik elősegíteni a tanácsi és a parlamenti álláspontok közelítését, amelynek végeredménye az AI Act elfogadása lesz.