Az Európai Parlament és Tanács mesterséges intelligenciáról szóló rendelete[1](a továbbiakban: AI Act) viszonylag atipikus módon, szakaszokban lép hatályba[2]. Legutolsó ilyen dátum, amikor egy szakasz hatályba lépett, 2025. augusztus 2. napján volt, melynek keretében megtörtént a 4. cikk, azaz az MI-jártasság hatályba lépése. De miről is szól pontosan ez a cikk? Hogyan kellene megfelelni az új szabályoknak? – Jelen írásunkban ezt a témát járjuk körül.

Maga a bevezetőben említett AI Act 4. cikk, így szól:

„Az MI-rendszerek szolgáltatói és alkalmazói intézkedéseket hoznak annak érdekében, hogy a tőlük telhető legnagyobb mértékben biztosítsák személyzetük, valamint a nevükben az MI-rendszerek működtetésével és használatával foglalkozó bármely más személy mesterséges intelligencia terén szerzett megfelelő szintű MI-jártasságát, figyelembe véve szakmai ismereteiket, tapasztalatukat, végzettségüket és képzettségüket, valamint azon körülményeket, amelyek között az MI-rendszereket használni fogják, és figyelembe véve azon személyeket vagy azon személyek csoportjait, akik tekintetében az MI-rendszereket használni fogják.”

Mint azt láthatjuk, a jogszabályhely nem tartalmaz túl sok konkrétumot azon kívül, hogy a szolgáltatók és alkalmazók felelőssége az MI-jártasság terén gyakorlatilag bárkire kiterjed, aki a szervezetükön belül MI-rendszereket használ. Nem olvasható ki, hogy pontosan milyen intézkedéseket (pl. e-learning, oktatótermi képzés vagy esetleg rendszeres tájékoztató e-mailek stb.) kellene eszközölni az AI Act-nek való megfelelést. Még szubjektívebbé teszi a dolgot, hogy figyelembe kell venni a célcsoport egyéni paramétereit lásd: szakmai ismeret, tapasztalat, végzettség képzettség, MI használat körülményei. Ezekben hatalmas lehet a szórás az egyes szervezetek között, sőt az egyes szervezeteken belül is!

Azonban, ha optimistán állunk hozzá, nézhetjük onnan is, hogy a jogszabály teret enged a kreativitásnak és az egyedi, személyre szabott megoldásoknak. Első lépésnek akár felhasználhatjuk az Európai Bizottság által kiadott példatárat[3], ahol legkülönfélébb iparágban tevékenykedő és méretű szervezetek megoldásaiból szemezgethetünk.

Még a legjobb példák ellenére is ki kell jelölnünk néhány sarokpontot, aminek feltétlenül része kell, hogy legyen az MI-jártasság megfelelésnek, ami praktikusan – formájától függetlenül – valamiféle oktatási anyagban fog realizálódni.

Kezdjük rögtön azzal, hogy elmagyarázzuk, mi az az MI-rendszer és ez alatt nem csak az AI Act. 3. cikk 1. bekezdésének[4] ismertetését értjük, hanem inkább azt, hogy ezt a fogalmat minél egyszerűbben és gyakorlatiasabban magyarázzuk meg. Ezen a gondolatmeneten tovább haladva mindenképpen érdemes különválasztani, mi számít „sima” mesterséges intelligenciának és mi generatív mesterséges intelligenciának. Ez már csak azért is nagyon hasznos és érdekes tud lenni, mivel az emberek többsége a mesterséges intelligenciát utóbbival azonosítja (pl. ChatGPT, Microsoft Copilot, Gemini) és nem is gondolja, hogy egy sor mesterséges intelligencia alapú szoftver már régen a mindennapi életükhöz tartozott, mint például a spamszűrő vagy a szövegszerkesztésre alkalmas szoftverekben a szövegpredikciós megoldások, hogy csak a leghétköznapiabbakra térjünk ki.

Nincs MI-rendszer adat nélkül, ezért magyarázzunk meg néhány ezzel kapcsolatos fogalmat. Ez segíthet az MI-rendszerek működésének jobb megértésében, mély, technológiai részletek ismertetése nélkül is. Nem kell elveszni a részletekben, elég, ha a célközönség tudja, mi az a tanítóadat[5], tesztadat[6], bemeneti adat[7], személyes adat[8] és mik a személyes adatok különleges kategóriái[9]. A sor természetesen igény szerint bővíthető.

Mivel a szervezet egy MI-rendszertől a legtöbb esetben a hatékonyság növekedését várja, ezért érdemes gyakorlatias példákon keresztül bemutatni, hogy mire lehet használni a mindennapi munkavégzés során a szervezetnél használt MI-rendszereket. Ez természetesen nagyban függhet a szervezet tevékenységétől, méretétől és a rendelkezésre álló humán erőforrástól is. Viszont, ha már említésre kerültek fentebb a különböző generatív mesterséges intelligenciák, érdemes tippeket, trükköket mutatni a promptoláshoz, mint például a RAG modell[10] bemutatása vagy a szerepbe helyezés. [11]

Amennyiben az adott szervezet rendelkezik mesterséges intelligencia stratégiával, szabályozással bármilyen formában, akkor szükségszerű annak tömör és közérthető bemutatása. Ha nincsenek ilyenek, akkor is érdemes felhívni a figyelmet bizonyos MI-rendszerek használatával összefüggő kockázatokra. Magyarázzuk el, miért veszélyes a Shadow AI[12] és a deepfake, mik azok a dokumentumok, amiket nem szabad MI-rendszerbe feltölteni, bevinni vagy akár tanítóadatként használni.

További elengedhetetlen kérdés az MI-vel végzett munkavégzés, az azzal előállított produktumokért való személyi felelősség kérdése, amit mindenképpen érdemes röviden és egyértelműen tisztázni.

Végezetül mindenképpen adjunk tájékoztatást arról, hogy ha valaki elakad, nem ért valamit az MI-rendszerek használata során, akkor a szervezeten belül hol, kitől tud segítséget kérni.

Az AI Act 4. cikkének való megfelelés nem csupán jogszabályi megfelelést jelent, hanem egy újfajta felelősségvállalást is a mesterséges intelligencia használatában.

Egy új technológia semmit nem ér, ha a rendelkezésünkre álló humánerőforrás nem érti annak működését és nem tudja megfelelően használni azt, tehát a jogi kötelezettségnek való elégtételen túl az AI Act e rendelkezésének betartása nagyon is hozzájárul a mindennapi munka hatékonyabbá tételéhez.


[1] AI Act – AZ EURÓPAI PARLAMENT ÉS A TANÁCS 2024. június 13-i (EU) 2024/1689 RENDELETE a mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról, valamint a 300/2008/EK, a 167/2013/EU, a 168/2013/EU, az (EU) 2018/858, az (EU) 2018/1139 és az (EU) 2019/2144 rendelet, továbbá a 2014/90/EU, az (EU) 2016/797 és az (EU) 2020/1828 irányelv módosításáról (a mesterséges intelligenciáról szóló rendelet) – Hatályos Jogszabályok Gyűjteménye

[2] Implementation Timeline | EU Artificial Intelligence Act

[3] Living repository to foster learning and exchange on AI literacy | Shaping Europe’s digital future

[4] „MI-rendszer”: gépi alapú rendszer, amelyet különböző autonómiaszinteken történő működésre terveztek, és amely a bevezetését követően alkalmazkodóképességet tanúsíthat, és amely a kapott bemenetből – explicit vagy implicit célok érdekében – kikövetkezteti, miként generáljon olyan kimeneteket, mint például előrejelzéseket, tartalmakat, ajánlásokat vagy döntéseket, amelyek befolyásolhatják a fizikai vagy a virtuális környezetet;

[5] „tanítóadatok”: olyan adatok, amelyeket egy MI-rendszernek a megtanulható paramétereinek illesztése révén történő tanítására használnak.

[6]„tesztadatok” az MI-rendszer független értékelésének nyújtásához használt adatok az említett rendszer elvárt teljesítményének a forgalomba hozatala vagy az üzembe helyezése előtti megerősítése érdekében;

[7] „bemeneti adatok”: valamely MI-rendszer számára szolgáltatott vagy általa közvetlenül megszerzett adatok, amelyek alapján a rendszer a kimenetet előállítja;

[8] „személyes adat”: azonosított vagy azonosítható természetes személyre („érintett”) vonatkozó bármely információ; azonosítható az a természetes személy, aki közvetlen vagy közvetett módon, különösen valamely azonosító, például név, szám, helymeghatározó adat, online azonosító vagy a természetes személy testi, fiziológiai, genetikai, szellemi, gazdasági, kulturális vagy szociális azonosságára vonatkozó egy vagy több tényező alapján azonosítható;

[9] „a személyes adatok különleges kategóriái”: az (EU) 2016/679 rendelet 9. cikkének (1) bekezdésében, az (EU) 2016/680 irányelv 10. cikkében és az (EU) 2018/1725 rendelet 10. cikkének (1) bekezdésében meghatározott személyesadat-kategóriák;

[10] Retrieval-Augmented Generation: célja az információ pontosságának és relevanciájának növelése. A RAG-ban a rendszer lekédezi a releváns dokumentumokat vagy adatokat egy (vagy több) külső adatforrásból, és felhasználja ezeket a generálási folyamat során, Ezzel kontextuálisan gazdagabb és tényszerűen megalapozottabb kimeneteket állíthat elő.

[11] Amikor megadjuk egy generatív mesterséges intelligenciának, hogy kinek a stílusában „szólaljon meg”(pl. tanítónéni, aki általános iskolásoknak magyaráz vagy egy téma szakértője, aki szakmai közönségnek magyaráz).

[12] Olyan mesterséges intelligencia eszközök és platformok szervezeten belüli jogosulatlan alkalmazását jelenti, amelyek nincsenek az IT vagy a megfelelőségi osztály felügyelete alatt.