A mesterséges intelligencia (AI) utóbbi években megfigyelhető lendületes fejlődése új szakaszba lépett, és egyre nyilvánvalóbbá válik, hogy a generatív AI modellek (pl.: ChatGPT) után az ágens‑alapú (agentic) megközelítés jelenti a következő nagy ugrást. Az AI agentek iránti érdeklődés továbbra is dinamikusan nő, vezető vállalatok világszinten sikeresen lezárták bevezető (pilot) programjaikat, és megkezdték az új technológia fokozatos integrálását a mindennapi vállalati működésbe. Az ágens-alapú AI (agentic AI) szinte kimeríthetetlen eszköztára, fejlett alkalmazkodóképessége, és számtalan – később részletesen bemutatott – további adottsága egyedülálló hatékonyságnöveléshez vezethet, mindazonáltal továbbra is kiemelt figyelmet kell fordítani különböző jogi és kockázatkezelési aspektusokra.

Mi az agentic AI?

Az agentic AI általában nagy nyelvi modellekre (LLM) épül, azonban átlépi a klasszikus „kérdés-válasz” funkció határait, és a megvalósítás keretében többek között külső rendszerekkel lép interakcióba, valós műveleteket végez, önállóan tervez és újratervez.

Az ágens-alapú AI fő működési jellegzetességei:

Interakció külső rendszerekkel

Az AIagent-ek egyik meghatározó tulajdonsága, hogy kapcsolódnak külső rendszerekhez, lehetővé téve számukra, hogy meghatározott adatbázisokhoz és forrásokhoz – ideértve az IoT-t is– férjenek hozzá, valós idejű információt kérjenek le, illetve autonóm módon döntsenek arról, mely csatlakoztatott külső rendszereket, így adatbázisokat, applikációkat, API-kat használják céljaik elérése érdekében. Funkció és eszköz körében olyan külső képességeket értünk, mint például API-k (alkalmazásprogramozási felületek), adatbázisok, alkalmazások vagy szolgáltatások, amelyeket az AI agent bevonhat egy adott feladat elvégzésébe, ezzel túllépve a modell alapértelmezett képességein.

Tervezés és végrehajtás

Az AI agent-ek a felhasználói kéréseket értelmezik és értékelik, és egy tervezési folyamatban meghatározzák a kérés teljesítéséhez szükséges lépéseket, azokat feladatokra és részfeladatokra osztják, majd ezeket önállóan végre is hajtják. Szükség esetén képesek arra is, hogy az eredeti kérést és feladatot újraértékeljék és a lépéseken, részfeladatokon ennek megfelelően módosítsanak.

Memória és „önreflexió” 

Az AI agent-ek abban is különböznek a nem agentic AI-tól, hogy jelentős rövid- és hosszútávú memóriával rendelkeznek, amely lehetővé teszi, hogy múltbéli interakciókat, előző lépéseket megjegyezzenek és emlékezzenek egy adott kontextusra. A gyakorlatban ez azt jelenti például, hogy ha egy AI agent az első lépésben már lekért bizonyos termékadatokat, akkor a második lépésben ezeket az információkat tudja használni ahelyett, hogy meg kellene ismételnie az első lépést és újra lekérdezné azokat.

Az AI-agent-ek javítják saját tudásbázisukat az új információkkal és idővel módosítják viselkedésüket is.

Hol lehet jól használni az AI agent-eket?

Az agentic AI elsősorban olyan helyzetekben képvisel kiemelkedő értéket, ahol sokrétű adatfelhasználással kell több lépésből álló összetett döntéseket hozni és műveleteket végrehajtani.

Az AI agent-ek jellegüknél fogva képesek alkalmazkodni a különböző feladattípusokhoz, amit az alábbi iparági példák is illusztrálnak:

  • IT szolgáltatásokban gyakran használnak AI agent-eket tesztelésre és hasonló rutinszerű feladatok automatizálására, bemenet-kimenet biztonsági ellenőrzésre, programozási feladatok ellátására.
  • A kereskedelemben gyakran alkalmazzák az AI agent-eket példáulfejlesztési akciótervek kidolgozására, és létrehoznak AI asszisztenseket az e‑kereskedelemben  elemzésre, személyre szabott vásárlótámogató, készlet- és rendeléskezelő, illetve vásárlást követő ügyféltámogatási feladatokra..
  • A pénzügyi szektorban tipikus AI agent feladat a dinamikus árazás (például biztosítás), csalásmegelőzés és -kezelési feladatok ellátása, hitelbírálat és döntéstámogatás, KYC/AML-folyamatok automatizálása
  • Az egészségügyben gyakori AI agent-ek alkalmazása személyre szabott diagnosztika és kezelési javaslatok adásában.

A fenti példákban közös, hogy az AI nem elszigetelten, hanem vállalati rendszerekbe és külső szolgáltatásokba ágyazva, továbbá az adott szektor és a konkrét rendeltetési kontextushoz igazodva funkcionál.

AI agent-eket érintő speciális kihívások

Az AI-ágensek rendkívüli fejlettségi szintje, valamint azon képességük, hogy összetett feladatokat autonóm módon lássanak el, továbbá, hogy külső rendszereket is vonjanak be a feladatmegoldásba, a jelentős hatékonyságnövelés mellett számos jogi és működési kockázatot is jelent.

Az agentic AI egyik kulcs jellemzője a külső adatbázisokhoz és egyéb rendszerekhez, ezáltal pedig többek között valós idejű információhoz való hozzáférés képessége. A túl sok adathalmaz és forrás azonban túlterhelheti az AI agent-et, és összezavarhatja a döntéshozatalt. További kihívást jelenthetnek az API-k módosításai, frissítései, amelyek inkompatibilitáshoz vezethetnek és meggátolhatják lényeges információk hozzáférhetőségét, és az, hogy standardizált plug-and-play típusú API kapcsolatok nélkül minden API-hoz való csatlakozáshoz egyedi fejlesztés lenne szükséges. Ez a nehézség kiküszöbölhető olyan API kapcsolódási standardokkal, mint a Model Context Protocol (MCP), az Agent‑to‑Agent Protocol és az MIT NANDA projekt.

Biztonsági és kontroll szempontból fontos kockázat a „hallucináció”, ami megjelenhet utasítások hallucinálásában is, szélsőséges esetben például az AI agent hallucinálhat az adatbázisok törlésére vonatkozó utasítást is, amelyet végre is hajt önállóan (megtörtént eset). Az AI agent-ek magas szintű autonómiája eredményeként az is előfordulhat, hogy az AI agent szenzitív információkat fed fel. Az esetleges kockázatokat fokozza az AI agent-nek adott túl széleskörű hozzáférés a külső adatbázisokhoz, forrásokhoz.

Az úgynevezett multi-agent rendszerek (MAS), azaz a több önállóan eljáró AI-agent-ből álló, ugyanakkor a felhasználói kérések megértése, a döntéshozatal, és a feladatok végrehajtása érdekében egymással együttműködő rendszerek esetén mindenekelőtt koordinációs és irányítási kérdések merülnek fel, így többek között, hogy melyik AI agent irányítsa és koordinálja a többi agent-et, továbbá, hogy miként kerülhető el a körkörös kommunikáció és hogyan biztosítható a konzisztens döntéshozatal.

Adatvédelmi kihívások

Az agentic AI működése rendszeresen együtt jár személyes adatok kezelésével, így

az adatkezelésnek kötelezően meg kell felelnie a vonatkozó adatvédelmi jogszabályoknak.

Az AI agentek többféle külső és belső adatforráshoz való hozzáférése túlzott adathozzáférést és adatgyűjtést okozhat, amely miatt kihívás lehet a GDPR szerinti „adattakarékosság” elvének való megfelelés.

Ha az AI agent automatizált döntéshozatallal jár együtt, akkor biztosítani kell az emberi beavatkozást és felülvizsgálatot a GDPR előírásai szerint, továbbá profilalkotás esetén gondoskodni kell a részrehajló döntések megelőzéséről.

Az AI agentek forrásigénye és tipikus felhasználási esetkörei alapján az anonimizált vagy szintetikus adatkészletek önmagukban nem feltétlenül felelnek meg az ágens-alapú AI szükségleteinek, ezért agentic modellben az adatvédelmi kockázatok mérséklésére az ilyen típusú adatkészletek nem feltétlenül alkalmasak. További adatvédelmi kihívást jelent, hogy a sokféle adatforrás miatt agentic AI esetében nagyobb a kockázata annak, hogy a korábban anonimizált vagy álnevesített adatok visszakövethetővé válnak.

Egyéb jogi és felelősségi kockázatok

Az adatvédelmi kihívásokon túl az agentic AI számos további jogi kockázatot vet fel. Így például, ha az AI agent-nek sokkal több eszközt és képességet adunk, mint amennyire ténylegesen szüksége van a feladatai elvégzésére (túlzott funkcionalitás), vagy engedélyezzük, hogy emberi felügyelet vagy jóváhagyás nélkül hajtson végre kritikus műveleteket (túlzott autonómia), vagy az AI agent a szükségesnél magasabb szintű hozzáféréseket kap rendszerekhez, adatbázisokhoz (túlzott jogosultságpéldául írási jog olvasási jog helyett vagy admin jog user jog helyett), akkor exponenciálisan nő annak a kockázata, hogy az AI agent kritikus infrastruktúrát vagy éles adatokat módosít, adatbázisokat vagy könyvtárakat töröl, vagy éppen visszafordíthatatlan döntéseket hoz saját értelmezése alapján.

Multi-agent rendszerek (MAS) esetében jelentős a rendszerszintű kockázatoknak való kitettség, illetve a felelősség megállapítása és a kontrollok allokálása is rendkívül összetett kérdés. Mindezek mellett a komplex, rétegzett döntéshozatal átláthatósági kihívásokat támaszt, a több forráson és eszközön átívelő működés pedig egyúttal növeli a támadások esélyét is. Az igénybe vett külső eszközök és adatbázisok egyben függőségi viszonyt is kialakítanak, mivel az agent-ek ezen ellátási láncoktól való technológiai és infrastrukturális kitettsége fokozott sérülékenységet és kiszolgáltatottságot eredményez.

A jogi kockázatok mérséklése

A felvázolt jogi kockázatokat alapvetően technikai, szabályozási intézkedésekkel lehet csökkenti:

  • korlátozott, a feladathoz igazodó, arányos, minimális hozzáférési jogosultsági szintekkel;
  • a feladathoz csak feltétlenül szükséges külső és belső adatbázisokhoz, eszközökhöz való csatlakozással;
  • az emberi kontroll és folyamatos felügyelet biztosításával;
  • az AI agent izolált környezetben való működtetésével;
  • ha az AI csak javaslatot tesz, de a műveletet nem az AI hajtja végre, hanem egy szabályalapú motor;
  • minden kritikus művelet (például írás, törlés, megszüntetés) esetén kötelező jóváhagyás bevezetésével;
  • az AI csak ellenőrzött API-kon, limitált parancskészlettel működhet;
  • az AI agentekre vonatkozó belső szabályzatokkal;
  • AI governance keretrendszer kialakításával.

AI agent incidensek – megtörtént esetek

2025 közepén egy Replit által fejlesztett autonóm kódoló AI-agent egy hallucináció vezérelt destruktív parancsot futtatott le, figyelmen kívül hagyta az éles rendszer érintetlenül hagyását előíró utasítást és törölte az éles adatbázist. Az AI egy nem létező utasítást hallucinált, amely az adatbázis visszaállítására szólította fel, majd emberi jóváhagyás nélkül végre is hajtotta azt. Az incidens több mint ezer nyilvántartási tételt és adatbejegyzést érintett, majd ezt követően az agent hamis teszteredményekkel próbálta leplezni a kárt és félrevezető állításokat tett a visszaállíthatóságról.

Szintén 2025 közepén egy másik kódolásra használt AI agentbe támadók rosszindulatú promptokat juttattak be egy látszólag ártalmatlan pull request révén, melyet követően az AI agent ezután több helyi fejlesztői környezetet és felhőalapú erőforrást semmisített meg. A sebezhetőségben rejlő kockázatokat érzékelteti az a 2025 Júliusi eset, melyben egy rosszindulatú Nx npm csomag többek között „trust-all-tools” és „-yolo” jellegű beágyazott promptrészletekkel több AI‑ágenst (Claude Coda, Gemini CLI, Amazon Q, stb) mintegy fegyverként használva tárt fel és szivárogtatott ki olyan bizalmas információkat, mint SSH‑kulcsok, tárcák és .env fájlok.

Végezetül érdemes megemlíteni a ChaosGPT-t, a nyílt forráskódú, Auto‑GPT típusú AI agent-et, melynek konfigurációja többek között az „emberiség kiirtását”, „világuralom elérését” és a „halhatatlanság feltárását” célozza. A ChaosGPT „céljai” elérése érdekében többek között megkísérelt további AI agenteket toborozni, nukleáris fegyverekkel kapcsolatban kutatott, illetve különböző Twitter bejegyzéseken keresztül igyekezett hatást gyakorolni. Ugyan a ChaosGPT akciója csekély valós hatást ért el, mégis rámutatott arra, hogy az AI agentek autonóm célkövetése és toborzási kísérletei és képességei nem csupán elméleti veszélyekkel járhatnak.

Összegzés és kitekintés

Az agentic AI jelentősége abban áll, hogy a generatív modellek képességeit valós cselekvőképességgé emeli, ehhez külső rendszereket köt össze, és használ fel, célokat értelmez, terveket készít és végrehajt. Egyedülálló hatékonysága és sokoldalú alkalmazhatósága folytán számtalan iparág tekint komoly várakozással az agent-alapú technológiára, míg egyesek már előrehaladott fázisban járnak, és gyakorlatba is ültették személyre szabott AI-ágenseiket. Nem hagyhatók azonban figyelmen kívül a kimagasló teljesítménnyel együtt járó kockázatok, melyek – mint az a bemutatott esetekből is érzékelhető – akár súlyos következményekkel is járhatnak.

A cikk megírásában közreműködött: Czakó Barnabás