A generatív AI megoldások elterjedésének köszönhetően egyre gyakrabban merül fel a kérdés, hogy milyen hatása lehet mindennek a jogi szolgáltatói piac működésére, és tényleg kiválthatják-e ezek az eszközök a hagyományos ügyvédi szolgáltatásokat? – Bartal Iván ügyvéd, mesterséges intelligencia és technológiai jogi szakjogász, az Oppenheim Ügyvédi Iroda Data, Technology, Cyber & AI szakcsoportjának vezetője járja körül írásában ezt a napjainkban igen aktuális és sokakat foglalkoztató témát, majd az Ügyvédmarketing Podcast legfrisebb epizódjában Bende Mátéval beszélget arról, milyen jövő vár a jogi szakmára az AI térhódítása mellett és mitől marad értékes a humán gondolkodás (az Ügyvédmarketing Podcast legfrisebb epizódja az írás végén meghallgatható). 

A szöveges promptok segítségével bármilyen tartalom, így elvileg jogi dokumentumok létrehozására is alkalmas generatív AI megoldások kétségtelen, hogy még az internet elterjedésénél is jelentősebb hatással vannak az ügyvédi munkavégzés kialakult rendszerére. Ezeket a hatásokat azonban egyelőre nem érdemes túlbecsülni, és

az AI előnyei mellett érdemes kiemelni azok kockázatait is, mivel azok megfelelő kezelése nélkül a generatív AI megoldások operációs kockázatot és felelősségi kitettséget is eredményezhetnek mind az ügyfelek, mind a jogi szolgáltatók oldalán.

Az ún. liability gap problémája

Az ügyfelek részéről egyfelől jogos elvárásként merül fel az AI-megoldások használata, mivel ezek valóban gyorsabbá tehetik bizonyos jogi feladatok (pl. jogi kutatás, jogi átvilágítás, szerződés átnézése, felszólító levél megírása) elvégzését, ami akár a (költség)hatékonyság növekedését is eredményezheti a hagyományosan a számlázható óra alapú elszámolásra épülő ügyvédi díjazás fényében.

Fontos azonban látni, hogy az ilyen megoldások szolgáltatói általában kizárják a felelősségüket az AI rendszer által generált jogi dokumentumok megfelelőségével, teljességével, adott célra való alkalmasságával, jogszerűségével és az ezek hiánya által okozott károkkal kapcsolatban, viszont az ügyvédi iroda ugyanezt csak korlátozottan tudja megtenni az ügyfelével szemben, aki teljesen jogosan azt várja el a jogi tanácsadójától, hogy a részére átadott dokumentum mindenben megfeleljen a fentiekben írtaknak.

Így egy olyan esetben, amennyiben az ügyfélnek átadott anyagot az ügyvéd egy generatív AI megoldással készíttetett el, és arról kiderül, hogy az nem felel meg az ügyvéd részére adott instrukcióknak vagy az irányadó jogszabályoknak, és emiatt az ügyfélnek kára származik (pl. az AI által létrehozott szerződés nem érvényes, nem kikényszeríthető, vagy nem tartalmazza a kötelező tartalmi elemeket, és emiatt a másik fél nem teljesíti a szerződésben vállalt kötelezettségeit), azt az ügyvédi irodával szemben érvényesítheti. Mivel az iroda ezt a kárt nem fogja tudni áthárítani az MI szolgáltatóra, így csak abban reménykedhet, hogy a kárt az ügyvédi felelősségbiztosítása fedezi, de mivel sok biztosító szintén kizárja a felelősségét a mesterséges intelligencia gondatlan használatával okozott károkért, így az irodának egy fedezetlen kitettsége keletkezhet, nem is beszélve a reputációs kockázatról.

A fenti kockázatok megelőzése végett

mindkét fél érdeke az, hogy az ügyvéd(i iroda) csak olyan használati esetekre és megfelelő belső szabályozás mellett használja ezeket a megoldásokat, amelyekhez megfelelően ért, és csak olyan tartalmakat hozzon létre a mesterséges intelligenciával, amelyek helyességét, pontosságát, jogszerűségét, egyszóval megbízhatóságát megfelelően ellenőrizni tudja, és amit be is tud építeni az ügyfél számára készített anyagokba.

Ez feltételezi az MI-megoldások szakszerű, hozzáértő használatát, és az ilyen megoldások által létrehozott, és az ügyfelek részére szánt tartalmak kiküldést, illetve felhasználást megelőző megfelelő átnézését, testreszabását és módosítását, röviden az ügyvédi minőségbiztosítási rendszer szakszerű üzemeltetését. Nem véletlen, hogy az EU MI Rendeletének 2025 februárjában már hatályba lépett egyik szabálya valamennyi a rendelet szerinti MI rendszert (pl. ChatGPT, Perplexity, CoPilot stb.) használó céget kötelez arra, hogy gondoskodjon az ilyen eszközöket használó munkatársai megfelelő AI-jártasságáról, ideértve többek között a megfelelő promptolást, az inputként bevitt adatok megfelelő kiválasztását, és a rendszerek korlátainak figyelembe vételét.

A gyakorlat azt mutatja, hogy az ügyfelek is egyre inkább odafigyelnek arra, hogy ügyvédi megbízási szerződéseikben megfelelően szabályozzák (tiltsák, feltételekhez kössék, vagy korlátozzák) az AI megoldások használatát a részükre elvégzett jogi munka során.

Sok esetben egyébként nem, vagy nemcsak az ügyvédek, hanem az ügyfelek fűznek túlzott reményeket a MI-megoldások használatához, így a fent említett gap a másik oldalon is jelentkezhet. Pár hónapja az egyik ügyfelünk egy komplex rendszerintegrációs együttműködéssel kapcsolatos szerződés kidolgozásának feladatával keresett meg, és a hagyományos brief helyett egy generatív AI rendszerrel elkészített szerződéstervezetet küldött, hogy azzal dolgozzunk. Mivel a tervezet számos kardinális kérdés tekintetében (felelősség, szavatosság, felmondás, exit stratégiák stb.) a leendő másik oldalnak kedvező, és az ügyfelünknek kifejezetten kedvezőtlen szabályozást tartalmazott, ezért megkérdeztem az ügyfelünket, hogy biztos-e abban, hogy ezeket a kérdéseket a javasolt szövegnek megfelelően szeretné rendezni, és hogy ezek a megoldások megfelelnek az ő üzleti érdekeiknek és céljaiknak. Ha a szerződést kérdés nélkül teljes egészében az MI-rendszer által javasolt iránynak megfelelően draftoltam volna meg, a szerződés gyakorlati alkalmazása során az ezirányú tapasztalataim szerint borítékolható lett volna az ügyfelünk részéről az elégedetlenség, és akár a másik féllel egy szerződéses jogvita is kibontakozhatott volna. Kiderült, hogy az ügyfél csak nagyjából olvasta át a tervezetet, és az általam említett kérdésekben tapasztalt eltérések nem tűntek fel neki, ami nem is elvárható, hiszen a tervezetet nem a belső jogi osztály, hanem üzletemberek készítették, azaz megint csak eljutunk oda, hogy egy olyan használati esetről volt szó, ahol az MI rendszert használó személy nem tudott meggyőződni az általa elkészíttetett eredménytermék megfelelőségéről és helyességéről. Az egyes témákat átbeszélve természetesen kiderült, hogy a fenti kérdések nagy részében az MI-rendszer által javasolt szöveg nem felelt meg az érdekeiknek, így a tervezetet alaposan át kellett dolgozni, amivel végülis több időt töltöttünk el, mintha magunk megírtuk volna a tervezetet egy egyszerű szöveges brief alapján. Márpedig az MI-megoldások használatának a lényege pont a hatékonyabb és gyorsabb munkavégzés lenne, ami itt sajnos nem tudott megvalósulni.

A kritikus gondolkodásunk kiszervezésének kockázatai

Nemcsak a jogászok, hanem valamennyi egyéb, tartalomgyártásban utazó iparágban kényes kérdést jelent az MI megoldások bevonása a kritikus, végiggondolást igénylő tevékenységekbe és folyamatokba.

A digitalizációval, az ízlésünket és fogyasztói szokásainkat automatikusan kiszolgáló közösségi média, hirdetési és egyéb algoritmusok, és legújabban a mesterséges intelligencia megjelenésével egyre inkább előtérbe került az, hogy sokan már azt is a gépi technológiától várják, hogy helyettük gondolkodjon. Erre – távolról nézve – a generatív AI kiválóan alkalmasnak tűnik, mivel embernek tűnő tartalmakat állít elő, csak éppen nem szabad elfelednünk, hogy ezek a megoldások leginkább csak utánozzák, és ezért – legalábbis egyelőre – nem helyettesíthetik az emberi gondolkodást. Ennek oka, hogy a legtöbb esetben az ilyen rendszerek által létrehozott tartalom statisztikai valószínűségi alapon, egy átláthatatlan, fekete doboz-szerű döntési szempontrendszer alapján, és nem az emberéhez hasonló logikus gondolkodás alapján születik, bármennyire is hasonlít arra.

A jogi munkában ezért veszélyes lehet, ha a jogi feladatok elvégzéséhez szükséges (kritikus) gondolkodásunkat nagymértékben „kiszervezzük” a mesterséges intelligenciának, és egy adott szerződés, jogi elemzés vagy más dokumentum elkészítése során ahelyett, hogy feldolgoznánk, és végiggondolnánk az irányadó jogszabályokat, joggyakorlatot, iparági jó gyakorlatokat, az AI-ra bízzuk mindezt, és ez a teljes munkafolyamatok kiszervezett elvégzésére alkalmas ügynöki (agentic) AI megjelenésével egyre gyakoribb lesz.

Az AI rendszerek általában nagymennyiségű adat betanításával létrehozott modelleket használnak, amelyek a felhasznált adatok minőségétől is függően maguktól is kitalálhatnak nem létező dolgokat, vagy olyan torzításokat tartalmazhatnak, amelyek negatívan befolyásolhatják az előállított tartalom megbízhatóságát és megfelelőségét. Ez egyszerűbb esetekben nem gond, de bizonyára elrettentő példaként sokan hallottak már a ChatGPT-vel keresetlevelet író amerikai ügyvédről, akinek azért utasították el a beadványát, mert abban olyan korábbi jogesetekre hivatkozott, amelyek egészen egyszerűen nem léteztek, és amelyeket teljes egészében a chatbot talált ki.

Jó hír, hogy utóbbi időben megjelentek az olyan, a korábbinál fejlettebb AI modellek és megoldások is, amelyek nagyban segítik a jogi munka pontosságát. Ilyen például az úgynevezett RAG (retrieval-augmented generation) technológia is, amelynek az az előnye a hagyományos genAI megoldásokhoz képest, hogy míg a hagyományos rendszerek csak az általuk használt modellek betanításához használt információkat veszik figyelembe a tartalom előállítása során, a RAG lehetővé teszi ezen felül az egyéb, az interneten elérhető tartalmakhoz (pl. jogszabályok, bírósági döntések, szakcikkek stb.) való hozzáférést is, és azok eredményét is beépíti az elállított tartalomba. Ennek rögtön két előnye is van: egyrészt csökkenti a fent említett, ún. hallucinációkat, és mivel a forrásokat is behivatkozza a legenerált tartalomba, így megkönnyíti az abban foglalt következtetések (pl. jogi megállapítások) helyességének ellenőrzését.

Egy másik új technológiát képviselnek az ún. érvelő (reasoning) modellek, amelyek a komplexebb feladatokat részegységekre bontják, és így magasabb színvonalon képesek elvégezni a bonyolultabb jogi, analitikai vagy logikai problémákat. Ezek az AI modellek egyébként már a legtöbb népszerű generatív AI megoldásokban elérhetőek, és a jogi szakmában már jelenleg is komoly diskurzus folyik arról, hogy milyen típusú feladatra mely modellek a legalkalmasabbak.

Megfelelő szakértelemmel és tapasztalattal felvértezve egyes részfeladatok elvégzésére tehát már most is alkalmas lehet az AI egészen addig, amíg az általa létrehozott eredmény megfelelőségét validálni tudjuk, de

szerencsés, ha a kreatív folyamatban mindvégig megmarad az emberi irányítás és felügyelet, amit az újabb technológiák már hatékonyabban biztosítanak, és amit ún. magas kockázatú MI-rendszerek használata kapcsán egyébként az MI Rendelet is megkövetel majd a felhasználóktól.

A jogi tudás demokratizálódása és hatása az ügyvédségre

A technológiai haladás mindig elősegíti bizonyos, addig csak korlátozottan, megfelelően képzettek számára elérhető, monopolizált tudások és tapasztalatok szélesebb körben való elérhetőségét, és nincs ez másképp a jog területén sem. Nem véletlen, hogy mivel az AI segítségével elvileg bármilyen tartalom előállítható, és bármilyen válasz megkapható, ezért sokan gondolják azt, hogy mostantól nem lesz szükségük ügyvédre ahhoz, hogy jogi ügyeiket elintézzék, sőt, néhányan már az ügyvédség és a jogi tanácsadók közeledő kihalását vizionálják.

Kétségtelen, hogy mivel bizonyos egyszerűbb, sablonokból építkező dokumentumok (pl. egyszerűbb mintaszerződések, compliance dokumentáció) előállítása egyszerűbb lesz az AI megoldások használatával, mindez az alacsonyabb hozzáadott értékű jogi munkák leértékelődését, és az ügyfelek részéről ezen feladatok házon belül történő tartását eredményezheti. Az olyan esetekben ugyanakkor, ahol komplex, jelentősebb értékű szerződésről, vagy stratégiai ügyletről van szó, ott az ügyfelek számára továbbra is fontos lesz, hogy egy jogi tanácsadó felelősséget vállaljon az adott okirat megfelelőségéért, és ugyanez a helyzet azokban az esetekben is, ahol egy szerződés vagy más okirat szigorú formai követelményekhez kötött (például az ingatlan adásvételi szerződések esetében), vagy ahol a mesterséges intelligencia egyelőre csak részfeladatok tekintetében használható (pl. jogviták), így ezeket az ügyeket továbbra sem szerencsés jogászok bevonása nélkül intézni. Érdemes továbbá szem előtt tartani, hogy

a jogi vonatkozású dokumentumok elkészítése és a jogi tanácsadás a hatályos jogszabályok szerint az ügyvédek (illetve cégen, cégcsoporton belül a belsős jogászok, jogtanácsosok) kizárólagos jogosultsága, és ilyen tartalmak mások által (pl. gazdasági társaságok más piaci szereplők általi felhasználása céljából történő előállítása) akár büntetőjogi felelősséget is megalapozhat.

Ez természetesen nem érinti a saját célra jogi dokumentumokat készítő személyeket, de annak, hogy a megfelelő jogi végzettséggel, kamarai tagsággal és kötelező ügyvédi felelősségbiztosítással nem rendelkező személyek, cégek generatív AI megoldásokkal létrehozott szerződésekkel, jogi tanácsokkal árasszák el a piacot, talán gátat szabhat.

Kiegészítő, és nem kiváltó funkció

A mesterséges intelligencia jelenlegi állapotában a jogi üzletben egyelőre nem váltja ki a hosszú évek során megszerzett tudást és tapasztalatot, mindössze egy technológiai eszköz, amely hozzáértő kezekben egyes feladatok elvégzése során nagymértékben javíthatja a munkavégzés hatékonyságát, és az ilyen eszközöket megfelelően használó személyek és cégek termelékenységét. Érdekes tény, hogy bizonyos amerikai egyetemi kutatások szerint a kevesebb ideje a pályán levők ezen hátrányukat részben ellensúlyozhatják a generatív AI megfelelő használatával, és így a technológiának lehet egyfajta piaci kiegyenlítő hatása. Ezt viszont megfelelően ellensúlyozza a megfelelő mértékű és minőségű, az ügyvédi gondolkodást lehetővé tevő gyakorlati tapasztalat hiánya (illetve ennek megléte a tapasztaltabb jogászoknál), mivel

az új technológián felnövő generáció elől pont az új eszközök elterjedése és intenzív használata zárhatja el a gyakorlati tapasztalat, és a valódi – és nemcsak az AI segítségével annak látszó – tudás és tapasztalat megszerzésének lehetőségét.

A valódi és az annak látszó tudás, tartalom (ld. még a deepfake videók problematikáját) egymástól való elhatárolása más iparágakat is komoly kihívások elé állít, és nem véletlen, hogy a már említett MI Rendeletnek is megfelelően folyamatosan jelennek meg azok a technikai megoldások is (például a fotók valódiságának ellenőrzését lehetővé tevő C2PA specifikáció, az oktatásban a plágium-ellenőrző szoftverek), amelyek ezeket a kockázatokat hivatottak kezelni.

Szintén elterjedt vélekedés, hogy az MI elterjedésével az ügyvédi irodáknak idővel kevesebb ügyvédjelöltre lesz szüksége. Ez közép, illetve hosszú távon valóban bekövetkezhet, bár egyelőre az MI rendszerek inkább a jogi szolgáltatásokat kiegészítő, és nem azt kiváltó funkcióval bírnak.  Azon irodák esetében, ahol a junior kollégák szinte kizárólag, vagy túlnyomó részben alacsony hozzáadott értékű munkát végeznek, ott a részleges kiváltó funkció előbb, illetve erőteljesebben mutatkozhat meg. Ott viszont, ahol a jelöltek érdemi jogi munkát végeznek (a mi irodánk például ilyen), ott ez a hatás valószínűleg kevésbé, vagy időben kitolódva jelentkezik majd. Ennek oka, hogy a technológiai fejlődés jelenlegi helyzetében egy érdemi jogi részfeladat ügyvédjelöltnek történő kiadásakor az ügyvéd általában továbbra is a jelölt problémamegoldó képességére, alaposságára és tudására, mintsem (csak) az MI rendszerre fog támaszkodni. Ez természetesen az idő múlásával folyamatosan változhat, és ahogy a mesterséges intelligencia rendszerek teljesítménye egyre megbízhatóbb, és pontosabb lesz, az automatizáltság növekedése, és az ezzel kieső alacsonyabb értékű jogi munkák hiánya a későbbiekben valóban elvezethet egy csökkenő munkaerőigényhez, illetve ezzel együtt az ügyvédi irodák üzleti modelljének akár jelentős átalakulásához is.

Az új technológiáknak a jogi szolgáltatások értékláncába történő integrációja során és a valódi hozzáadott érték biztosítása érdekében mind az ügyvédi irodáknak, mind a belső jogászokat foglalkoztató cégeknek ki kell alakítaniuk a jogszabályok és az iparági standardok által elvárt kockázatkezelési, minőségbiztosítási, emberi felügyeleti, incidenskezelési és egyéb mechanizmusokat és működési algoritmusaikat. Ez azért különösen fontos, mert

jóllehet a technológiai megoldások valóban javíthatják az ügyvédi irodák termelékenységet, ugyanakkor a mesterséges intelligencia működésében rejlő, a fentiekben említett kockázatok alááshatják a jogi munka minőségét és megbízhatóságát, méghozzá oly módon, hogy azt egy megfelelő tudással és tapasztalattal nem rendelkező jogász nem is biztos, hogy felismeri, és ez számos kockázatot rejt magában.

Emiatt is fontos, hogy az MI alkalmazások ügyvédi irodában történő bevezetése, illetve a felhasználási esetek kialakítása során az azokat használó kollégák domain-specifikus tudását, tudásszintjét és tapasztalatait is figyelembe kell venni, például egy frissen végzett jogászra nem biztos, hogy érdemes rábízni egy komplex szerződés elkészítését, mivel az esetleges, az MI használatából származó „minőségvesztés” kockázata jóval magasabb lesz, mint egy tapasztaltabb, és az adott szakterületen jártas jogász bevonása esetében.

Egyelőre tehát nem feltétlenül kevesebb, hanem az MI alkalmazásokat megfelelően ismerő és használni tudó jogászokra van és lesz szükség, és ehhez az oktatási rendszernek is mindenképpen, és minél előbb alkalmazkodnia kell.

Ez utóbbi azonban nem merülhet ki az univerzális propagált jogi promptolás tanításában, mivel ez csak egy részfeladat az MI rendszerek ökoszisztémájának, működésének, kockázatainak alapos ismerete, és a felelős MI-használat oktatása mellett.

Milyen jövő vár a jogi szakmára az AI térhódítása mellett és mitől marad értékes a humán gondolkodás? – Az Ügyvédmarketing Podcast legfrisebb epizódja ITT meghallgatható:

Bartal Iván ügyvéd, mesterséges intelligencia és technológiai jogi szakjogász, az Oppenheim Ügyvédi Iroda Data, Technology, Cyber & AI szakcsoportjának vezetője:

Fotó: Draskovics Ádám