Az USA szövetségi kormánya 2022 októberében hozta nyilvánosságra az AI szabályozása témájában készített Fehér Könyvét („Blueprint For an AI Bill of Rights – Making Automated Systems Work for the American People”). A Fehér Könyv öt alapelvet határozott meg: (1) biztonságos és hatékony rendszerek („safe and effective systems”), (2) algoritmikus diszkrimináció elleni védelem („algorithmic discrimination protections”), (3) adatvédelem („data privacy”), (4) tájékoztatás és magyarázat („notice and explanation”), valamint (5) emberi alternatíva, mérlegelés és jogorvoslati lehetőség („human alternatives, consideration and fallback”). A Fehér Könyv nem rendelkezik jogi kötőerővel, célja, hogy az alapelvek lefektetésével biztosítsa a konkrét jogszabályok és gyakorlatok keretét.

Egy évvel később, 2023. október 30-án Joe Biden kibocsátotta „A biztonságos és megbízható AI fejlesztéséről és használatáról” szóló elnöki rendeletét („Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence” – „Rendelet”). A Rendelet célja az AI-rendszerek biztonságának és megbízhatóságának garantálása, a potenciális kockázatok kezelése, az amerikaiak magánéletének tiszteletben tartása, a méltányosság, a polgári jogok, az innováció és a verseny előmozdítása, a fogyasztók és a munkavállalók védelme, valamint az USA globális vezető szerepének elősegítése.

Két részes cikkünkben összefoglaljuk a Rendelet legfőbb előírásait, valamint összehasonlítjuk a szabályozás irányát az Európai Unió mesterséges intelligenciáról szóló rendelettervezetével („AI Act”).

1. Az AI definíciója

A Rendelet alapján az AI olyan gépi alapú rendszer, mely

  • gépi és/vagy emberi alapú bemeneteket használ fel,
  • érzékeli a valós és/vagy virtuális környezetet,
  • ezeket az érzékeléseket automatizált módon történő elemzéssel modellekké absztrahálja,
  • a modell következtetéseit felhasználja az információs vagy cselekvési lehetőségek megfogalmazására, és
  • egy adott, ember által meghatározott célkitűzések csoportjára vonatkozóan képes a valós vagy virtuális környezetet befolyásoló előrejelzéseket, ajánlásokat tenni vagy döntéseket hozni.

A definíció az OECD AI fogalommeghatározását veszi alapul, azonban nem tér ki az AI-tól elvárt autonómia fokára. Az AI kulcsfontosságú jellemzője ugyanakkor annak autonómiája, így például a tanulási, adaptációs, érvelési vagy modellezési képessége – ez különbözteti meg az egyszerűbb szoftverrendszerektől vagy programozási megközelítésektől. Az autonómia mint fogalmi elem kihagyásával fennáll a veszélye, hogy a rendelkezések a kizárólag „determinisztikus” folyamatokra is kiterjedjenek, melyek használata nem jelent számottevő kockázatot, ezáltal szükségtelen terhet helyezve a kapcsolódó megoldások szolgáltatóira és felhasználóira.

2. Információmegosztási kötelezettség az AI-rendszerekre vonatkozóan

A Rendelet szerint a „legnagyobb teljesítményű” AI fejlesztőinek az AI-rendszereik forgalomba hozatala előtt meg kell osztaniuk biztonsági teszteredményeiket és más kritikus információkat a szövetségi kormánnyal. Az információmegosztási szabályok azokra a legfejlettebb AI modellekre vonatkoznak, amelyek tanításához 1026 egész szám vagy lebegőpontos műveletnél[1] nagyobb számítási teljesítményt használtak. Megosztandó információk például az (i) AI modellek tanításának integritása biztosítása érdekében alkalmazott fizikai és kiberbiztonsági védelmi információk; (ii) az AI modellek modellsúlyainak („model weights”) tulajdonjoga és birtoklása, valamint a modellsúlyok védelme érdekében hozott fizikai és kiberbiztonsági intézkedésekre vonatkozó információk; valamint (iii) a „piros csapatos tesztek” („red-team safety tests”) teljesítményének javítását és a modell általános biztonságának megerősítését célzó intézkedések. A nemzet- és nemzetgazdasági biztonságra, a közegészségügyre és közbiztonságra (a Rendelet által bővebben nem definiált) „komoly kockázatot” jelentő alapmodellek fejlesztőinek a modell tanítása szintén meg kell osztaniuk a fenti információkat a szövetségi kormánnyal, a „piros csapatos” biztonsági tesztek eredményeivel együtt. Az „alapmodell” fogalmát a Rendelet nem határozza meg, a „kettős felhasználású alapmodell” fogalmát azonban igen: olyan AI modell, amely tanítására adatok széles körét használják fel, általában önfelügyelt tanulást („self-supervised learning”) alkalmaz, legalább több tízmilliárd paramétert tartalmaz, felhasználási módok széles körében alkalmazható és magas szintű teljesítményt nyújt, vagy könnyen módosítható, hogy magas szintű teljesítményt nyújtson a nemzet- és nemzetgazdasági biztonságra, a nemzeti közegészségügyre, a közbiztonságra, vagy e területek bármely kombinációjára komoly kockázatot jelentve.

3. „Piros csapatos tesztelés”

A „piros csapatos tesztelés” célja az AI-rendszerek hibáinak és sebezhetőségeinek megtalálása, általában ellenőrzött környezetben és fejlesztőkkel együttműködve.  A tesztelést leggyakrabban a fejlesztő által erre a célra létrehozott „piros csapatok” végzik, amelyek ellenséges módszereket alkalmaznak az olyan hibák és sebezhetőségek azonosítására, mint például az AI-rendszer (i) káros vagy diszkriminatív kimenetei, (ii) előre nem látott vagy nem kívánatos viselkedése, (iii) korlátai, vagy (iv) lehetséges visszaélési kockázatai.

A tesztelési szabályok szintén azokra az AI modellekre vonatkoznak, amelyek tanításához 1026 egész szám vagy lebegőpontos műveletnél nagyobb számítási teljesítményt használtak. (A nyilvánosan hozzáférhető információk alapján a GPT-3 esetében a tanításhoz használt számítási teljesítmény meghaladta a 1023 értéket,[2] a GPT-4 esetében pedig a 1025 értéket,[3] így a legújabb GPT-4 Turbo esetében valószínűleg át is lépi a Rendeletben meghatározott küszöbértéket. Más, esetleg kevésbé fejlett AI-rendszer tanításához pedig valószínűleg kevesebb teljesítményre volt szükség.)

Az amerikai Nemzeti Szabványügyi és Technológiai Intézet („National Institute of Standards and Technology”, „NIST”) további szabványokat, eszközöket és teszteket dolgoz majd ki az AI-rendszerek biztonságának és megbízhatóságának biztosítása érdekében, valamint a „piros csapatos tesztekre” vonatkozóan.

4. Algoritmikus manipuláció, fake news és deep fake-ek

A Rendeletben szintén hangsúlyos szerepet kap az állampolgárok AI-segítségével megvalósított csalástól és megtévesztéstől való védelme. A Rendelet utasítja a Kereskedelmi Minisztériumot („Department of Commerce”) és más szövetségi ügynökségeket, hogy dolgozzanak ki szabványokat és legjobb gyakorlatokat az AI használatával generált tartalmak felismerésének megkönnyítésére, a hivatalos tartalmak hitelesítésére, valamint a vízjelek elhelyezésére vonatkozóan. A „vízjel” kifejezés a AI által létrehozott kimenetekbe (pl. fényképek, videók, hangklipek vagy szövegek) jellemzően nehezen eltávolítható információk beágyazását jelenti, a kimenet hitelessége, eredete, módosításai vagy továbbítása azonosságának, illetve jellemzőinek ellenőrzése céljából. A választók félretájékoztatásának, valamint a választások és szavazások befolyásolásának elkerülése érdekében a szövetségi kormány a saját politikai és tájékoztató kommunikációja során is a Kereskedelmi Minisztérium által kidolgozott konkrét megoldásokat szeretné alkalmazni, hogy a választópolgárok könnyen azonosíthassák a szövetségi kormány hivatalos üzeneteit, szemben az AI által generált hamis tartalmakkal.

Cikkünk következő részében szó lesz a magánélet védelmét szolgáló technológiákról, a rendelet végrehajtásáról, valamint a Rendelet és az EU AI Act főbb eltéréseiről.

[1] A „lebegőpontos művelet” („floating-point operation”) kifejezés minden olyan matematikai műveletet vagy hozzárendelést jelent, amely lebegőpontos számokkal történik, amelyek a valós számok egy részhalmaza, amelyet a számítógépeken jellemzően egy rögzített pontosságú egész számmal és egy rögzített bázisú egész szám exponenssel skálázva ábrázolnak.

[2] https://bigthink.com/the-future/artificial-general-intelligence-true-ai/.

[3] https://www.lesswrong.com/posts/iQx2eeHKLwgBYdWPZ/retrospective-on-gpt-4-predictions-after-the-release-of-gpt.