Az Európai Unió hosszú évek óta dolgozik azon, hogy szigorú adatvédelmi szabályokat állítson fel az online világ számára. Az OpenAI által kifejlesztett ChatGPT azonban évről-évre új kihívások elé állítja az uniós szabályozók létrehozóit. Az EU adatvédelmi biztosokból álló munkacsoportja, több mint egy éven át vizsgálta, hogy az unió adatvédelmi szabályozása miként alkalmazható a Chat GPT-re, az erről szóló tervezetet a napokban publikálták, amelyek tartalmazzák az első megállapításaikat.
Papíron a GDPR minden olyan esetben alkalmazandó, amikor személyes adatokat gyűjtenek és dolgoznak fel. A ChatGPT modelljei is működésük során nagy mennyiségű adatokat használnak, amikor az internetről töltenek le információkat a modellek betanításhoz, beleértve az emberek közösségi médiaplatformokra írt bejegyzéseit is. Ez az adatgyűjtési gyakorlat több adatvédelmi kérdést is felvet. Az Európai Unió Általános Adatvédelmi Rendelete (GDPR) szigorú előírásokat tartalmaz a személyes adatok gyűjtésére és kezelésére vonatkozóan. A rendelet megsértése esetén a vállalatokra kiszabható büntetések a teljes éves forgalom 4%-áig terjedhetnek, és a felügyeleti hatóságok akár az adatfeldolgozás felfüggesztését is elrendelhetik.
Az EU adatvédelmi hatósága azonban még mindig nem döntött számos jogi kérdésben, például az OpenAI adatfeldolgozásának jogszerűségét és tisztességességét illetően. Ez a bizonytalanság azt jelenti, hogy az OpenAI egyelőre folytathatja tevékenységét, annak ellenére, hogy egyre több panasz érkezik a GDPR különböző aspektusainak megsértése miatt. A lengyel adatvédelmi hatóság például vizsgálatot indított, miután a chatbot hamis információkat közölt személyekről, és nem volt hajlandó kijavítani a hibákat. Az olasz adatvédelmi hatóság már tavaly is megtiltotta az OpenAI-nak a helyi felhasználók adatainak feldolgozását. Az intézkedés ahhoz vezetett, hogy az MI-óriás rövid időre leállította a szolgáltatást az országban. A ChatGPT csak azt követően indult újra Olaszországban, hogy az OpenAI a DPA által megfogalmazott követelmények listájára válaszul változtatásokat eszközölt a felhasználóknak nyújtott információk és ellenőrzések terén. Az olasz vizsgálat azonban folytatódik, beleértve olyan sarkalatos kérdéseket is, mint az OpenAI által hivatkozott jogalap, amely alapján az emberek adatait feldolgozza az MI-modellek képzése céljából.
A GDPR értelmében minden olyan szervezetnek, amely emberekre vonatkozó adatokat kíván feldolgozni, rendelkeznie kell a művelet jogalapjával. A rendelet hat lehetséges jogalapot határoz meg, de a legtöbb nem áll rendelkezésre az OpenAI kontextusában. Az olasz adatvédelmi hatóság már utasította az MI-óriást, hogy nem hivatkozhat arra, hogy a modellek képzése érdekében szerződéses szükségességére hivatkozva feldolgozza az emberek adatait – így csak két lehetséges jogalap marad:
- vagy a hozzájárulás (azaz az egyes felhasználók engedélyének kérése az adataik felhasználásához);
- vagy a jogos érdekek nevű jogalap, amely mérlegelési tesztet igényel.
Az Európai Unió elkötelezett a mesterséges intelligencia szabályozásának fejlesztése mellett. Az új mesterségesintelligencia-törvények célja, hogy védelmet nyújtson a polgároknak és biztosítsa a technológia etikus és biztonságos használatát. Az OpenAI és más techcégek számára ez egyaránt jelenthet korlátot és lehetőséget. A szigorúbb szabályozás növelheti a költségeket és a bürokráciát, de egyben biztosíthatja a verseny tisztaságát és a felhasználók védelmét. A technológia olyan gyorsan fejlődik, hogy egyelőre kevés megállapodás született a szabályozásáról. Az EU azonban jó úton halad afelé, hogy véglegesítse a maga nemében első mesterségesintelligencia-törvényt, amely szabályozza az MI-felhasználást. Ez a szabályozás nemcsak korlátokat, hanem lehetőségeket is teremt a techcégek számára, hogy biztonságosabb és etikusabb termékeket fejlesszenek.
Az OpenAI és más technológiai vállalatok vegyes érzelmekkel fogadják az új szabályozásokat. Egyesek szerint a szigorúbb szabályok hátráltathatják a fejlődést, míg mások úgy vélik, hogy a szabályozás szükséges a technológia biztonságos és etikus használatához. Sam Altman, az OpenAI vezetője, például azzal fenyegetőzött, hogy cége teljesen kivonul az EU-ból, ha a végleges szabályok túl szigorúak lesznek. Egyes nagy technológiai cégek azonban szinte követelik a szabályozást, mivel az lehetőséget nyújt számukra a mesterséges intelligencia területén való megerősödésre. A magasabb költségek és a bürokrácia megnehezítheti a piacra való betörést az új versenytársak számára, így a már meglévő nagy cégek előnyhöz juthatnak.
Az Egyesült Államokban is hasonló folyamatok zajlanak. A Szövetségi Kereskedelmi Bizottság vizsgálatot indított a ChatGPT ellen, aggódva a platform személyes adatgyűjtési gyakorlatai miatt. Az amerikai törvényhozók szintén megkezdték a mesterséges intelligencia szabályozásának felülvizsgálatát, hogy megtalálják az egyensúlyt a technológia előnyei és potenciális ártalmai között. Chuck Schumer, az amerikai szenátus többségi vezetője, szakértői tájékoztatókat és fórumokat szervezett a legfontosabb szenátusi bizottságok számára, hogy segítsen nekik eldönteni, mely aspektusait kell szabályozni a mesterséges intelligenciának. Brüsszelhez hasonlóan Washington is elkezdett követelményeket támasztani a legerősebb modellekkel szemben. Egy 2023 végén elfogadott rendeletben a Fehér Ház előírta a nagy teljesítményű rendszereket létrehozó vállalatok számára, hogy hozzák nyilvánosságra a megoldásaik képességeit és osszák meg azokat a tisztviselőkkel.
A mesterséges intelligencia szabályozása az EU-ban és az USA-ban egyaránt jelentős kihívásokkal és lehetőségekkel jár. Az adatvédelmi aggályok és a technológiai fejlődés egyensúlyának megtalálása kulcsfontosságú lesz a jövőben.
Sg.hu – Megpróbálja szabályok közé terelni az EU a ChatGPT-t
A techcégek örülnek is, meg nem is – makronom.eu
Photo: European Union’s AI Act Plans to Target American Open-Source Developers and API Access | IBL News