Bízhatunk-e a mesterséges intelligenciában?

Ami egykoron a Szilícium-völgy igazgatótanácsaiban és tudományos konferenciákon volt kérdés, az mára az egész világ számára megkerülhetetlenné vált: Vajon gyorsabban építjük-e a mesterséges intelligenciát, mint ahogy irányítani tudjuk? Ahogy a mesterséges intelligencia rendszerek egyre több feladatban megközelítik, sőt egyre inkább meghaladják az emberi képességeket, a kutatók egyre sürgetőbb vészjelzéseket adnak. Ami korábban sci-fi volt, az ma már reális kockázat.

A Harari Paradoxon

Yuval Harari ráirányítja a figyelmünket egy komoly ellentmondásra. Amikor ő, és egyre több tudós kollégája mérsékletet kérnek, mondván, hogy túl gyorsan száguldunk az AI fejlesztésében, és bölcsebb lenne lelassulni és időt adni a következmények végiggondolására, akkor rendre azt a választ kapja, hát igen, ez valóban bölcs lenne, de sajnos nem tehetjük meg, mert akkor a versenytársaink elhúznak tőlünk, és ki tudja, hogy ők mire fogják használni az így megszerzett tudást…. Tehát a megszólított X, mindig arra hivatkozik, hogy ő még csak-csak lassítana, de nem teheti mert nem bízik Y-ban… Milyen paradox – mondja erre Harari, hogy miközben mi emberek egymásban a legkevésbé sem bízunk, és a gyanakvás és a bizalmatlanság hajtja előre a fejlesztés folyamatát, azt a kézenfekvő kérdést nem tesszük fel, hogy Mesterséges Intelligenciában bízhatunk-e?! Abban a mesterséges intelligenciában, amelyben nincs önmérséklet, nincs aggodalom, sőt, semmilyen emberi aggály, és amelyről tudjuk, hogy hamarosan olyan önállóságra tehet szert, hogy a puszta emberi elme számára követhetetlen lesz. Szóval egymásban betegesen nem bízunk, de a teljesen kiszámíthatatlan és hamarosan átláthatatlan mesterséges intelligencia jóindulatában viszont igen…

De voltaképpen mi a baj?

Az atomenergiát is sikerült kordában tartani, miért jelentene ez megoldhatatlan problémát a mesterséges intelligencia esetében, mondják sokan – naivan.

Hararinak erre is van – nagyon pontos – válasza. Felhívja a figyelmet arra, hogy az AI nem hasonlít semmilyen eddigi gépre vagy gépi technológiára, és semmiképpen sem összekeverendő az automatizációval. Az eddigi gépekkel szemben az AI meghatározó jellemzője, hogy ágens, azaz autonóm cselekvő! Ennek megfelelően képes tanulni, döntéseket hozni és önállóan alkotni.  Az AI ebben az értelemben nem pusztán egy gép, hanem ahogyan a neve is mutatja, egy idegen „intelligenciaforma”, ami ugyanakkor nem emberi, még csak nem is organikus. Harari kedvenc példája az AlphaGo amelynél nem pusztán annyi történt, hogy egy AI le tudta győzni a legjobb emberi Go játékosokat, hanem ezt egy olyan stratégiával tette meg, amelyre évezredeken át még egyetlen ember sem gondolt. Ha egy ennyire kiszámíthatatlan rendszer hozzáférést nyer olyan területekhez, mint a globális pénzügyek, a fegyverkezés, vagy az energiaellátás és még sorolhatnánk, ez egészen példátlan kockázatokkal járhat.

Az úttörők figyelmeztetése

Az irónia szembetűnő: a mesterséges intelligencia pályája miatt leginkább azok aggódnak, akik lehetővé tették mindezt, akik kifejlesztették magát az AI-t. Geoffrey Hinton és Yoshua Bengio, a mesterséges intelligencia „három keresztapja” közül kettő (akik 2018-ban elnyerték a mélytanulás úttörő munkájáért járó Turing-díjat), az elmúlt években kifejezetten amellett érvelnek, hogy le kell lassítani azt a technológiát, amelynek létrehozásában segédkeztek.

Egy 2024-ben a Science folyóiratban megjelent, mérföldkőnek számító tanulmányban, Bengio, Hinton és több tucat vezető MI-kutató arra figyelmeztetett, hogy a MI-képességeinek, illetve a rendszerek autonómiájának gyors növekedése hamarosan hatalmas kockázatokat fog teremteni: az előre nem látható társadalmi károk és a rosszindulatú felhasználók mellett a legnagyobb veszélyt abban látják, hogy az emberek visszafordíthatatlan elvesztik az autonóm MI-rendszerek feletti kontrollt. Bengio most úgy véli, hogy az emberi szintű MI néhány éven, de legfeljebb két évtizeden belül megjelenhet – jóval korábban, mint ahogyan ezt a tudományos becsléseink előre jeleztek. Hinton pedig azzal vádolja a nagyobb MI-vállalatokat, hogy egyértelműen a profitot helyezik előtérbe a biztonsággal szemben, mikor is aktívan lobbiznak a szigorúbb szabályozás ellen.

Stuart Russell, aki annak az MI-ről szóló tankönyvnek (Artificial Intelligence: Modern Approach) szerzője, amelyet világszerte több mint 1400 egyetemen használnak, még élesebben fogalmazza meg a problémát. Kedvenc párhuzama, hogy miközben a repülőgépeknek értékesítés előtt légialkalmassági bizonyítványra van szükségük, vagy a gyógyszereknek kiterjedt klinikai vizsgálatokon kell átesniük, addig a mesterséges intelligencia rendszereinél semmiféle ehhez hasonló biztonsági követelmények nincsenek – annak ellenére, hogy ezek voltaképpen olyan „fekete dobozok”, amelyek viselkedését még az alkotóik sem tudják teljes mértékben megjósolni. Russell figyelmeztet, hogy a potenciálisan 15 kvadrillió dolláros gazdasági érték mágneses vonzása egyre nehezebbé tesz bármiféle lassítást vagy irányváltást.

Egy életveszélyes verseny

A jelenlegi helyzet egy „ki rántja el előbb a kormányt” típusú játékra hasonlít – csak éppen a tét óriási. A Future of Life Institute 2024-es független értékelése szerint a vezető MI vállalatok zászlóshajó modelljei mind sebezhetők. Mivel a vállalatok képtelenek ellenállni a profitvezérelt ösztönzőknek, független felügyelet pedig nincs, gyakran épp a biztonság terén igyekeznek spórolni.  Az USA és Kína közötti izzó rivalizálás felgyorsítja a fejlesztést, létrehozva, amit a biztonsági kutatók „versenydinamikának” neveznek – egy olyan helyzetet, amelyben minden szereplő kénytelen gyorsabban cselekedni, még akkor is, ha ez mindenki számára növeli a kockázatot.

Hogyan kerülhetnénk el a bajt… avagy a biztonságosabb AI rendszerek felé

Mit tehetünk ezekkel a kockázatokkal szemben? A tudósok számos megközelítést javasoltak, bár a konszenzus továbbra sem alakult ki körülöttük.

Kötelező biztonsági előírások és független felügyelet

Russell és mások szigorú biztonsági követelményeket és a nem-biztonságos mesterséges intelligencia rendszerek kibocsátásának tilalmát szorgalmazzák. Véleményük szerint olyan szabályozási keretekre van szükség, mint a már említett légiközlekedésben, gyógyszeriparban vagy akár az atomenergia esetében.

Ez magában foglalná:

–          hogy a vállalatokat kötelezzék arra, hogy a MI kutatás-fejlesztési költségvetésük legalább egyharmadát biztonsági kutatásra fordítsák.  

–          dolgozzanak ki átfogó referenciaértékek a mesterséges intelligencia képességeinek és kockázatainak mérésére

–          a rendszereket és modelleket független hatóságok auditálják – még telepítés előtt

–          a kormányzati szervek kapuőrként működjenek a MI-biztonság területén

–          nemzetközi együttműködés: fontos lenne, hogy  – akárcsak a világjárványok megelőzését vagy a nukleáris biztonságot – a mesterséges intelligencia biztonságának kérdését globális közjóként kezeljék, és ennek szabályait nemzetközi egyezményekben rögzítenék

–          létre kellene hozni egy „MI-kockázatokkal foglalkozó kormányközi testületet”– ami mérvadó tudományos testületként, konszenzust alakítana ki a kockázatokkal és a megoldásokkal kapcsolatban.

Fejlesztési szünetek, lassítások és a kikapcs gomb

Talán a legvitatottabb javaslat bizonyos MI-fejlesztések lassítását vagy ideiglenes szüneteltetését érinti. Egy 2023-as nyílt levél, amelyet több ezer ember, köztük Elon Musk is aláírt, hat hónapos szüneteltetést szorgalmazott a GPT-4-nél erősebb képzési rendszerek terén, azzal érvelve, hogy ezt az időt közös biztonsági protokollok kidolgozására kellene fordítani. A levél hangsúlyozta, hogy ez nem jelenti az összes MI-fejlesztés leállítását – csupán a minden ellenőrzés nélküli a veszélyes verseny kordában tartását.

Olyan javaslatok is vannak, amelyek voltaképpen leblokkolnák az AI fejlesztés bizonyos területeit. Stuart Russell egy sajátos tervezési paradigmát javasol, amelyben „szándékosan bizonytalanná” tennék a mesterséges intelligencia rendszereket, annak érdekében, hogy folyamatos emberi felügyeletre és korrekcióra szoruljanak.

Még az is felmerült, hogy megbízható MI-rendszerek kellenek használni a potenciálisan veszélyes rendszerek monitorozására, bár továbbra is kihívást jelent, hogy hogy iktassák ki akár a monitorok meghibásodását, akár a „rosszindulatú viselkedésüket”

Sokan amellett érvelnek, hogy az áramkör-megszakító mintájára kell, hogy legyen egy olyan „kikapcs gomb”, amely veszélyes viselkedés esetén egyszerűen megakadályozza a modellek működését.  Mások arra figyelmeztetnek, hogy mivel a) a mostani tendencia az, hogy az MI rendszerek egyre inkább átveszik a nagy rendszerek irányítását, b) képesek és még inkább képesek lesznek az autonóm cselekvésre, egy globálisan összekapcsolt MI rendszer könnyedén kitalálná, hogy hogyan semlegesítsen egy ilyen kikapcs gombot…

Európai Unió úttörő vagy kakukktojás? 

Miközben az Egyesült Államok és Kína esetében az említett versenydinamika dominál, az Európai Unió egy másik úttal próbálkozik. 2024-ben ugyanis hatályba lépett az AI Act, a világ első átfogó mesterséges intelligencia szabályozási keretrendszere, amely a fentieket is igyekszik figyelembe venni és egy kockázatalapú megközelítést alkalmaz: a magasabb kockázatú rendszerekkel szemben szigorúbb követelményeket támaszt. A jogszabály tilt bizonyos funkciókat (például a biometrikus azonosításon alapuló valósidejű tömeges megfigyelést). Emellett kötelező értékelést ír elő a kritikus infrastruktúrát, jogérvényesítést vagy foglalkoztatást érintő rendszerek esetében. Bár a szabályozás hatékonysága még bizonyításra vár, a technológiai óriások máris lobbiznak a követelmények lazításáért. Azt is figyelembe kell venni, hogy az élvonalbeli globális rendszerek (mint a ChatGpt, a Claude, a Gemini, a Perplexity, a Grok,  vagy Kína esetében az úgy nevezett „Hat Tigris” – a Zhipu AI, Moonshot AI, MiniMax, Baichuan Intelligence, StepFun, and 01.AI – termékei majdnem teljesen leuralják a piacokat. Ha ehhez hozzávesszük Kína dominanciáját a minden ilyen rendszerhez elengedhetetlen ritkaföldfémek és kritikus nyersanyagok termelésében, illetve az amerikai számítástechnikai gigacég, az NVIDIA egyeduralmát a korszerű grafikus processzorok (GPU) gyártása területén, jól látható, hogy az EU piaci szerepe (ereje) momentán másodlagos. Ennek ellenére az AI Act mégis fontos precedenst teremthet: azt mutatja, hogy demokratikus keretek között is lehet az innovációt biztonságosabb mederbe terelni. Az európai modell potenciálisan akár mintaként is szolgálhatna más régiók számára, alternatívát kínálva a szabályozatlan versenyhez. Már ha erre van/lenne érdeklődés és akarat…

A profitéhség lesz a vesztünk?

Csakhogy a fenti biztonsági intézkedések egyáltalán nem váltak normákká!  A vezető – és egyértelműen monopolhelyzetben lévő – óriáscégek, attól félnek a szüneteltetés vagy bármiféle lassítás lehetővé tenné a kisebb szereplők felzárkózását (amiben pénzügyileg ugyebár ellenérdekeltek). Az is gyakori ellenérv, hogy az ilyesmi hátrányos helyzetbe hozhatná a szabálykövető cégeket a szabályokat figyelmen kívül hagyó (például kínai, észak-koreai stb.) cégekkel szemben… Ezek persze hamiskás érvek, hiszen a kapitalizmus krédója szerint a verseny elvileg csak segítené a technológiák fejlődését (a monopóliumok ezt épp, hogy blokkolják) és – mint említettük – igenis vannak már létező nemzetközi egyezmények (pl. a nukleáris fegyverkezés területén), amelyek ha nem is tökéletesek, de  igenis képesek garantálni egy biztonsági minimumot.   

A tudósok üzenete világos: Rendelkezünk a biztonságosabb mesterséges intelligencia építéséhez szükséges technikai tudással, ebben akár más magas kockázatú iparágak intézményi modelljeire is támaszkodhatunk. Amiből viszont nagy a hiány az az idő és a kollektív akarat, hogy a biztonságot helyezzük előtérbe a sebességgel szemben akkor, amikor az emberiség legjelentősebb és legkockázatosabb technológiai fejlesztésével kísérletezünk.

Russell egyértelműen kimondja: nem az a probléma, hogy a mesterséges intelligencia fejlesztését túl nehéz lenne szabályozni, hanem az, hogy „a vállalatok által választott irány” megnehezíti számukra a biztonsági követelmények betartását. Amikor a vállalatok azt állítják, hogy nem tehetnek nagy bizonyosságú kijelentéseket a rendszerbiztonságról, ez nem egy eredendő korlátozást mutat, hanem azt a döntést, hogy a képességeket a kontroll megértése előtt fejlesztik!

Az alapvető kérdés tehát nem az, hogy a mesterséges intelligencia átalakító-e – mert (ma még) az. Az, alapvető kérdés az, hogy olyan irányban alakítjuk-e, amiben a rendszerek kontrollja megmarad az embereket kezében (méghozzá átlátható, demokratikus és méltányos feltételek mellett), vagy nem fordítunk kellő figyelmet a biztonságra, és a rendszerek irányítása kicsúszik a kezünkből.

Sajnos komoly tanulsága van a Harari-paradoxonnak. A „Bízzunk-e a mesterséges intelligenciában?” kérdés egyre inkább egy másik kérdéstől függ: Bízhatunk-e magunkban, hogy felelősségteljesen építjük ezeket a rendszereket? A jövőben (ha lesz jövőnk!), ha visszanézünk erre a pillanatra, világosan fog látszani, hogy az erre a kérdésre adott választ nem maga a technológia határozta meg, hanem azok a döntések, amelyeket a kutatók, a vállalatok és a kormányok, azaz mi meghoztunk – abban a rendelkezésre álló szűk időszakban, amikor még dönthettünk…

Olvasnál még hasonló cikkeket? Iratkozz fel hírlevelünkre!
Tetszett a cikk? Oszd meg barátaiddal, ismerőseiddel!
Oldal Tetejére