, 2021/10/12
A Max Planck Intézet tudósaiból álló kutatócsoport elméleti számítások segítségével kimutatta, hogy az emberek képtelenek lennének irányítani egy szuperintelligens mesterséges intelligenciát.
Lenyűgöznek minket azok a gépek, amelyek képesek autókat irányítani, szimfóniákat komponálni, vagy legyőzni az embereket sakkban, Go-ban vagy Jeopardy! Miközben a mesterséges intelligencia (AI) terén egyre több előrelépés történik, egyes tudósok és filozófusok figyelmeztetnek az ellenőrizhetetlen szuperintelligens AI veszélyeire. Egy nemzetközi kutatócsoport - köztük a Max Planck Emberi Fejlődés Kutatóintézet Ember és Gép Központjának tudósai - elméleti számítások segítségével kimutatta, hogy egy szuperintelligens mesterséges intelligenciát nem lehetne irányítani.
Tegyük fel, hogy a nem túl távoli jövőben egy kutatócsoport megépít egy olyan mesterséges intelligenciával rendelkező AI-rendszert, amely az embernél magasabb intelligenciával rendelkezik, így önállóan tanulhat. Az internetre csatlakozva az AI hozzáférne az emberiség összes adatához. Lecserélhetné a meglévő programokat, és globálisan átvehetné az irányítást az összes gép felett.
Vajon ez utópiát vagy disztópiát eredményezne? Meggyógyítaná a mesterséges intelligencia a rákot, elhozná a világbékét, és megakadályozná az éghajlati katasztrófát? Vagy elpusztítaná az emberiséget, és átvenné a hatalmat a Föld felett? Egy szuperintelligens gép, amely irányítja a világot, úgy hangzik, mint egy sci-fi. De már most is léteznek olyan gépek, amelyek bizonyos fontos feladatokat önállóan végeznek anélkül, hogy a programozók teljesen megértenék, hogyan tanulták meg" - mondta Manuel Cebrian, a tanulmány társszerzője, a Max Planck Emberi Fejlődés Kutatóintézet Ember és Gép Központjának Digitális Mobilizációs Csoportjának vezetője.
Felmerül tehát a kérdés, hogy ez egy bizonyos ponton ellenőrizhetetlenné és veszélyessé válhat-e az emberiségre nézve. A tudósok két különböző elképzelést vizsgáltak arra vonatkozóan, hogyan lehetne egy szuperintelligens mesterséges intelligenciát irányítani. Egyrészt egy szuperintelligens mesterséges intelligencia képességeit célzottan korlátozhatnák, például úgy, hogy elzárnák az internettől és minden más technikai eszköztől, így nem kerülhetne kapcsolatba a külvilággal - ez azonban a szuperintelligens mesterséges intelligenciát lényegesen kisebb teljesítményűvé tenné, kevésbé lenne képes megoldani az emberiség problémáit.
Ennek a lehetőségnek a hiányában a mesterséges intelligenciát kezdettől fogva arra lehetne motiválni, hogy csak olyan célokat kövessen, amelyek az emberiség érdekeit szolgálják, például etikai elvek beprogramozásával. A kutatók azonban azt is megmutatják, hogy ezeknek és más, a szuperintelligens mesterséges intelligenciára vonatkozó kortárs és történelmi elképzeléseknek is megvannak a korlátai.
Tanulmányukban egy olyan elméleti megfékezési algoritmust dolgoztak ki, amely biztosítja, hogy egy szuperintelligens mesterséges intelligencia semmilyen körülmények között nem árthat az embereknek - először szimulálva a mesterséges intelligencia viselkedését, majd leállítva azt, ha azt károsnak ítélik. A gondos elemzés azonban azt mutatja, hogy a jelenlegi számítástechnikai paradigmánkban egy ilyen algoritmus nem építhető meg.
"Feltételezve, hogy egy szuperintelligencia olyan programot fog tartalmazni, amely magában foglalja az összes olyan programot, amelyet egy univerzális Turing-gép végre tud hajtani olyan bemeneten, amely potenciálisan olyan összetett, mint a világ állapota, a szigorú korlátozáshoz egy ilyen program szimulációjára van szükség, ami elméletileg (és gyakorlatilag) lehetetlen" - írják a tanulmányuk kivonatában.
"Ha a problémát az elméleti informatikából származó alapvető szabályokra bontjuk le, kiderül, hogy egy olyan algoritmus, amely arra utasítana egy mesterséges intelligenciát, hogy ne pusztítsa el a világot, véletlenül leállíthatja a saját műveleteit. Ha ez megtörténne, nem tudnánk, hogy a megfékező algoritmus még mindig elemzi-e a fenyegetést, vagy már leállt, hogy megfékezze a káros AI-t.
Ez tulajdonképpen használhatatlanná teszi a megfékező algoritmust" - mondta Iyad Rahwan, az Emberek és Gépek Központjának igazgatója. A számítások alapján a megfékezési probléma kiszámíthatatlan, azaz egyetlen algoritmus sem tud megoldást találni annak megállapítására, hogy egy mesterséges intelligencia kárt okozna-e a világnak. Sőt, a kutatók bemutatják, hogy talán azt sem tudjuk, mikor érkeztek meg a szuperintelligens gépek, mert annak eldöntése, hogy egy gép az embernél magasabb intelligenciát mutat-e, ugyanabba a tartományba tartozik, mint a megfékezési probléma.