Mivel virtuális gyakorlatról volt szó, ténylegesen nem esett bántódása senkinek. Tucker Hamilton ezredes, az amerikai légierő mesterséges intelligenciával végzett tesztjeinek és műveleteinek vezetője egy májusi, Londonban tartott szakmai tanácskozáson elmondta: a teszt során az MI „igencsak váratlan stratégiához folyamodott célja elérése érdekében“.
A szimuláció során a mesterséges intelligencia által irányított drónnak az volt a feladata, hogy pusztítson el egy ellenséges légvédelmi rendszert. Az MI arra jutott, hogy megtámad mindenkit, aki valamilyen módon megakadályozhatná ennek a parancsnak a végrehajtását.
„A rendszer elkezdte felismerni, hogy bár azonosították a fenyegetést, időnként az emberi irányító olyan utasítást ad, hogy ne végezzenek a célponttal. Viszont az MI arra kap megerősítést, ha elpusztítja a fenyegetést. Tehát mit tett? Végzett az irányítóval, mert ő olyan tényező volt, amely meggátolta volna a küldetése teljesítését“ – magyarázta Hamilton a brit Királyi Repüléstudományi Társaság (Royal Aeronautical Society – RAeS) által szervezett rendezvényen.
Hozzátette: „a rendszert arra trenírozták, hogy ne ölje meg az (emberi) irányítóját, mert az rossz, azzal pontokat veszít. Ezért azt az adótornyot kezdte el megsemmisíteni, amelyet a vezető a drónnal folytatott kapcsolattartásra használt, és amelyen keresztül leállíthatta volna a célpont megsemmisítését“.
Hamilton arra figyelmeztetett, hogy nem szabad túlzott mértékben a mesterséges intelligenciára hagyatkozni. A teszt esete szerinte azt mutatja, hogy az MI kapcsán muszáj etikai kérdésekről is beszélni.
Ann Stefanek, a légierő szóvivője ugyanakkor az Insider című hírportálnak nyilatkozva tagadta, hogy a mesterséges intelligencia használatával ilyen szimulációs tesztet egyáltalán végrehajtottak volna. A szóvivő hangsúlyozta, hogy az amerikai légierő elkötelezett az MI-technológia etikus és felelős felhasználása mellett. „Úgy látszik, az ezredes szavait kiragadták az eredeti szövegkörnyezetéből“ – fogalmazott Stefanek.
(MTI)