Iparági összefogás a túl okos fegyverek ellen

A gesztus szép, a félelem jogos, de erősen kérdéses, hogy egy nyílt levél mennyit ér a katonák és a politikusok kívánságaival, vagy a kutatói hiúsággal szemben.

Hirdetés

Habár sokkal szélesebb körű mozgalomról van szó, a legtöbben a mesterséges intelligencia szabályozásáért kampányoló marketingzseni, Elon Musk megszólalásaiból ismerhetik azt a kezdeményezést, mely bizonyos mértékig korlátozni kívánja az AI-re épülő fegyverek, fegyverrendszerek fejlesztését.

Ez a törekvés és szervezkedés újabb mérföldkőhöz ért, ugyanis a Stockholmban zajló nagy szakmai találkozón (International Joint Conference on Artificial Intelligence – IJCAI) sokan csatlakoztak, így mára már 2400 AI-kutatással foglalkozó szakember, illetve 90 ország 150 vállalatának képviselője írt alá egy nyílt levelet, illetve felszólítást a világ kormányainak címezve (ez a levél már korábbi, de egyre bővül az aláírók száma). E nyilatkozatban arra hívnak fel, az érintett kormányok, kutatási intézmények és technológiai vállalatok haladéktalanul alkossanak meg egy olyan erős szabályrendszert, mellyel korlátozni lehet a „halálos autonóm fegyverek” fejlesztését és gyártását.

A konferenciát a Future of Life Institute szervezte, melynek elnöke az MIT professzora, Max Tegmark, aki örömét fejezte ki az aláírók nagy számát illetően, mivel abban reménykedik, hogy ilyen széles körű iparági összefogás hatásos nyomásgyakorlás lehet. Majd elmondta azt, amit Elon Musk is szokott: az AI hatalmas lehetőség az emberiség számára, ám ha rossz célokra használják fel, az végzetes lehet. A legnagyobb félelem az önálló döntési jogkörrel felruházott AI-rendszerek alkalmazása a hadviselésben (magyarul: az önálló célkiválasztással és tűzparanccsal rendelkező fegyverek bevetése), bár ezek fejlesztése jelenleg még igencsak alacsony szinten áll.

Előzmények