A ChatGPT-t fejlesztő OpenAI azt ígéri, hogy jelentős erőforrásokat és új kutatócsapatot szentel arra a célra, hogy az AI ne szabaduljon el, és biztonságos maradjon az emberek számára. Idővel magát az AI-t használnák arra, hogy önmagát felügyelje.
Ilya Sutskever társalapító szerint a szuperintelligencia-felhő hatalmas ereje az emberiség elerőtlenedéséhez vagy konkrét kihalásához vezethet. Jelenleg pedig nincs megoldás a szuperintelligens AI irányítására vagy befolyásolására, így meg sem fékezhető – tette hozzá.
Az embernél intelligensebb rendszerek ebben az évtizedben érkezhetnek a cég szerint, az embereknek pedig jobb megoldásokra van szükségük ezek kontrollálásához. Ezért gondoskodni kell arról, hogy az AI előnyös legyen az emberek számára.
Az OpenAI a számítási teljesítményének 20 százalékát fordítja erre a témára a következő 4 évben, és külön csapat felügyeli a kérdést. Az AI-rendszereket emberi visszajelzés alapján képeznék, majd fokozatosan maga a rendszer jutna el odáig, hogy folytassa a kutatást.
Több AI-szakértő szerint a terv alapvetően hibás, ugyanis az eredeti, emberi szintű AI is elszabadulhat, még mielőtt sikerülne a nagy problémákon dolgozni. Többek szerint azelőtt kell megoldani a kérdéseket, hogy emberi szintű intelligenciát akarnának építeni, mert már ezt sem tudják majd irányítani.
Az AI veszélyeit folyamatosan hangoztatják a kutatók és szakértők, mielőbbi szigorú szabályozásokat sürgetnek, nyílt leveleket írnak, amelyekben az emberiség kihalását emlegetik. A felmérések szerint az emberek többsége is ettől tart, túl a várt negatív hatásokon.