Cenzúrázza az AI-alapú chatbotokat az NVIDIA

Olyan szoftvert adott ki az NVIDIA, amellyel meggátolható, hogy a chatbotok felelőtlen kijelentéseket, válaszokat adjanak.

A generatív AI világában már most óriási probléma, hogy hitelesnek és valódinak tűnő szöveget, adatot közöl egy chatbot, miközben az valótlan, hamis, kitalált, szerkesztett, félrevezető vagy téves – pont emiatt kapott kiemelt prioritást a kategória mielőbbi komoly törvényi szabályozása az USA-ban és az EU-ban is.

Várható volt, hogy a tech cégek még a törvényi szigor előtt megpróbálnak javítani a helyzeten. Az NVIDIA kezdi a sort: olyan szoftveres eszközöket tett elérhetővé, amelyekkel a chatbotok válaszai alapvetően cenzúrázhatóak (így figyelhetnek a fejlesztők a válaszokra).

Az NVIDIA az AI-robbanás legfőbb partnere is kiszolgálója, de ők is úgy vélik, hogy a chatbotok kiszámíthatatlanok és olyan dolgokat mondanak, amiket a fejlesztők nem szerettek volna. A Microsoft a visszaélések és hasonló válaszok miatt például lekorlátozta a Bing keresőben a hosszabb beszélgetéseket. A kéretlen válaszoktól mentené most meg a cégeket az NVIDIA.

Persze másra is bevethető az újítás, például egy ügyfélszolgálatos chatbotnak megtiltható, hogy rivális termékeket említsen. Alapvetően a biztonsági háló felállítása lenne a cél, hogy a chatbot ne közöljön veszélyes információkat, ne segítsen fegyvereket gyártani vagy ne jelenítsen meg veszélyes linkeket. Az NVIDIA jelezte, szeretnének szoftveres eszközökkel reagálni a várható szabványokra, törvényekre, érkezzenek azok bárhonnan és bármilyen szinten.

Azóta történt

Előzmények