Keresés

Új hozzászólás Aktív témák

  • #40553216

    törölt tag

    válasz Rickazoid #46 üzenetére

    „csak a kapacitás arra, hogy megtanulják és eldöntsék végrehajtsák-e, de arra is, hogy felismerjék végrehajthatják-e.”
    És egy ilyen gép minek alapján mérlegelne egy olyan kérdésben, amelynek eldöntésére még a gépet létrehozó emberiség sem jutott el sok ezer, tízezer éves történelme során?

  • borg25

    senior tag

    LOGOUT blog

    válasz Rickazoid #46 üzenetére

    Arról beszélek, hogy egy robot csináljon jogi, erkölcsi, és biztonsági analízist. Ha a kért parancs ezek egyikébe ütközik, akkor megtagadhatja. Az embert ismerve biztos lesznek majd olyan törések, ahol ezek az analízisek ki vannak kapcsolva, vagy a küszöbérték messze el van tolva.
    Ahogy tanul az analízis is több tapasztalatot gyűjt pontosabb lesz. Egy parancs átmegy végrehajtható kategóriába, vagy tagadóba. pl ha már szexrobot, akkor nem, nem csináljuk a létre legfelső fokán, mert múltkor is leestél és eltört a könyököd.

    Ha végiggondolod, már jóval az öntudatra ébredés előtt meg kell tudnia hoznia a robotnak ezeket döntéseket. Amint a programjába beépítik ezeket az analíziseket, hogy olyanná váljon mint egy kés, ami ha érzi, hogy emberi bőrhöz ér, kicsorbul, vagy mint a Westworldben, a golyók csak gazdákra hatnak, emberekre nem.
    Azért, mert bármiből lehet fegyver, papírral is lehet ölni.

    Ha tanul, saját döntést hoz, öntudata van, mégis miért mondom fejlesztői felelősségnek? Mert az ember is felelősséget vállal a gyerekéért. Mikor megtudja, hogy a gyereke a keresett sorozatgyilkos, vagy kiköt 10 évre a fegyházban, kemény drogos, és az utcán q dolgozik, elgondolkodik, hogy hol nevelte félre? Mit tehetett volna másképp?

Új hozzászólás Aktív témák