Keresés

Új hozzászólás Aktív témák

  • borg25

    senior tag

    LOGOUT blog

    válasz Rickazoid #42 üzenetére

    Hogy definiálod az élőlény fogalmát? Ha úgy kezdődik, hogy szén alapú kémiai.... akkor már kizártad. Öntudat? Tudtommal sok állat tudatában van a létezésének, képes érezni (szeretetet, félelmet stb) felismeri önmagát. Velük mi van?

    Erkölcsi oldal? Ha nem is fejlett, nem is tökéletes M.I., akkor is képessé válhat ölni, fájdalmat okozni, pusztítani, törni, zúzni. Előbb semmint az általad megadott feltételeknek eleget tenne. Végre kell-e hajtania az öl parancsot, vagy a gyújtsd fel a raktárat, mert a gazda azt mondta? Ha végrehajtja mi van? Kié a felelősség? A parancsot adóé, vagy a programozóé? Ha a kár egy véletlen parancsé igen hamar a programozó lesz a hibás, hogy miért hagyta. De egyébként is: Amerikában nagy divat, hogy a hülye felhasználó hibája a gyártó hibája, hogy miért hagyta, miért nem szólt. Lsd a gyártó a hibás, elvégre nem írta, hogy a macskát nem lehet a mikróban szárítani, vagy vezetés közben a lakókocsiban hátramenni.....
    Szóval igen hamar a programozó lenne a hibás a parancs nem megtagadásából eredő károkért. De ha nem is vonnák jogi felelősségre a programozót/céget, az emberben csak megszólalna a lélek, hogy mi lett volna, ha berakok egy if then echo "Aha, igen, persze, hülyének nézel? Felejtsd el!" sort a kódba.

    Tehát a válasz, egyértelműen: IGEN. Mondhat nemet.

    [ Szerkesztve ]

  • #40553216

    törölt tag

    válasz Rickazoid #46 üzenetére

    „csak a kapacitás arra, hogy megtanulják és eldöntsék végrehajtsák-e, de arra is, hogy felismerjék végrehajthatják-e.”
    És egy ilyen gép minek alapján mérlegelne egy olyan kérdésben, amelynek eldöntésére még a gépet létrehozó emberiség sem jutott el sok ezer, tízezer éves történelme során?

  • borg25

    senior tag

    LOGOUT blog

    válasz Rickazoid #46 üzenetére

    Arról beszélek, hogy egy robot csináljon jogi, erkölcsi, és biztonsági analízist. Ha a kért parancs ezek egyikébe ütközik, akkor megtagadhatja. Az embert ismerve biztos lesznek majd olyan törések, ahol ezek az analízisek ki vannak kapcsolva, vagy a küszöbérték messze el van tolva.
    Ahogy tanul az analízis is több tapasztalatot gyűjt pontosabb lesz. Egy parancs átmegy végrehajtható kategóriába, vagy tagadóba. pl ha már szexrobot, akkor nem, nem csináljuk a létre legfelső fokán, mert múltkor is leestél és eltört a könyököd.

    Ha végiggondolod, már jóval az öntudatra ébredés előtt meg kell tudnia hoznia a robotnak ezeket döntéseket. Amint a programjába beépítik ezeket az analíziseket, hogy olyanná váljon mint egy kés, ami ha érzi, hogy emberi bőrhöz ér, kicsorbul, vagy mint a Westworldben, a golyók csak gazdákra hatnak, emberekre nem.
    Azért, mert bármiből lehet fegyver, papírral is lehet ölni.

    Ha tanul, saját döntést hoz, öntudata van, mégis miért mondom fejlesztői felelősségnek? Mert az ember is felelősséget vállal a gyerekéért. Mikor megtudja, hogy a gyereke a keresett sorozatgyilkos, vagy kiköt 10 évre a fegyházban, kemény drogos, és az utcán q dolgozik, elgondolkodik, hogy hol nevelte félre? Mit tehetett volna másképp?

Új hozzászólás Aktív témák