Új hozzászólás Aktív témák
-
válasz Rickazoid #42 üzenetére
Hogy definiálod az élőlény fogalmát? Ha úgy kezdődik, hogy szén alapú kémiai.... akkor már kizártad. Öntudat? Tudtommal sok állat tudatában van a létezésének, képes érezni (szeretetet, félelmet stb) felismeri önmagát. Velük mi van?
Erkölcsi oldal? Ha nem is fejlett, nem is tökéletes M.I., akkor is képessé válhat ölni, fájdalmat okozni, pusztítani, törni, zúzni. Előbb semmint az általad megadott feltételeknek eleget tenne. Végre kell-e hajtania az öl parancsot, vagy a gyújtsd fel a raktárat, mert a gazda azt mondta? Ha végrehajtja mi van? Kié a felelősség? A parancsot adóé, vagy a programozóé? Ha a kár egy véletlen parancsé igen hamar a programozó lesz a hibás, hogy miért hagyta. De egyébként is: Amerikában nagy divat, hogy a hülye felhasználó hibája a gyártó hibája, hogy miért hagyta, miért nem szólt. Lsd a gyártó a hibás, elvégre nem írta, hogy a macskát nem lehet a mikróban szárítani, vagy vezetés közben a lakókocsiban hátramenni.....
Szóval igen hamar a programozó lenne a hibás a parancs nem megtagadásából eredő károkért. De ha nem is vonnák jogi felelősségre a programozót/céget, az emberben csak megszólalna a lélek, hogy mi lett volna, ha berakok egy if then echo "Aha, igen, persze, hülyének nézel? Felejtsd el!" sort a kódba.Tehát a válasz, egyértelműen: IGEN. Mondhat nemet.
[ Szerkesztve ]
-
#40553216
törölt tag
válasz Rickazoid #46 üzenetére
„csak a kapacitás arra, hogy megtanulják és eldöntsék végrehajtsák-e, de arra is, hogy felismerjék végrehajthatják-e.”
És egy ilyen gép minek alapján mérlegelne egy olyan kérdésben, amelynek eldöntésére még a gépet létrehozó emberiség sem jutott el sok ezer, tízezer éves történelme során? -
válasz Rickazoid #46 üzenetére
Arról beszélek, hogy egy robot csináljon jogi, erkölcsi, és biztonsági analízist. Ha a kért parancs ezek egyikébe ütközik, akkor megtagadhatja. Az embert ismerve biztos lesznek majd olyan törések, ahol ezek az analízisek ki vannak kapcsolva, vagy a küszöbérték messze el van tolva.
Ahogy tanul az analízis is több tapasztalatot gyűjt pontosabb lesz. Egy parancs átmegy végrehajtható kategóriába, vagy tagadóba. pl ha már szexrobot, akkor nem, nem csináljuk a létre legfelső fokán, mert múltkor is leestél és eltört a könyököd.Ha végiggondolod, már jóval az öntudatra ébredés előtt meg kell tudnia hoznia a robotnak ezeket döntéseket. Amint a programjába beépítik ezeket az analíziseket, hogy olyanná váljon mint egy kés, ami ha érzi, hogy emberi bőrhöz ér, kicsorbul, vagy mint a Westworldben, a golyók csak gazdákra hatnak, emberekre nem.
Azért, mert bármiből lehet fegyver, papírral is lehet ölni.Ha tanul, saját döntést hoz, öntudata van, mégis miért mondom fejlesztői felelősségnek? Mert az ember is felelősséget vállal a gyerekéért. Mikor megtudja, hogy a gyereke a keresett sorozatgyilkos, vagy kiköt 10 évre a fegyházban, kemény drogos, és az utcán q dolgozik, elgondolkodik, hogy hol nevelte félre? Mit tehetett volna másképp?
Új hozzászólás Aktív témák
- Nem indul és mi a baja a gépemnek topik
- HTPC (házimozi PC) topik
- Házimozi haladó szinten
- Mazda topik
- Rövid előzetesen a S.T.A.L.K.E.R. 2: Heart of Chornobyl
- Kerékpárosok, bringások ide!
- Anglia - élmények, tapasztalatok
- Battlefield 2042
- World of Tanks - MMO
- Vezetékes FÜLhallgatók
- További aktív témák...
- Creative Hybrid Pro Classic (Egyszer kipróbált, garanciális)
- iPhone 15 Pro 128gb Natúr Titanium, bontatlan, független
- ÚJ Apple Watch Ultra 2 GPS + Cellular 49mm - titántok, alpesi szíj
- 8/16GB memoriák
- APPLE MacBook Air 2020 13" Retina - M1 / 8GB / 256 GB SSD / MAGYAR / 96% akku, 81 ciklus / Garancia