Keresés

Új hozzászólás Aktív témák

  • Kasya

    nagyúr

    válasz borg25 #43 üzenetére

    Velük mi van?
    Az állatkínzást is büntetik.

    És mit tartasz olyan MI-nek, aminek elfogadod a nem választ?

  • Rickazoid

    addikt

    válasz borg25 #43 üzenetére

    Amelyik gép raktárakat tud felgyújtani, aligha szexrobot. A kérdés pedig azért itt merül fel, nem az ipari gépeknél, mert a valamilyen emberi társat helyettesítő megoldás eleve úgy kerül programozásra, hogy legalább utánozza az emberi viselkedést, emellett tanuljon és gondolkodjon. És itt jön a képbe, amit írtam, hogy amikor nem jelenthető ki egyértelműen, hogy nem él vagy hogy nincs öntudata, akkor mondhat nemet. Ez egy nagyon egyszerű logikai feltétel, amihez nem kell definiálnod az életet vagy az öntudatot, csak el kell ismerned, hogy nem rendelkezel kellő információval egyik állapot beazonosításához sem. Az ismertebbek közül IBM Watson már erre a területre merészkedett, csak még nem merik feszegetni ezt a kérdést, legalábbis nem publikusan.

    Te egy egész más irányba terelted a gondolatmenetet, a programok felhasználóinak és programozóinak felelősségre vonhatóságának irányába. De itt nem erről van szó, itt már olyan rendszerekről van szó, amik saját magukat programozzák az őket ért hatások alapján. Vagyis tanulnak. Ezekben a rendszerekben nem lesz "öl parancs", csak a kapacitás arra, hogy megtanulják és eldöntsék végrehajtsák-e, de arra is, hogy felismerjék végrehajthatják-e. Nyilván, ha valaki egy ilyen rendszert károkozásra tanít, akkor ő a bűnös, nem a programozó, aki megírta a keretprogramot, de nem tudott egy szeptillió biztonsági programot köré építeni.

    Erkölcstelen csíkot húzni a másik krumplifőzelékébe csak azért, hogy legyen egy szünet.

Új hozzászólás Aktív témák