Keresés

Új hozzászólás Aktív témák

  • Ren Hoek

    veterán

    válasz Fred23 #7 üzenetére

    Nyugi, ezt szerintem nem éljük meg. Mármint, hogy agyba lehessen AI-t ingegrálni.
    Bizonyos részek esetén hozzá lehet férni az idegrendszerhez, kortikális implantátumokkal (multielektród array, vagy esetleg optogenetikai implantátum)... de ezek az egyszerűbb motoros és szenzoros részei az agynak.
    A komplexebb memória,asszociációs kéreg stb.. ehhez már durván bele kellene nyúlni az idegszövetbe, egyben tönkretéve azt. Egyelőre elvben sem létezik olyan implantátum technológia, amivel ekkora részét lehetne manipulálni, kiegészíteni az agynak, ráadásul sejt /axon/dendrit szinten. Az idegrendszer nem úgy működik, hogy egy csatlakozón rácsatlakozol. Maga a funkció elválaszthatatlan a funkciótól, szóval a teljes kérgi részt, vagy thalamikus pályát kell sejt és axon szinten modulálni. Nincs egy UTP csatlakozó, ahol fel és letöltheted a stream-et :D

    Másrészt nagyon szigorú a szabályozás a kortikális chip-ekre, még beteg embereknek sem ültetik be (egyelőre) hosszabb ideig. Ráadásul a fejlett optogenetikai implantátumokhoz szükséges utólagos génmódosításra, vírusokkal vagy CRISPR-el... amit egészségeseknél szerintem nem engedélyeznek 100 éven belül sem.

    Bár rohamosan fejlődik az agy-gép interfész technológia, egy határt nagyon nehéz lesz megugrani, és ma még nem létező technológia szükséges ehhez.

    Pont ugyan így, a mostani machine learning neurális hálózatok, soha nem fognak öntudatra ébredni.
    Ráadásul nem lesz okosabb a rendszer attól mert több neuront integrálsz bele.

    Nagyon el kell rugaszkodni a sci-fitől, hogy olyan neurhálókból álló komplex rendszert képzeljünk el, amely képes bonyolult döntéseket meghozni, és az egyszerű súlyok változtásánál jóval bonyolultabb változtatásokat létrehozni magán (mint az agy teszi a dendritekkel, szinapszisokkal).

    Talán a virtuális agy szimulációban nagyobb realitást látok, mint ami a Transzcendensben is volt. Persze ehhez sok nagyságrenddel nagyobb compute kapacitás kell, vagy kvantum processzorok.

    Szerintem ez nem realitás a következő évtizedekben... (Az agychip semmiképpen)... az AI-ban már nem vagyok biztos, hogy nem hozhatunk létre ilyesmit. Ugyanakkor nagyon el kell eresszem a fantáziámat, hogy egy fix szuperszámítógépen futó AI, mégis hogy a rossebbe jutna ki a külvilágba? Itt ne a nyilvánvaló hülyeségre épülő Transzcendensből (Feltöltöm online lol), vagy a Skynetből induljunk ki.

    [ Szerkesztve ]

  • Ren Hoek

    veterán

    válasz Redneck #16 üzenetére

    Vicces, mi most éppen machine learninggel próbáljuk feltörni a látókéreg kódját egerekben :K

    Egyszerűen olyan komplexitású a sejtek tüzelési mintázata, hogy semmi más nem képes kinyerni az esszenciáját a működésnek. Valójában nem is fogjuk megérteni emberi ésszel, (mert nagyrészt fogalmunk sincs mit csinálnak a sejtek és fekete doboz lesz kb), viszont ha vissza akarjuk stimulálni mondjuk egy vak állatba, akkor feltehetőleg elegendő lehet a machine learning (capsule network, vagy a one-shot learning) által megfejtett és generált mesterséges patternek visszalövése. Lehet nincs is szükség lemásolni az eredeti működést, mert a mesterséges minta is azt váltja ki. Vagy épp a legdurvább bad-tripet haluzza az egér :)) ezt csak pár év múlva tudjuk meg. Mindenesetre egy alap kortikális látóchip születhet majd belőle... Viszont minél többet tudunk meg az agyról, annál kevésbé értjük a teljes képet :D Tényleg az ismert univerzum legkomplexebb szerkezete.

    [ Szerkesztve ]

  • Ren Hoek

    veterán

    válasz Madwe #20 üzenetére

    Valószínűleg az eredendően vak egereknek sehogy... ott a kéreg sem fejlődött ki rendesen.
    Viszont aki nem születésétől fogva vak, annak szerintem menthető lesz a látása idővel.

    Egy kis állandó neuro-HUD mondjuk tök jól jönne a sarokba, meg egy valódi VR a látókéregre kapcsolva... ha épp egy őserdőben akarok aludni a Wookie csajommal, akkor hadd tegyem már meg :B

    [ Szerkesztve ]

  • Ren Hoek

    veterán

    válasz apatyas #21 üzenetére

    Ahogyan korábban írták, ezek a chipek a dedukcióra vannak kiélezve, tehát soha nem fognak öntudatra ébredni. (MOD, gondolom nem erre gondoltál, hanem majd egy jövő AI chipre)

    Kicsit keverve is van a dolog, mert inkább a marketing hívja AI-nek... ez pusztán ML, machine learning megoldás. Bedobsz egy képvektort, kidob egy valószínűséget, hogy mi az. 80% axolotl, 15% kutya, 5% fókapénisz.

    Az ML hálók soha az életben nem fognak öntudatra ébredni. Ez inkább a szenzoros és magasabb rendű kérgekre hasonlít. Korai látás, ahogy kinyeri az feature-öket, az éleket stb... aztán összeállnak a nagyobb formák, alakzatok, mozgás... végül befut az asszociáció, hogy mit látunk, hallunk, érzünk.

    Ami még fényévekre van, hogy ezekből a szenzoros infókból, kiértékelt valószínűségekből felépítsen egy belső mozit az AI, na az már tényleg AI... a képet pedig kontextusba tudja helyezni, az információkból pedig leszűrjön komplex eredményeket... majd ezek alapján önállóan hozzon döntést.

    Na az utóbbi már kicsit tényleg aggasztó lehet, ha kiengedjük a netre, hadd elemezzen kedvére bármit. Igaz ezt még mindig bármikor lekapcsolhatjuk és nem tud fejlődni sem, ha korlátos a gép mögötte. Egyetértek, ehhez már replikálni kéne magát, egy félvezető üzemben kb...

    [ Szerkesztve ]

  • Ren Hoek

    veterán

    válasz Madwe #29 üzenetére

    A vicc, hogy közben ugyan olyan szuperszámítógép szintű bonyolult számításokat végez az agyuk, mint nekünk amikor itt filozofálunk az AI-ról :D

  • Ren Hoek

    veterán

    válasz Madwe #37 üzenetére

    Haha igen, régi szép idők... edzett vasbeton máj, teleport, minimál másnaposság. Sajátos időzónák.
    Bár nálunk az ökölszabály az volt, akkor van másnap ha felábredtél.
    Mod: Igazából belegondolva ugyan ezt írtad :DD

    [ Szerkesztve ]

  • Ren Hoek

    veterán

    válasz Auratech #40 üzenetére

    Na akkor már csak ezeket a nem létező nanobotokat kéne megtervezni :))

    Egy ilyen adóvevőnek gyakorlatilag egy baktérium tulajdonságinál is fejlettebbnek kell lennie.

    1. Navigáció és átjutás az agy-vér gáton. A lokalizációt hogyan lövöd be pontosan? Itt mikronos célzás kell, a funkció ismerete nélkül. (Sejtclusterezés)
    2. Pontos és intelligens stabil kötődés a neurális elemekhez
    3. Memória, CPU és egy akkora teljesítményű RF adó, amivel 100 millió 1 milliárd párhuzamosan működő nanobot képes működni, átjut a koponyán is a jel, kb zaj nélkül. Ha játszottál már elfiz elekródákkal, akkor tudod hogy ide egy brutális digitális zajszűrés kéne, méghozzá mikroseces tartományban.
    4. Akkora kakaó amivel képes egy AP burstot kiváltani, vagy blokkolni azt. Ilyen természetesen felejtős, így a ma használatos optogenetikai csatornákkal reálisabb.
    ...Mindezt képalkotás nélkül, úgy, hogy az agyműködés pl a látókéregben gyakran 95% spontán pattern. A jó ég tudja mit csinálnak azok a a sejtek.

    Amúgy vannak ma már rádiofrekvenciás optogenetikai elemek, amikkel távvezérelhetőek a sejtek, agyi területek. Nem kell feltétlen elektrofiziológiában gondolkozni. Ez tiszta sor, de egyedi IP, meg lokalizáció.... az olyan fejlett nanobot technológiát feltételez, hogy már régen egy csillaghajón tartunk a Pegazus felé :))

    Ami viszont mai eszközökkel is megcsinálható, 50 éven belül. Az az, hogy a perifériás idegekre és a látóidegre rákapcsolódunk egy optogenetikai implanttal, vagy valami nano array elektróddal. Ezzel már meg lehetne valósítani akár a Mátrixot is... persze még ez is nagyon scifi, de legalább a toolkit megvan hozzá.

    [ Szerkesztve ]

  • Ren Hoek

    veterán

    válasz Auratech #42 üzenetére

    Igen amúgy, amíg nem kezd el foglalkozni az ember ilyesmivel, addig sokkal nyitottabb, kreatívabb és tágabb látókörrel bír... :DDD de amikor már a 100-ik TB látókérgi fluoreszcens adattal szívsz, x. éve, és még mindig ott tartasz, hogy sz.ros álló és mozgó csíkokra is kb 60-90%-ban full random spontán pittyegnek az egér látósejtek, akkor elveszted kicsit a hited, hogy meg tudjuk fejteni a látást valaha... ráadásul az egész borzasztó bonyolult, mert már az egér elsődleges látó procija is mindenhonnan kap minden bemenetet... saját mozgás, hallás, stb... naívan azt hittem, ha a szőke nő képét ráküldöd, akkor szőke nőt fog látni. Hát nem :D Az első neurhálós gépi tanulásos elemző eredmény azt hozta ki, hogy vagy nem lát semmit az egér, vagy semmi köze a látott képernyőképnek az agysejtek működéséhez.

    És ez még csak a látás, ahol elméletben kalibrálni lehetne a dolgot, hiszen szép mapping van elvileg, és a vetített kép alapján lehet a feedback szerint finomhangolni. Elméletben... gyakorlatban az idgrendszer alap kódja időbeli és frekvenciamintázata (a belső világunk) adja a fő patterneket, a látott kép sokkal kevésbé befolyásolja... persze még a szenzorokat fejleszteni kell nagymértékben. Szerintem a szőke nő képe csak ezt perturbálja meg egy hangyányit :)

    Na de mi van a memóriával, érzelmekkel stb... ahol nincs az a jóisten aki megmondja, mi történik, vagy mit kéne látni a tüzelési mintákból.

    Szóval remélem az én életemben még közelítünk legalább a látáshoz.

    [ Szerkesztve ]

Új hozzászólás Aktív témák