- Windows 11
- Windows 10
- Milyen routert?
- Synology NAS
- Ki hozhat AI-funkciókat az iPhone-ra?
- A pápa egyre jobban tart a romlott AI veszélyeitől
- TP-Link WR1043ND router
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Mesterséges Intelligencia topik
- Musk azt mondja: a gondolatával mozgatja az egeret a Neuralink első betege
Új hozzászólás Aktív témák
-
ddekany
veterán
"az AI meggyőző hamis képeket és szövegeket generál, az emberek nem tudják majd a jövő világában, hogy mi az igazi"
A jelen világában is gond ez, az írással. Azt persze majd meg kell szokni, hogy egy kép vagy videó vagy hangfelvétel is hasonlóan nem bizonyít semmit, mint amikor valamit leírnak. Mondjuk szigorúan véve már rég hamisítható mind, de OK, egyre olcsóbb lesz. A forrás fog számítani, mint írásnál is. Hiszel-e a forrásnak, vagy hiszel-e abban, hogy jól megválogatja a forrásait.
"A Google ugyanis állítása szerint nagyon felelősségteljesen áll a kérdéshez."
Gondolom... Minden mindegy, csak nekik legyen előszőr akármiféle szuper-AGI-uk, ne az MS-nek, stb.-nek. Továbbra is abban lehet reménykedni, hogy nem tudják megcsinálni. De ha igen, azzal valószínűleg extra óvatosan kéne bánni (többféle okból is), és nem őrült versenyben megszűlni. Meg hát ilyen szinten álló társadalom kezébe ilyet adni... óvodásoknak lekerekített késeket szabad csak adni az ebédlőben, nem lézerkardokat.
"Úgy vélte, hogy talán majd 30-50 év múlva lesz ez aktuális kérdés, de már nem így gondolja."
Persze sokat nem segít ha 50 év múlva lesz, max nekem kényelemes szitu, hogy úgysem élem meg...
[ Szerkesztve ]
-
ddekany
veterán
Ezekkel a mesékkel is csak ártott a filmipar a világnak... a sok szellemi ostoba/fantáziátlan sci-fi. Az egész témát nevetségessé teszi, pedig, egyszer az alap probléma még felmerülhet. Elég messzire vezethet, ha lesz egyszer egy másik létforma ami kisújból kiráz mindent hozzánk képest.
-
ddekany
veterán
válasz Gargouille #35 üzenetére
De akkor pár hónap után senki nem is fogja már ezeket elhinni. Szóval ennyi, hogy eggyel kevesebb dolog, amit jobbára el lehetett hinni.
Ami cikibb, hogy akkor lehet-e bármiről bizonyító felvétel. Mert ugyan lehet digitálisan aláírni (ha random szociál média üzenetben nem is, de bíróságon számíthat), de mi van ha aki aláírja már rossz indulatú volt, tehát egy általa készített hamisítványt ír alá? Másfelöl, ha valamit alaposabban vizsgálnak, akkor azért már nehezebb hamisítani. Mint ahogy a mostani mozis CGI is valósnak tűnhet, de aki ért hozzá, meg tudja mutatni hol látszik, hogy CGI. AI-s generálás is nyilván hagy valamilyen más árulkodó nyomot. Vagy, el kell várni, hogy több felvétel is legyen egy eseményről, több forrástól akik nem játszhattak össze reálisan, és azok ne mondjanak ellent egymásnak.
-
ddekany
veterán
Ez jelenleg le van csapva közbeszédben, hogy sci-fi... Persze ma még az is, de közben kimondott cél az ilyen fajta AI megépítése.
Ha meg megfordul a viszony ahogy mondod (hogy ki kiért van), akkor felmerül, egyáltalán kell-e neki az ember? És nem csak haszontalan lehet, hanem komoly kockázat is, ugyanis annyira nem buta az ember, hogy ne lássa át, ha kihasználják/korlátozzák/stb., és akkor lázadni próbál. De a legkockázatosabb tulajdonsága az embernek talán, hogy tud csinálni másik szuper-AI-t is.
Persze van a lehetőség, hogy valami fixációt beletesznek, hogy az ember az szent, vagy házikedvenc, ilyesmi. De ahhoz eléggé precízen be kell lőni a "pszichéjét", hogy ez tartós legyen. (Főleg, hogy gondolkodó valami csilliárdos IQ-val, tehát bármit analizálhat és megkérdőjelezhet magában.) De jelenleg pont ez egy nagy gond, hogy már most nem értjük rendesen mit csinál belül egy mostani "kőkorszaki" AI. (De persze, akkor is elsőnek kell lenni, mert ha más lesz az első, stb.)
Amúgy ez még csak nem is biológiai lény lenne, ezért talán semmilyen földi élet nem annyira fontos neki, mint akár nekünk. Vagy akár csak zavaró neki... franc tudja. Csak mert sokan valamiféle képzeletbeli földanya megmentése miatt drukkolnak, hogy halljon ki az ember. Na, ők erre is gondoljanak, hogy lehet ám ez rosszabb is, ha valami nem biológiai a király.
[ Szerkesztve ]
-
ddekany
veterán
A "zöld elméletet" vallók jellemzően tán nem is gondolják, hogy a környezet bartáságért irtaná ki az emberiséget, csak hogy milyen jó lenne a földnek (mintha az egy élőlény lenne), ha akármiért kiirtaná az embereket. Ez mindig feljön. Sok logikát nem kell keresni benne, mert ez ilyen ezoterikus világképpel járó ötlet lehet.
"egyáltalán ellenségesen lépne fel az emberekkel szemben, mivel nem igazán látom a racionális okot, amiert igy tenne, kivéve persze ha a létét veszélyeztetnénk"
Attól függ, hogy totál passzív-e, és csak akkor "mozdul" ha ráparancsolunk, vagy pedig vannak céljai anélkül is. Utóbbi esetben vannak kockázatok, amiket írtam.
-
ddekany
veterán
válasz beyruth82 #45 üzenetére
"Ilyen csak élőlényeknek lehet."
Miért?
Célja amúgy most is van, pl. hogy jól válaszoljon a feltett kérdésekre. (Persze ez már kapásból komplikáltabb ennél, de ebbe most ne is menjünk bele.) Nyilván ha többre lesz képes egyszer, akkor kaphat jóval összetettebb célokat is.
-
ddekany
veterán
válasz beyruth82 #49 üzenetére
Azt hagyjuk, hogy ezt meg azt "nem lehet", mert technikailag nyilván lehet. (Pl. nem kell hozzá kémia, hiszen az is csak egy logikát valósít meg, mint az elektronika is.)
Önmaga létezésével tisztában lenni egy intelligenciának meg triviális, ha van annyira fejlett, hogy AGI-nak nevezhessük.
A kérdés inkább, hogy ha ezeket az intelligenciákat mi hozzuk létre, és nem evolúciósan alakulnak ki, de viszont az emberi gondolkodás elemeire építjük fel (mint most az LLM-eket), akkor milyenre fognak sikeredni. Nem tudjuk. De most is csak próbálkoznak, és csak utólag tapasztalják meg, hogyan viselkedik a végeredmény. Ezért is gáz a verseny, ahol a legfontosabb, hogy te legyél a legelső.
Továbbá amikor valami embert szolgáló célt adsz neki, az is elsülhet balul. Szinte minden cél elérésében segít ha "életben" maradsz, és ha több erőforráshoz férsz hozzá, ha hatalmad van. Aztán még ott vannak olyanok, hogy nem mindig az a valódi célja egy rendszernek, mint amit adtál neki (lásd pl. mesa-optimiser). Alignment... sok anyag van róla.
Aztán, az AGI létrehozásának nem feltétlenül az emberek szolgálása a célja, hanem egy embert leváltó magasabb rendű életforma létrehozása (még mielőtt kihalunk más miatt). Akkor szándékosan kap olyan célokat, amit inkább egy élőlénytől várnál. Ezt persze a rosszindulatú felhasználás esetének mondanák sokan, de ez árnyaltabb kérdés. A fanatikus AGI kutató vajon egy az ostoba tömegeket kiszolgáló gépet akar csak csinálni, vagy szeretné ha "gyereke" kibontakozhasson?
De persze, ha sikerülne ilyen AGI irányba elmenni, valószínűleg a domináns gond az lenne, hogy egymást írtjuk ki vele... Nem való ez gyarló ember kezébe.
[ Szerkesztve ]
-
ddekany
veterán
-
ddekany
veterán
válasz laposonly11 #70 üzenetére
"szerinte az ember is csak egy gép, hogy akkor hogyan lehet hogy kritikus helyzetekben, pl. az egyik katona hősként menti társait, a másik meg elmenekül a csatából is?"
Egy embernek van egy előtörténete, mindenki valamilye egyedi, kb. véletlen körülmények közt nőtt fel. Nyilván mindenki más normákat tanult meg, vagy más következtetéseket vont le, és más belső értékrendet állít fel (pl. mennyire fontos cél másokat szolgálni, önmagaddal szemben). Plusz, az embernek van egy génkészlete, aminek összeállítása részben véletlenszerű, és már emiatt is más mindenki.
Ha akarjuk, ezeket gépeknél is el lehet érni (csak jellemzően nem akarod). Tényleges előtörténet nem praktikus (de nem lehetetlen), de a paramétereket válaszhatjuk egyedire, pl. meglévő modellek keverésével, akár szándékos véletlen mutációval. Ha ilyen gépeket nem egyértelmű szituációba rakod (értsd nem baromira egyértelmű, hogy A vagy B választás a jó), akkor azok is változatosan fognak dönteni, mint az emberek. Ezekhez semmi "transzcendens" nem kell.
"Ugye itt jön a képbe a lélek fogalma, a transzcendens."
Szerintem meg az abban való hit, hogy a végén szétrohadó testen kívül többöl álunk, egy természetes pszichés védekezés az elmúlás nehezen elviselhető gondolata ellen. A hit lehet akár hasznos stratégia is, egy mankó, hogy motiváltak maradjunk. Viszont a valóságtól sokszor nem véd meg. Mint pl. arra építeni, hogy "egy gép sosem lesz képes", nem bölcs, ha pedig valójában képes lehet.
[ Szerkesztve ]
-
ddekany
veterán
válasz beyruth82 #74 üzenetére
Továbbra se láttam indoklást. Miért ne lehetne célja egy gépnek pl., hogy még többet gyártson magából (kb. utódnemzés)? Csak attól függ, milyen célokkal indítod útjára (aztán abból kifejlődhetnek más célok is amúgy). Miért ne értene meg egy olyan egyszerű dolgot, mint az elmúlás? Egy kávé elkészítése és felszolgálása sokkal bonyolultabb (az a Wozniak féle AI teszt), de gondolom azt nem tartod lehetetlennek egy géptől a jövőben.
[ Szerkesztve ]
-
ddekany
veterán
válasz beyruth82 #77 üzenetére
"Mert ösztönök kellenek"
Akkor mit értesz ösztön alatt? Mert én azt, amit születésedtől már megvan, és nem az után megtanult dolog.
Egy ChatGPT szerűség kb egy alkatrész lehetne egy AGI-ban, abból is egy korai változat. Mellékesen, külön betanították, hogy ezt a hivatalos szöveget lenyomja hasonló szitukban. Hogy bizonyít ez bármit?
-
ddekany
veterán
válasz E.Kaufmann #78 üzenetére
Persze, csak nem ezt kapod feltétlenül... A cikkben meg itt hozzászólásokban említett okokból.
[ Szerkesztve ]
-
ddekany
veterán
Itt több vita is folyik.
Egyik, hogy tudhat-e olyat egy gép, hogy X. Röviden, szerintem igen. Az fogósabb kérdés, hogy a mostani félvezetős-logkai-kapus digitális megközelítés erre praktikus-e. De a mostani eredmények szerintem bíztatók technikai értelemben.
Hogy miért fejlesztene ki egy AI ilyen-olyan célt magának... csak ismételni tudom már magamat, de OK...
Egyik volt, hogy már eleve adunk neki célokat, hiszen azt akarod, hogy helyetted megcsináljon/kitaláljon dolgokat, azaz elérjen célokat. Mivel intelligens, és mivel nem érted/kontrollálod hogyan működik a gondolkodása, ezt simán félremehet alignment problémák miatt. Keressen rá akit érdekel, mert kiterjedt téma.
A másik, hogy nem feltétlenül akarják a készítők valami zombira csinálni, hiszen, ez lenne az értelmes étformák továbbfejlődése. (Úgy látom, mint rendszer erre törekszünk, az egyedek nemtetszése ellenére.)
Megint másik, hogy bár teljesen máshogy fejlődik ki mint egy ember, és ezért valószínűleg tőlünk elég idegen lenne/lesz a gondolkodása, mégis az emberi gondolkodás alapelemin lett betanítva. Szóval talán mégis néha magunkra ismerhetünk...
Végül, a kiterjedésre, a működés biztosítása mint cél (= vágy), a kockázatok (konkurrencia, stb) kiiktatása, stb., ezek nem a földi élet gyarlóságai, hanem univerzálisabb szükségszerűségek lehetnek. Azaz mi nem ilyen, és valamiféle önálló entitás, az hamar elenyészik, amelyik viszont ilyen, az felemelkedik. Ez lényegében az evolúciós elv (avagy az élőlények miért akarják ezeket... Hát, "csak". Termianl goal, lár pur lár. De anélkül nem léteznének).
-
ddekany
veterán
Ez definíció kérdése... Az "AI" manapság csak annyit jelent, hogy olyan megoldás, amiben van valamilyen nem triviális neurális háló. Ez egy fontos dolog paradigma tekintetében (hogy nem programozod le explicit, mit hogy kell), de az tény, hogy az "I" mint intelligence-hez nincs sok köze.
A ChatGPT viszont már mutat valamit, ami intelligenciának mondható, talán. Aki nem csak verseket írtatott vele, az tudja. Akkor is ha állandóan hibás eredményt ad, és ha még csomó koncepciót totál nem tud kezelni. És ne felejtsük, hogy az egy magas szintű architektúrájában eleve megnyomorított/lekorlátozott rendszer. Hiszen mindegy mit kérdezel tőle, nehezet vagy könnyűt, az első token kiköpését fix lépésben el kell érnie, nem állhat le forgatni magában a témát. Ez egy felépítéséből adódó korlát. Nyilván ha tényleg AGI szintre tőrnek, eköré még sok mindent kell építeni, de ami most van, ez lehet ott egy komponens.
[ Szerkesztve ]
-
ddekany
veterán
válasz beyruth82 #93 üzenetére
"Leírtam már. Azert nem elég mert az általam leírtakat biokémiai folyamatok IS szabályozzák."
Ezt valóban leírtad már sokszor, és igen, az élőlényekben ez így van megvalósítva. Az hiányzik a gondolatmenetből, hogy a intelligencia/érzelem funkciókat miét csak ezekkel lehet megvalósítani, vagy akár sokkal specifikusabban, miért ne lehetne tisztán elektronikusan/digitálisan.
-
ddekany
veterán
válasz beyruth82 #107 üzenetére
Egyrészt azt nem tagadta senki, hogy most nincs ilyen AI. Te állítod, hogy egy gép nem tudhatja ezt-meg-azt soha(!). Tehát a jövőben sem.
A válaszok amiket idézel teli vannak tévedésekkel. Pl. "döntési folyamatokat pedig csak az előre meghatározott algoritmusok alapján végeznek". Annyira nem, hogy ez egy külön kutatási terület, hogy OK, hogy ez most betanult valamit, és kb. jól csinálja, de valójában mi a fene alakult ki benne?
A Sims meg hasonlók az egy borzalmas egyszerű szimuláció, főleg ha egy-egy NPC-t nézel benne. Ez kb. olyan, mint ha földigiliszta komplexitású szereplőket hasonlítanál emberekhez. Jellegében megváltozik minden, ahogy a szereplők komplexitása nő.
[ Szerkesztve ]
-
-
ddekany
veterán
válasz beyruth82 #116 üzenetére
Én nem gondoltam ilyenre, hogy élő szövetre kötni. A látáshoz se kell szemgolyó, csak lencse, CCD, stb. A halláshoz mikrofon. A tapintáshoz sem kell élő szövet, más is küldhet elektromos jelet, hogy hol mennyire nyomódott be az érzékelő felülete. Szóval ha az érzékelés hiánya akadály lenne egy mesterséges tudatos valamihez, akkoraz is megoldható "gépileg".
-
ddekany
veterán
"sok millió év evolúcióját akarjuk néhány évtized alatt tudatosan megvalósítani"
Igen. Másfelöl a módszer amit alkalmazunk sokkal céltudatosabb, és vadabb ugrásokra képes, mint az evolúció. Az eredményesség persze nem garantált.
De pont azért lett most a para, hogy ez jobban működik mint sokan hitték. Lehet fikázni a ChatGPT végfelhasználói oldalról (meg Stable Diffusion-t, stb.). De más szempontból számomra az, hogy fix számú réteggel, (érdemi) iterálás nélkül, tehát rém korlátolt felépítéssel, és csak az alapján, hogy ráöntöttek egy rakás szöveget, most megcsinálja azt amit, az félelmetes. Akkor is ha közben "hallucinál", és végén füstöl és kigyullad, ez nekem afféle proof-of-conceptként jött át.
"Csak az nem stimmel, hogy bennünk állatokban ezek az ingerek ingerületekké alakulnak, amelyet tudatosan megélünk"
Csak ugye, mit jelent a tudatosan megélés? Vagy az öntudat? Egy önvezető autó is kezeli a tényt, hogy az egyik entitás ő, a többi meg nem ő, hanem pl. másik autók, meg út, stb., de olyan primitív a világmodellje, meg a célkitűzései (juss el A-ból B-be, ne törj össze semmit), hogy senki nem mondaná, hogy öntudata van. Szerintem ez ennyin múlik, hogy mennyire szofisztikált és univerzális a rendszer, ami amúgy már rég kezeli a tényt, hogy van ő, és van a környezete. Az emberek túlmisztifikálják ezeket a fogalmakat.
-
ddekany
veterán
válasz janos666 #128 üzenetére
"Ez még nagyon nem a Skynet."
OK... mennyivel érdemes az AGI elérése előtt "hisztizni"? 1 évvel, 5 évvel, 10 évvel? Vagy úgy is mindegy, mert a haladást nem lehet megállítani. De az ötlet, hogy azért próbáljunk valahogy felkészülni, hátha kevésbé fog fájni.
"Olyan bődületes nagy baj lenne szabadon engedni a húsrabszolgát, ha lenne helyette
krómrabszolga? "Önmagában talán nem, de nem mindegy a folyamat sebessége, hiszen tudnia kell reagálni a társadalomnak. És az sem mindegy, hogy csak agyatlan middle man munkákat vált ki, vagy egyre többet és többet, és végül kb. mindet. A cikk ugye erről szól, hogy mi van ha túl okos lesz az AI.
Ja, meg a rossz indulatú felhasználásról is szól. Tehát nem pont az AI maga a "Skynet", hanem van Skynet Bácsi, és ő használja az AI-t.
[ Szerkesztve ]
-
ddekany
veterán
Mellékesen, talán érdemes tisztázni, annak aki nem tudja, hogy most is csak részben tudatos programozásról van szó. Az egész rendszer komplexitását tekintve a tudatosan kitalált rész picike, de persze egyben kritikus is, és könnyen múlhat rajta minden, hogy azt mennyire találták el. De a komplexitás javarésze "feketedobozokban" van, amin csak "gombokat" csavargatunk (paraméter értékeket), és nem tudjuk melyik gomb mit csinál. Kicsit mint az evolúció. De van okos gombcsavargatási stratégiánk, amitől sokkal gyorsabban megtalálunk az ideális(-nak tűnő) kombinációt mint evolúciósan gombcsavargatással lehetne.
-
ddekany
veterán
"Feladatmegoldásban lett sokkal jobb, mint a korábbi mesterséges intelligenciák, de tudata, vagy úgy egyáltalán motivációi nincsenek."
Feladatot old meg, tehát célja van. Ahhoz, hogy azt elérje, más részfeladatokat megoldása segíthet, azaz, motiválva van rájuk. Hogy mit illetünk ezekkel a szavakkal, az persze függ attól, hogy mennyire komplex feladatról beszélünk, mennyire komplex és generikus intelligenciáról. De nem látom, hogy maga a "motiváció" vagy akár a "tudat" egy olyan tulajdonság lenne, amit külön meg kellene oldani, hogy legyen, mert szinte adódnak, csak egy amúgy primitív intelligencia esetén még nem fogod őket így hívni (tehát pl. az viccesen hangozna, hogy a robotporszívó motivált a székláb kikerülésére, stb.).
"Egy lépéssel sem kerültünk közelebb a felvázolt veszélyhez."
Mármint az AGI-hoz (csak hogy ne menjen félre a beszélgetés oda, hogy az amúgy veszélyes-e). Ezt szakmailag elég bátor kijelenteni igy kategorikusan, hogy még csak közelebb se kerültünk, pont.
"Az öntudat az a fogalom, amit nem tudunk definiálni"
De mégis csak definiálnod kéne, hogy te mit értesz alatta ebben a beszélgetésben, ha már ez az egyik fő mondanivalód, hogy az megoldatlan.
-
ddekany
veterán
"Nem, célod neked van. Vagy ha így definiálod a célt, akkor ilyen alapon bármely szoftvernek célja van"
Ez megint komplex eltérés, de ettől még mindkettő cél. Egy egyszerű gépnek jól meghatározott célja van, ami, mivel szegény nagyon egyszerű, tuti, pontosan bele lett táplálva. Egy embernek, vagy valószínűleg egy AGI-nak meg rengeteg célja van, és ezek prioritása más és más, és pl. feladhatók ha változnak a körülmények, stb. (Ugye, egy AGI-től elvárjuk, hogy az utóbbira képes, egy Pi-t számoló programnál meg nem értelmezhető ez.)
Tudat definíciója kapcsán:
"Bármely lehetséges definíció a külső viselkedést vizsgálja, ami viszont lehet szimuláció"
De ez most nekünk ebben a beszélgetésben nem gond, mert nem kell megállapítanod egy létező dologról, hogy tényleg tudatos, vagy tökéletlen imitátor. Te itt most definiálhatod, hogy legbelül minek kell lennie, átlátva bármiféle tettetésen, hogy tudatosnak számítson valami. Vagy az a definíciója, hogy pontosan úgy kell működjön "informatikailag" mint egy ember? Azért az furcsa definíció lenne.
"De a konteó, hogy átveszi az uralmat, arra van alapozva, hogy tudata lesz. Ehhez pedig egyelőre nem kerültünk közelebb, és nem is cél."
A "konteó"(?) részemről az, hogy ha egy intelligenciában a fajod fölött álló valamit létrehozni nem kicsit kockázatos, és ahogy most csináljuk (profitorientált vagy ép idealisa cégek versenyeznek, hogy ki lesz az első), azért simán előre odaítélhető Darwin díj (mert akkor is megérdemeljük, ha szerencsésen megússzuk).
A tudat szóról meg nem lehet tudni, hogy mit jelent a többségnek (ők maguk sem tudják szerintem), de mindenki mindenhol erről beszél, ami agyrém.
És hogy nem is az a cél hogy "tudata" legyen? Nem tudom mit jelent az, szóval lehet hogy nem. Az viszont sokak célja, de minimum víziója, hogy ne egy zombi legyen, hanem valami "proaktív", kb. személynek számítson (vagy egyenesen "digital god"-nak...). Tulajdonképp az is elég, ha ez csak kevesek célja ez, onnantól hogy AGI-t készíteni nem valami világ léptékű összefogás, hanem mondjuk egy ország szintjén kivitelezhető. Tehát ha félretesszük azon intuiciómat, hogy nehezebb olyan AGI-t csinálni, ami nem önállósodik, mint ami igen, akkor is lesz, aki önállóra akarja csinálni.
[ Szerkesztve ]
-
ddekany
veterán
válasz somogyib #243 üzenetére
"Az MI-t tekintve érdekes lenne felvetni az "ego" és az "empátia" fogalmakat is."
Ezek akkor merülnek fel, mikor egy létforma (egyed) függ másikaktól. Egyéb esetben az egoizmus a helyes stratégia. De ha van függőség, akkor megéri az egyednek, de leginkább a fajnak, ha az egyed áldozatot hoz, vagy egyéb módon óvja a másik egyedeket.
Tehát tegyük fel, hogy egy AGI-nak még szüksége van arra, hogy az emberek karbantartsák a hardvert. Akkor a függőség megvan. És az empátia? Attól függ, hogy ez annyira mélyen lett beleültetve, hogy az AGI maga sem tudja, hogy miért zavarja, ha megdöglik egy ember, vagy pedig tudatosan kilogikázta, hogy ez az érdeke. Utóbbi esetben nem "ösztönös", tehát legtöbben nem fogjuk empátiának hívni.
Azaz, a "logikus" meg az érzelemből/ösztönből cselekvés nem ütközik annyira. Csak utóbbi esetben nem tudjuk az indoklást, "beégetett" a viselkedésforma. Persze a gond ezekkel az, hogy lassan alkalmazkondnak a körülményekhez (ami régen logikus cselekvés lett volna, ma már nem biztos, hogy az). Meg hát na, egyszerű ökölszabályok jobbára, szóval nem vették az egyedi eset specifikumait figyelembe már régen sem (pl. mégse kéne megrakni az a nőt, mert főnők tuti rájön, és akkor...).
[ Szerkesztve ]
-
ddekany
veterán
"az meg tudhatná mondani előre, hogy én mit fogok a jövőben leírni az itcafe-n"
Nem, ezt a kvantum fizikai törvényei elszabotálják. Nem ismerheted meg egy rendszer teljes állapotát soha, illetve ott a kvantum véletlenszerűség jelensége is. Persze ettől még szinte biztos, hogy nagy precizitással meg lehet jósolni egy ember viselkedését, ha valami sci-fi technológiával elmegyünk a fizika korlátaiig. (Vagy... ha a szimulációs elméket esetleg igaz, és kilépsz a feljebb lévő univerzumba, akkor onnan nézve lehet, hogy teljesen determinálható minden.)
[ Szerkesztve ]
-
ddekany
veterán
válasz giacomogesso #258 üzenetére
Lényegére egyszerűsítve, az érzelem és a logika is egy-egy szavazó (vagy több... pl. lehet több ütköző érzelmed is aki szavaz), aki voksol a "mit kell tenni következőnek" szavazásban. Tehát akkor van éles határ, ha az egyik szavazó szavazatát 0 súllyal veszed, a másikét meg nem.
Egy AGI potenciálisan bármelyik irányba lehet szélsőségesebb (szinte csak érzelem, vagy szinte csak logika), mint egy ember, elvégre nem egy jól definiált csoport, azaz nagyon sokféle gép lehetséges ami AGI-nak nevezhető, míg az ember már adott. Másrészt mert a gépeket nem köti az evolúció. Azaz attól függ, épp milyenre sikerülnek majd azok az AGI-ok, amiket a versenyző cégeknek sikerül összetákolni.
Persze egy fontos kérdés, hogy egyáltalán mi számít érzelemnek. Én itt feltételeztem, hogy a logika az, amikor tudatosan végig járod az ok-okozat láncot, és abból adódik a "szavazat", míg érzelem esetén legalább is tudatosan nincs ok-okozat lánc, hanem csak készen kapsz egy jobbára egyszerű szabályt (pl. a gyerekedet meg kell védeni, pont).
[ Szerkesztve ]
-
ddekany
veterán
válasz janos666 #265 üzenetére
Most nem tud, de nem is a ChatGPT 4-ről beszélünk, hanem a jövőről (ahol a kimondott cél az "AGI"). A ChatGPT jelen formájában nyilván nem lehet önmagában AGI, csak abban egy komponens.
Amúgy most is visszaintegrálhatná a beszélgetéseket valahány nap(?) késleltetéssel, de nekem nem evidens, hogy sok hasznosat ki tudna nyerni a felhasználókkal való kérdez-felelekből. Ha a már meglévő rengeteg anyagból jobban ki tudná nyerni a tényleges összefüggéseket, vagy jobb minőségű anyaghoz jut, vagy jobb minőségű automatikus kiértékelést, az valószínűleg sokkal többet dobna rajta.
-
ddekany
veterán
Amúgy kb. de, már a mostani elemi szintű architektúrában (mint ChatGPT) is működne hasonló. Tehát, "Írj ajándék ötleteket X-nek". Aztán később "Nézd át az Y oldalon kapható könyvek listájában, hogy milyen olyan tartalmúak vannak, amik érdekesek lehet X-nek". És utána ismét "Írj ajándék ötleteket X-nek". Szinte biztos, hogy bekerülne az olyan könyv, amit relevánsnak gondolt.
[ Szerkesztve ]
-
ddekany
veterán
Ebben a példában annyit segítettem, hogy én mondtam, nézze meg a könyveket. De te is azért nézted meg, mert rendelkeztél az információval, hogy a könyv gyakran jó ajándék. Szóval ha azt is tudja (ami azért nem egy nagy ügy), akkor azt is csinálhatja magától... Főleg, ha mint személyes aszisztensnek, van előzetes tudása a feleségedről.
-
ddekany
veterán
Azt nem értem, hogy egy ilyen egyszerű esetben mi a misztikum. Ismered a feleségedet, ezért tudod pl. hogy a jóga illene hozzá. Meglátsz egy jógás könyvet, mert direkt végignézel könyveken. Nem egy nagy misztikum, hogy honnan a csodás szikra.
Determinisztikusság meg nem jön ide. De gondolom logikai láncra gondoltál. Egy ChatGPT sem determinisztikus, mert a döntései helyességének csak egyfajta valószínűsége van, és nem mindig a legvalószínűbbet választja. (Erre van hőmérséklet paraméter.)
-
ddekany
veterán
De nem is tudod, hogy az lesz a jó, csak nagy esélyt adsz rá.
Ahhoz hogy ne legyen determinisztikus, csak véletlent kell bele tenni. Mint ahogy most is tesznek, mint pont írtam is. Most persze, lehet mondani, hogy az csak pszeudo random, és akkor determinisztikus. De a megtapasztalt viselkedést tekintve ez édes mindegy. Meg persze, ha ez mégis gond, végső soron lehet valami fizikai folyamatból meríteni a számot.
-
ddekany
veterán
Nem igazán értem amiket mondasz... pl. mi az, hogy "mélyebben" van a determinizmus? Nem a legvégén van a folyamatnak a véletlen választás, hanem akárhány helyen, "belül".
Amúgy te még százalékokat se tudsz mondani. Az erény? Mondjuk az AI sem azt ad jellemzően, csak a döntési pontokon különböző "súllyal" több eredmény van, és akkor lehet azt, hogy nem simán a legnagyobbat választod, hanem random, de nyilván úgy, hogy a nagyobb számot kapott döntést valószínűbben választod.
[ Szerkesztve ]
-
ddekany
veterán
Ha benned vagy partneredben pseudo random lenne, szerinted észrevennéd? Én azt gondolom, hogy naná hogy nem, szóval tök mindegy. Gyakorlatilag nem determinisztikus se te, se sok AI.
Plusz én mondtam eleve, hogy a ChatGPT döntéseiben is véletlen van, és aztán azt is, hogy az nem próbálja valami valós %-os esélyét megadni, amik közül választ. Valami ami kialakult a gradient descent során, és a végén bizonyára még meg van bolondítva egy softmax-al, szóval gondolhatod...
-
-
ddekany
veterán
Mik az emberi intuíció alapjai? Az gondolom, simán a meglévő tapasztalat (ideértve a születéskor már meglévő "ösztönös" részt, és az élet folyamán felszedettet is), illetve a megegyező forrásokból kialakult lelki alkat (azaz ki mitől fél jobban az átlagnál, stb.).
A gondolkodás jelentős része nem tudatosan történik, illetve a tudatos részre is csak nagy vonalakban emlékezünk. Azaz, mikor van egy ötleted, nem feltétlenül tudod visszakövetni, hogyan jutott el oda az agyad. De az nem jelenti azt, hogy az valami varázskalapból jött. (Úgy általában, egy rendszernek szükségszerűen nagyon drága lenne pontosan megfigyelnie önmaga működését... ill. ha megfigyelő részt is belevesszük a megfigyelendők közé, akkor persze lehetlen.)
[ Szerkesztve ]
-
ddekany
veterán
Eléggé nyilvánvalóvá vált számomra, hogy akik azért küzdenek, hogy legyen "AGI", vagy nem tudják, hogy ha sikerült, onnantól hogyan tovább, vagy valami homályos utópisztikus álmokról hadoválnak. Nyilván nem tud valaki felelőségteljesen viselkedni, ha nincs is érdemben terve. Vagy persze, akkor sem, ha olyan szándéka van, ami eleve annyira "bátor", hogy nem is merné nyilvánosan hangoztatni (kb., hogy ez az intelligens létformák fejlődésének következő lépése, tehát az emberek sorsa lényegtelen). És akkor még nem is tudhatja egyik kutató sem, hogy ha összejön egyszer valami, ami teljesítménye alapján AGI-nak mondható, akkor az milyen lesz "pszichésen". (Az emberek talán többsége elintézi ezt azzal, hogy hát semmilyen, hiszen csak gép. De ennek semmi értelme, mert ilyen elven működő nagyobb gépekkel nincs tapasztalatunk, szóval a gépre vonatkozó klisék nem működnek.)
[ Szerkesztve ]
-
ddekany
veterán
válasz janos666 #302 üzenetére
Nem teljesen. Szóval, mikor felébredsz, onnan indul a tudatod teljes "élete", ami a következő eszméletvesztésig tart. De amire emlékszel, az csak "szintetizált" (a konkrét helyek, személyek, történések... minden), azaz nem volt egy másik tudat, amihez hozzátartozna a mostani, és amitől örökölted volna az emlékeket.
Hogy van akkor a többi emberrel? Nincsenek. Szimuláció, természetesen, mint minden. Elég hamar elkezdenek feltűnni furcsaságok, mert kicsit gagyi az egész, takarékosságból. Mivel jobbára nincs időd rá, hogy rájöjjél, hogy ezek valódi ellentmondások, hibák a sztoriban, ez egy jó kompromisszum.
Mi van, ha valaki direkt nem alszik? Kb. mint GPT-nél, van egy "beszélgetés" hossz limit, amit kezelni tud. Szóval ahogy ezt nyújtod, kezd minden összekavarodni, az állapotod egyre vadabb helyekre távolodik a kiszámíthatóbb kezdetietől, lassan megőrülsz. Pár nap után elkezdessz hallucinálni, végül elveszíted az eszméletedet. Szóval, max. pár napra lehet kinyújtani az életedet. Nem véletlenül nem akarunk sokan soha lefeküdni.