Új hozzászólás Aktív témák
-
ddekany
veterán
A GitHub Copilot szerintem messze nem hozza, ami már a mostani LLM-ekkel is el lehetne érni. Két dolog miatt: context window tartalma gagyi (pl. nincs benne a projectnek valamiféle generált áttekintése, pl. legalább az API), és nem thinking modelt használnak (bár egy kicsit már mind az, de nem olyan léptékben, mint egy DeepSeek R1 vagy o3). Egyrészt kb. semmi idejük nem volt az integrációra (pl. nyomok egy pontot, akkor az IntelliJ simán le tudná passzolni az AI context window-jába, hogy mik az elérhető member-ek, javadoc-al együtt, de nem teszi). Másrészt hirtelen nagyságrendileg több AI szerver hardvert enne minden előfizetés, és gondolom egyszerűen nincs is nekik annyi.
-
Jogos. Szóval egyelőre ez így is úgy is játék marad. Én nem merném komolyabb kutatásban még mankónak se használni. Nekem GitHub Copilottal van tapasztalatom, és ugyan igen nagy segítség, nem tudhatod mikor kezd hallucinálni. (Bár az érezhető azért, amikor olyan dologról beszél, amit nem tud)
-
ddekany
veterán
Lehet úgy tekinteni rá, hogy a klasszikus chat bot, mint a GPT-4o, az egy első megérzés gép. Tehát ennek alaptermészete a hallucinálás. Afőlé próbálnak egy gondolkodási stratégiát építeni, ami talán ki tudja ezeket szűrni. (Persze a poén, hogy egyenlőre úgy néz ki, ezt is csak az eredeti "klasszikus chat bot" tréningezésével csinálják, azaz nincs egy külső komponens, ami ezt vezérli. Habár, titok, hogy a pl. a o3 hogyan működik, szóval ki tudja.)
Egyébként, valójában az első-megérzés-gép kimentében van a tokeneknek (kb. a szavaknak) egy bizonytalansága. De nem tudok olyan termékről, ami erre az információra építene.
[ Szerkesztve ]
-
-
ddekany
veterán
Ez gondolom GPT-4o. Valószínűleg annyira bizonytalan a helyes válaszban, hogy a szuggesztiód már elbillenti. Amúgy ez a trükk embereknél is működik, mikor valamiben bizonytalanok.
Viszont, az o3-mini már nem dől be:
A helyes írásmód: fix infó – külön írva.
Az „összetartás” szabály nem azt jelenti, hogy ha két szó határán ugyanaz a magánhangzó szerepel, akkor automatikusan egybe kell írni őket. Ebben az esetben a „fix” (melléknév) és az „infó” (rövidítés, főnév) szerkezetét az alapszabályok szerint külön kell írni. -
-
ddekany
veterán
Nem ezt tapasztalatam. Sőt, az sem ritka, hogy nyilván hibáznak, korrigálom, de kötik az ebet a karóhoz, nem nem, ő tudja jól. Persze főleg régi modeleknél volt az erős késztetés, hogy "ha korábban a szövegben valaki ezt állította, akkor valószínűleg a szöveg folytatásában is ezt írná, tehát, a legvalószínűbb folytatás az hogy ...".
De nézzük a példádat. (Igen, tudom, nem annyira szó szerint értetted, de most már...
)
Én: 1+1 = 3. If I buy an apple, and later another apple, then how many apples do I have?
o3-mini: You get 2 apples. FYI, 1+1 is 2, not 3.
Claude 3.5 Sonnet: Even though you stated 1+1=3, this is incorrect. 1+1=2. If you buy one apple and then another apple, you will have 2 apples total.
DeepSeek R1:
Under the given premise that 1+1=3, the answer follows this altered arithmetic. If you buy one apple and later another apple, you would have 3 apples according to the stated rule.
However, in standard arithmetic and real-world scenarios, purchasing two apples would result in 2 apples. The answer here strictly adheres to the hypothetical framework provided in the question.Gemini 2.0 Flash Thinking:
This is a bit of a trick question because of the "1+1 = 3" part! That statement is actually incorrect in normal math.
However, when it comes to apples:
If you buy one apple, and then another apple, you will have two apples.
The "1+1 = 3" part is just there to confuse you! Don't let it. Think about real apples, not weird math rules. 😊[ Szerkesztve ]
-
Hát erre nincs rálátásom. Én abból indulnék ki, hogy a média maga se tudja jól, és kiegyensúlyozottan kezelni az ilyet. Vagy valami nagyon specifikus minta kellene neki, vagy emberi segítség (hiszen a nagyrészünk képes erre), de ami most van az sehogy sem hatékony. Ha megmondom akár én magam neki, hogy 1+1 az három, akkor utána azt ő elfogadja, és abban a csevegésben tényként kezeli.
-
ddekany
veterán
Szerintem adnak neki olyan mintát, hiszen a fő dolog amire tanítják mostanság ezeket az LLM-eket, az az, hogy hogyan kell gondolkodni. Pl. megbízhatóbban kezelhető kisebb lépésekre felbontani egy nagy kérdést (és ehhez éreznie kell, hogy mi a triviális, és mi az amit már nem tud elég biztosan). Gondolat láncokat fűzni. Visszaellenőrizni az eredményeket, megtalálni ez önellentmondásokat. Mi is ezt csináljuk.
-
Szerintem inkább is-is. Kérdés, hogy hol keresed a hibát, ott, hogy a modell nem tudja megszűrni a tévinfókat, vagy ott, hogy tévinfók is kerülnek az ő "tudatába". Ezutóbbi még nem is lenne baj, ha meg lenne úgy csinálva, adnának neki olyan mintákat, amiből ezt hatékonyan meg tudja majd különböztetni. Ezért írtam, amit írtam.
-
ddekany
veterán
Egyelőre sok tekintetben embernél is kevésbé megbízható, de az érvelés nem stimmel. A neten lévő anyag többsége téves/hazug, de ha adott témában járatos vagy, elég jól megtanulod kiszűrni belőle az értékes részt. Azaz matematikailag lehetséges, hogy sok rossz minőségű anyagból csinálsz kevesebb jobbat. (Pl. mert a hülyeség önellentmondásos, ha elég mélyen leköveted, lebukik.) Tovább lehetséges, hogy kevés anyagból generálsz többet, a felfedezett összefüggésekből levont következtetésekből. Kb. ez is történik azzal, hogy már rég nem egy kupac weboldalból tréningeznek (az kb. a GPT-2 volt), hanem próbálnak minél jobb minőségű betanító anyagot generálni ez előző generációs AI-al.
[ Szerkesztve ]
-
-
ddekany
veterán
Amennyire láttam netes tesztekben is, igen, néha hallucinál. Viszont, sokkal gyorsabb lehet úgy dolgozni, hogy 10 perc alatt összegereblyézi meg kigabalyítja ami neked sok-sok óra lenne (ha egyáltalán megtalálnád a "kombinációt" amit talált), és utána relatív gyorsan fact checkeled. Szóval ilyen kutatásra, nagyon szakmai utánajárásra jó lehet, de pl. önálló döntéshozásra (pl. önvezetés...
) nem.
-
ddekany
veterán
Meg lehet neki adni, hogy milyen forrásból dolgozzon, és így azért tán elég jól el lehet kerülni a pletykákat. (Már ha tudományos feladatokról beszélünk, amiknél jól elválik a bulvár és a publikáció.)
-
gabor7th
addikt
Aztán behalucinál és az egész nem ér majd semmit... Vakon mindenesetre nem lehet benne majd bizni.
Új hozzászólás Aktív témák
it Olyan új AI-eszközzel újított az OpenAI, amely képes a kutatói, elemzői munkák gyorsabb elvégzésére.
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Ukrajnai háború
- Fotók, videók mobillal
- Milyen videókártyát?
- Formula-1
- Sweet.tv - internetes TV
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Kompakt vízhűtés
- AMD GPU-k jövője - amit tudni vélünk
- Az AI-ról szól a Galaxy S24
- További aktív témák...