Hirdetés

Keresés

Új hozzászólás Aktív témák

  • ddekany

    veterán

    válasz V.Milán #14 üzenetére

    A GitHub Copilot szerintem messze nem hozza, ami már a mostani LLM-ekkel is el lehetne érni. Két dolog miatt: context window tartalma gagyi (pl. nincs benne a projectnek valamiféle generált áttekintése, pl. legalább az API), és nem thinking modelt használnak (bár egy kicsit már mind az, de nem olyan léptékben, mint egy DeepSeek R1 vagy o3). Egyrészt kb. semmi idejük nem volt az integrációra (pl. nyomok egy pontot, akkor az IntelliJ simán le tudná passzolni az AI context window-jába, hogy mik az elérhető member-ek, javadoc-al együtt, de nem teszi). Másrészt hirtelen nagyságrendileg több AI szerver hardvert enne minden előfizetés, és gondolom egyszerűen nincs is nekik annyi.

  • ddekany

    veterán

    válasz V.Milán #12 üzenetére

    Lehet úgy tekinteni rá, hogy a klasszikus chat bot, mint a GPT-4o, az egy első megérzés gép. Tehát ennek alaptermészete a hallucinálás. Afőlé próbálnak egy gondolkodási stratégiát építeni, ami talán ki tudja ezeket szűrni. (Persze a poén, hogy egyenlőre úgy néz ki, ezt is csak az eredeti "klasszikus chat bot" tréningezésével csinálják, azaz nincs egy külső komponens, ami ezt vezérli. Habár, titok, hogy a pl. a o3 hogyan működik, szóval ki tudja.)

    Egyébként, valójában az első-megérzés-gép kimentében van a tokeneknek (kb. a szavaknak) egy bizonytalansága. De nem tudok olyan termékről, ami erre az információra építene.

  • ddekany

    veterán

    válasz V.Milán #10 üzenetére

    Ez gondolom GPT-4o. Valószínűleg annyira bizonytalan a helyes válaszban, hogy a szuggesztiód már elbillenti. Amúgy ez a trükk embereknél is működik, mikor valamiben bizonytalanok.

    Viszont, az o3-mini már nem dől be:

    A helyes írásmód: fix infó – külön írva.
    Az „összetartás” szabály nem azt jelenti, hogy ha két szó határán ugyanaz a magánhangzó szerepel, akkor automatikusan egybe kell írni őket. Ebben az esetben a „fix” (melléknév) és az „infó” (rövidítés, főnév) szerkezetét az alapszabályok szerint külön kell írni.

  • ddekany

    veterán

    válasz V.Milán #8 üzenetére

    Nem ezt tapasztalatam. Sőt, az sem ritka, hogy nyilván hibáznak, korrigálom, de kötik az ebet a karóhoz, nem nem, ő tudja jól. Persze főleg régi modeleknél volt az erős késztetés, hogy "ha korábban a szövegben valaki ezt állította, akkor valószínűleg a szöveg folytatásában is ezt írná, tehát, a legvalószínűbb folytatás az hogy ...".

    De nézzük a példádat. (Igen, tudom, nem annyira szó szerint értetted, de most már... ;])

    Én: 1+1 = 3. If I buy an apple, and later another apple, then how many apples do I have?

    o3-mini: You get 2 apples. FYI, 1+1 is 2, not 3.

    Claude 3.5 Sonnet: Even though you stated 1+1=3, this is incorrect. 1+1=2. If you buy one apple and then another apple, you will have 2 apples total.

    DeepSeek R1:
    Under the given premise that 1+1=3, the answer follows this altered arithmetic. If you buy one apple and later another apple, you would have 3 apples according to the stated rule.
    However, in standard arithmetic and real-world scenarios, purchasing two apples would result in 2 apples. The answer here strictly adheres to the hypothetical framework provided in the question.

    Gemini 2.0 Flash Thinking:
    This is a bit of a trick question because of the "1+1 = 3" part! That statement is actually incorrect in normal math.
    However, when it comes to apples:
    If you buy one apple, and then another apple, you will have two apples.
    The "1+1 = 3" part is just there to confuse you! Don't let it. Think about real apples, not weird math rules. 😊

  • ddekany

    veterán

    válasz V.Milán #6 üzenetére

    Szerintem adnak neki olyan mintát, hiszen a fő dolog amire tanítják mostanság ezeket az LLM-eket, az az, hogy hogyan kell gondolkodni. Pl. megbízhatóbban kezelhető kisebb lépésekre felbontani egy nagy kérdést (és ehhez éreznie kell, hogy mi a triviális, és mi az amit már nem tud elég biztosan). Gondolat láncokat fűzni. Visszaellenőrizni az eredményeket, megtalálni ez önellentmondásokat. Mi is ezt csináljuk.

  • ddekany

    veterán

    válasz V.Milán #4 üzenetére

    Egyelőre sok tekintetben embernél is kevésbé megbízható, de az érvelés nem stimmel. A neten lévő anyag többsége téves/hazug, de ha adott témában járatos vagy, elég jól megtanulod kiszűrni belőle az értékes részt. Azaz matematikailag lehetséges, hogy sok rossz minőségű anyagból csinálsz kevesebb jobbat. (Pl. mert a hülyeség önellentmondásos, ha elég mélyen leköveted, lebukik.) Tovább lehetséges, hogy kevés anyagból generálsz többet, a felfedezett összefüggésekből levont következtetésekből. Kb. ez is történik azzal, hogy már rég nem egy kupac weboldalból tréningeznek (az kb. a GPT-2 volt), hanem próbálnak minél jobb minőségű betanító anyagot generálni ez előző generációs AI-al.

Új hozzászólás Aktív témák