- Kitört a botrány az Amazonnál az irodai munka miatt
- A tenger alatti kábelek nemzetbiztonsági kockázatot jelenthetnek az USA számára
- Geopolitikai kockázatok elől fut Tajvan legnagyobb chiptervezője, a MediaTek
- Úgy néz ki, hogy vizsgálatot indít az EU a Temu ellen
- Rohamosan nő Elon Musk AI-cégének az értéke
Új hozzászólás Aktív témák
-
Tigerclaw
nagyúr
Azzal pedig még nem is foglalkozik senki, hogy a “result” mennyire vegyes minőségű, gyakran ijesztő butaság. Aki erre akar bízni fontos taskokat az jobban teszi, hogy előfizet 4-5 -re is, majd a válaszokat kiértékelteti saját human erőforrással is. Mi lesz ha valaki elkezd belsős infókat, ipari titkokat átadni ezeknek a kérdéseken keresztűl, mert ne legyen illúziónk, hogy a kérések, kérdések és a kérdező személye, cége ugyanúgy big dataként végzi, beépítve nem csak az adatkereskedelembe, de a tanulási fázisba.
Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.
-
updog
őstag
"További problémának látják, hogy a ChatGPT eredményeit tényszerűen pontosnak tartják általában a végfelhasználók, függetlenül a valódi pontosságtól."
Mondjuk ennek semmi köze a ChatGPT-hez, az emberek mindig lusták lesznek validálni 1-1 információ valódiságát, megbízhatóságát "Ezt dobta a google elsőnek, biztos igaz", "Láttam facebookon, hát csak úgy van, a Pista tette ki", "Mindenki ezt mondja a faluban, hát én már 30 éve ismerem a Jolit, ő biztos tudja".
Egyébként mindegyik általam próbált szöveggenerátor, fizetős, legújabb, netre kötött verziók is haluznak még mindig összevissza (főleg user error esetén, de több mint egy éve promptolok és még mindig van hogy képtelen vagyok tök nyilvánvaló dolgokat kinyerni).
Azt a részt tényleg nem értem, hogy miért az a default, hogy mindenképp adjon választ (és az is válasz lenne, hogy "ehhez nem rendelkezem elég információval").
"Bocs, főnök, de én csak két emberben bízom. Az egyik én vagyok. Nem maga a másik." || "Hóhahó, mégis van graffaló!"
-
bteebi
veterán
"Mondjuk ennek semmi köze a ChatGPT-hez, az emberek mindig lusták lesznek validálni 1-1 információ valódiságát"
Erről van szó. Inkább ezen kellene változtatni, nem a tanulási folyamaton.
"Azt a részt tényleg nem értem, hogy miért az a default, hogy mindenképp adjon választ"
Azt én se, habár már volt olyan, nem is egyszer - GPT 3.5-tel és 4o-val is -, hogy rákérdeztem valamire, és csodák csodájára pont azt mondta, hogy arról nincs infója. Az egyik esetben ez mondjuk meglepő volt, mert a 4o akár ki is kereshette volna.
Cancel all my meetings. Someone is wrong on the Internet.
-
BE4GLE
aktív tag
Azért nem mondja, hogy nem tudja a választ, mert nem tudja, hogy mit tud. Ha valamire mégis olyan választ ad, hogy "nem tudja", vagy "nem válaszolhat rá", az azért van, mert már megtanították rá, hogy ne adjon választ. De ezeket a nem kívánatos válaszokat az üzemeltetők nem láthatják előre. Csak utólag tudják orvosolni, ha már van róluk feedback.
Ezek a language modellek nem egy tudástárból próbálnak információt felkutatni. Azt próbáják megjósolni, hogy mi a beszélgetésben a következő szó. Ezzel szimulálva az emberi párbeszédet. Olyasmi mint a telefonod billentyűzetének szó javaslatai. Megfejelve némi véletlenszerűséggel, hogy elkerüljék az ismétlődést.
Redmi Note 9 Pro
-
Tigerclaw
nagyúr
Pont az az achilles sarka ezeknek az AI szolgáltatásoknak, hogy a buta tömegek, trollok postjaival, véleményével, fake news portálok hírjeivel, szakértésével tréningezik ezeket, akikből mindig több van és mindig készek megosztani.
Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.
-
dabadab
titán
Azért nem mondja, hogy nem tudja a választ, mert nem tudja, hogy mit tud.
This.
Egy csomó ember elhiszi, hogy az LLM-ek "mesterséges intelligenciák". Nem azok. Ennek megfelelően teljes elmebaj azt várni tőlük, hogy úgy működjenek, mint ha azok lennének, pl. "tudjon" dolgokat, vagy megvádolni azzal, hogy "hazudik". Ezek nem tudnak semmit, nincs öntudatuk, nem értik azt a szöveget, amit kiköpnek, fogalmilag képtelenek hazudni.DRM is theft
-
kilua
senior tag
Hát én nem is tudom, de amikor egy ismerősöm is a Facebookon véresen komolyan írta hogy "mérgeznek minket a levegőből" vagy amikor 5G telefon tornyokat tettek tönkre mert azt hiszik hogy nem ionizáló sugárzás bármilyen formában rákot okoz, vagy ott vannak a lapos földesek stb
Akkor szerintem az, hogy az MI néha butaságot ír, még nem jelenti azt hogy butább lenne mint egy átlag ember.
Megjegyzem a GPT 4o, már nem haluzik annyit mint a gpt 3.5, vagy a Claude3 ingyenes része.
-
-
azbest
félisten
még mindig nem felel meg a
szabványoknakszabályoknak -
ddekany
veterán
"Azt a részt tényleg nem értem, hogy miért az a default, hogy mindenképp adjon választ (és az is válasz lenne, hogy "ehhez nem rendelkezem elég információval")."
Természetesen mert nem tudják jelenleg megoldani, pedig nagyon szeretnék. Ez kb. egy első "megérzésre" tippelő automata jelenleg, ami egy fontos építőelem, de önmagában kevés.
Valójában tudják jelentősen megbízhatóbbra csinálni (iteratív, önmagával beszélgetős megoldások), csak nagyon drága/lassú lenne, miközben továbbra is relatív megbízhatatlan.
Az EU-s elvek betartása meg kb. képtelenség: "data accuracy: meaning that personal data should be accurate and up-to-date". És akkor még ehhez jönne, hogy hogy kérheted, hogy pontosítsák vagy töröljék bizonyos adataidat. Ezeket a elveket szokványos gépekre találták ki, az LLM-ek meg nem úgy viselkednek. Kicsit mintha neked is elrendelhetné valami hatóság, hogy ettől a pillanattól ne emlékezz valamire. Persze LLM-nél esélyesebb, hogy egy napon majd megtudják oldani, mind embernél, de jelenleg nem tudják.
[ Szerkesztve ]
-
azbest
félisten
"mintha neked is elrendelhetné valami hatóság, hogy ettől a pillanattól ne emlékezz valamire"
hát, nem csak adatvédelem, de copyright kapcsán is ez van. Ezért is necces bármi ai eredményt használni, ha betanításkor kalózkodtak.
A pontatlanság "felismerése" nem biztos, hogy lehetetlen. Talán vannak rá mutatók, amiből detektálhatja, ha nagyon mellélőtt. Valahol a rendszer mélyén gondolom százalékok vannak arról, hogy adott gráfon milyen jól egyezik a mintákkal.
[ Szerkesztve ]
-
ddekany
veterán
Van ez, hogy mikor kiválasztod a következő tokent, akkor ott több lehetőség közül választasz, és mindegyiknek van egy %-os esélye, hogy az a következő. (0 hőmérséklet beállításnál mindig a legvalószínűbbet választod.) Ha nincs egy erősen kiemelkedő első helyezet, akkor bizonytalan a model, és ígí gyanús, hogy nem megalapozottan választ. Ez alapján szoktak számolni u.n. perplexity-t. De ez nem bizonyult hallucinációk kiszűrésére hatékony mutatónak. Eleve mikor egy model téved, ott sokszor magabiztosan teszi. Aztán az előzmények is bekavarnak, mint egy korábbi kis tévedés miatt érez biztosnak egy későbbi nagy tévedést.
De hát ez az egyik nagy kérdés, hogy mi miért érezzük (általában), amikor valamit nem tudunk, vagy ha magabiztosak vagyunk benne. Lehet hogy ez megint egy magasabb rétegben iteratívan megoldandó önellenőrzés, és a betépett meggondolatlan megérző gép komponens maga jó, úgy ahogy van. Persze, minél jobban tippel, annál jobb, és egyelőre csak ennek az eredményét látjuk.
[ Szerkesztve ]
Új hozzászólás Aktív témák
- -50% Bontatlan Lenovo Yoga Slim 7i Pro Prémium Fémházas Ultrabook 14" i7-1260P 16/512 QHD+2,8K
- Zyxel USG-110 Unified Security Gateway Eladó
- Megkímélt Pico 4 8GB/128GB VR Headset (OEM) + Kiegészítők
- Mac Studio M1 Max 10C CPU, 24C GPU, 32G RAM, 512GB SSD
- Asztali PC , i5 7500 , RX 480 8GB , 16GB DDR4 , 256GB NVME , 500GB HDD
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest