-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
A kártya méret miatt aggódoknak behozzák a zöldek az új RTX méret szabványt.
[NVIDIA Unveils New SFF-friendly Enthusiast GeForce RTX Graphics Card Standard]
(304 mm x 151 mm x 50 mm)"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
[NVIDIA Releases Digital Human Microservices, Paving Way for Future of Generative AI Avatars]
Remélem CP2077 be beletolják hamarosan. nagyon kíváncsi lennék rá."A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
gV
őstag
NVIDIA Blackwell GB202, GB203, GB205, GB206 GPUs For GeForce RTX 50 To Feature Same GPC Count As Ada Chips (wccftech.com)
na, a GB202 mégsem 2*GB203
NVIDIA Unveils Next-Gen Rubin, Rubin Ultra, Blackwell Ultra GPUs & Supercharged Vera CPUs (wccftech.com)
tetszik ez a minden évben jön valami(emlékszel Intel? te is ezt igérted az ARC bejelntésekor) -
válasz
huskydog17 #43993 üzenetére
hol van az az idő, amikor az 576 KByte újságból vagdostam ki a végigjátszásokat, most csak megkérdezem az Ai-t aztán csá.
Amúgy nagyon kíváncsi leszek, hogy a DLSS 3.5 egyben ugródeszka lesz a 4.0 hoz, ami állítólag ősszel jön az új kártyacsaláddal együtt."A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
huskydog17
addikt
Computex-en az NV nem kispályázik:
DLSS 3.5 With Ray Reconstruction Coming To Star Wars™ Outlaws & Marvel Rivals Gets A DLSS 3 Upgrade
"Previously, we announced that the PC version of Star Wars™ Outlaws will include support for NVIDIA DLSS 3, NVIDIA Reflex, ray-traced reflections, ray-traced shadows, NVIDIA RTX Direct Illumination (RTXDI), and ray-traced global illumination. Today, we’re excited to announce that Star Wars™ Outlaws on PC has now upgraded to NVIDIA DLSS 3.5 with Ray Reconstruction, further enhancing the fidelity of ray-traced effects."
Star Wars™ Outlaws | DLSS 3.5 World Premiere
NVIDIA RTX Remix To Open Source Creator Toolkit
"In addition, NVIDIA is making the capabilities of RTX Remix Toolkit accessible via REST API, allowing modders to livelink RTX Remix to other DCC tools such as Blender, modding tools such as Hammer, and generative AI apps such as ComfyUI. NVIDIA is also providing an SDK for the RTX Remix runtime to allow modders to deploy RTX Remix’s renderer into other applications and games beyond DirectX 8 and 9 classics.
Since RTX Remix Toolkit launched earlier this year, 20,000 modders have experimented with using it to mod classic games, resulting in over 100 RTX remasters in development on the RTX Remix Showcase Discord."
NVIDIA App Beta Update Adds AV1 Recording & One-Click Performance Tuning"Available for download via the in-app updater, and from our website, the new NVIDIA app beta update adds 120 FPS AV1 video capture"
Na ezt majd valamikor kipróbálom. Bár az Action évek óta tud 120 fps-ben rögzíteni, de nem AV1-ben.
"Introducing Project G-Assist: A Preview Of How AI Assistants Can Enhance Games & Apps"
A korábbi április tréfából valóságot csináltak.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
huskydog17
addikt
válasz
hahakocka #43981 üzenetére
OK. Én megpróbáltam értelmesen kommunikálni, te erre nem vagy hajlandó, inkább továbbra is nyomod a tonna mennyiségű hülyeséget, melyeknek semmi köze a valósághoz.
Eddig itt a fórumon kb. minden állításodat megcáfoltuk, semmit nem tudtál alátámasztani, továbbá kizárólag azokat az információkat forrásokat veszted figyelembe, melyek neked megfelelnek, de ha valaki korrigálni szeretne téged bizonyítékokkal, akkor két kézzel tolod el magadtól, nem vagy hajlandó azt már megnézni.
FB-on hiába magyaráztam el neked mindent milliószor szitén bizonyítékokkal, egyszerűen mindent ignorálsz, ami nem a te fake világodnak felel meg.
Mondom, a te dolgod, de egyrészt itt valószínűleg senkit nem fogsz tudni átverni ezzel a masszív mennyiségű spam kommenttel, továbbá ezzel a hozzáállással saját magad vered át a legjobban. Próbáltunk neked segíteni kijutni az információs sötétségből, de te minden segítséget támadásnak vélsz.
Ezen felül mi itt vettük a fáradtságot arra, hogy arra válaszolunk amit írtál, de te még erre se vagy hajlandó, átköltöd amit írunk, nem arra reagálsz amit írtunk. Ezzel nem tudunk mit tenni.Én itt kiszálltam, mert ennek így nincs értelme, mert ehhez se időm, se kedvem, további jó valóságtagadást!
#43980 b.: Gondoltam megpróbálok neki segíteni eligazodni a témában, de azt nem tudtam, hogy a hitvallása ennyire extrém mértékben elvakulttá tette. Tanultam belőle. Csak sajnos az ezzel a gond, hogy ő valószínűleg tovább fogja nyomni a sok spammelést és mivel nyilvános fórum, még valaki talán el is hiszi a sok hülyeséget amit összehord.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
válasz
t72killer #43988 üzenetére
Az árakat a gyártók alakítják, a piac meg reagál rájuk - aztán a gyártó viszontreagál, ha kell. Szóval az NVIDIA felhajtotta az árakat, a piac meg nagyrészt benyelte - kicsit kellett korrigálni, de sztem ez benne volt Jensen alkutartalékában.
"Piroska és Berci, a farkas / Századunk hősei most."
-
M@trixfan
addikt
válasz
t72killer #43988 üzenetére
A piacot lehet mesterséges hiánykeltéssel és egyéb technikákkal manipulálni. Ez nem áll távol az Nvidiától. Állandoan arra törekedett régebbi generációknál is, hogy ne szabványt támogasson az architektúra, hanem zárt “proprietary” megoldás legyen adapttálva. Pl. PhysX, Gameworks és társai.
twitter: MatrixfanLive | Ősidőktől a PH!-n
-
gV
őstag
vicc, az nV csak addig rossz cég amíg nincs képben a konkurencia. pl.: a 4080S 448e Ft?! pff elszállt ár.
de akkor megjelenik a 7900XTX 440e-ért és máris jól hangzik.
aztán a legújabb játék Performance Test • Senua's Saga: Hellblade II: Senua on Unreal Engine 5 disrupts GPUs! - Hardware & Co (hardwareand.co) teljesítményben, késleltetésben és képmínőségben is odaver a másik kettőnek. -
t72killer
titán
"az NVIDIA hajtja fel az árakat"
Ez hülyeség, az árat a piac alakítja. Ha megveszik x-ért, akkor az x-be fog kerülni, nem x-5-be.Én sokkalinkább az AMD-t hibáztatom az árak miatt: miért b.sznak stabil jó driverkörnyezetet biztosítani (nem, nem csak linuxra, hanem gondoljanak már arra a pár windóz felhasználóra is...), miért sz.rják telibe a VR-t, AI-t, RT-t... Oké, azt elfogadom, hogy cudás alkalmazások nem fognak száguldozni a karijaikon, de van ott még egy sereg foltozható tétel, amit ha időben rendberaktak volna, akkor a hóm júzer számára teljesértékű versenytárs lennének. ÉS ha mennyiséget is tesznek a boltok polcaira (ld ugye #43985 ) akkor az NV se húzhatja akármilyen vastagon a ceruzát. VERSENY kell életképes versenytársakkal.
[ Szerkesztve ]
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
D55
aktív tag
válasz
t72killer #43984 üzenetére
Nyilván lehetnek kivételek, plusz ha az RT-t is nézzük, akkor még tovább javul az NVIDIA irányába a kép. De amúgy nekem is 4070 TiS van, talán nem véletlen
Ettől függetlenül módszeresen az NVIDIA hajtja fel az árakat, a többiek utána mennek, tehát ezekkel a jelzőkkel szerintem nincs értelme spórolni, nehogy még a piacot tanulmányozva olyan súlyos tévképzeteik legyenek, hogy a vásárlóik ezt egyetlen szó nélkül, mosolyogva hagyják.
#43985: De lehet az is, hogy lemaradtam és változtak mostanában annyit az árak, hogy már nem a február-március környéki viszonyok vannak. Akkor sorry.
[ Szerkesztve ]
-
"sokkal korrektebb árazású AMD vagy Intel kártyákat"
wtf? ezt te tudod amúgy hogy nem igaz?vagy most komolyan mi van itt az emberekkel napok óta?
Nézem Alza, Ipon, Aqua árakat alig van választék AMD ből és sokkal jobb vételnek tűnik az Nvidia.csak példaként pl Alza [link] : 4070 Super- 256 K, 7800XT -230K 10% kal olcsóbb,de raszterben 10 % kal lassabb RT ben 30% kal el van maradva, a 4060 szintjén van, és többet eszik.Nem kérdés hogy a 4070 supert venném 19 ezer forint fejében.
7900XT legolcsóbb 330K, 4070 Ti super 349 K raszterben egyformák, RT ben 22% kal ersőebb az Nvidia és kevesebbet eszik, több szolgáltatást nyújt. 5% árkülönbség...
RTx 4080 Super 448 K- 7900XTX 440K...izé Hol sokkal olcsóbb és jobb ár/értékű az AMD ?
A 4090 ami elszállt árakon van, de ez van, ha monopol kártyaként ülsz a trónon[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
t72killer
titán
"a sokkal korrektebb árazású AMD vagy Intel kártyákat" he
? Amikor majdnem annyit elkérnek egy 7900XT-ért, mint amennyibe egy 4070 TiS kerül?
Egy "sokkal korrektebb" árazás minimum 20-30% árengedmény lenne azonos raszter szinten, vagy ugyanaz az ár de 20-30%-al nagyobb teljesítmény.
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
D55
aktív tag
Na basszus, nézem mi ez a sok hozzászólás, kijöttek az 50 series lineup részletei, vagy kaptunk valami új DLSS feature-t?
De aztán látom mi van... Hahakocka légyszi ennyire ne... Én is szoktam itt párhavonta tolni a magam hülyeségét, hogy pl. az NVIDIA ismerje el nemzetiségeként a gaming világát és amíg így dől a lé az AI felől nekik, addig nekünk mostmár adja sürgősen önköltségen a termékeit, különben Jensen Huang bőrkabát replikákat fogunk az NVIDIA forgalmazóinak székházai előtt égetni, de akkor is...
Pont a DLSS adja el ezeket a kártyákat a leginkább mostanában. Nincs értelme azzal vitatkozni, amiért tízezrek vagy százezrek válasszák mégis inkább a felháborítóan drága NVIDIA kártyákat, mint sem a sokkal korrektebb árazású AMD vagy Intel kártyákat. Ha valami magáért beszél, akkor ez az.
A másik meg az, hogy ez a 12VHPWR botrány ha gáz is volt nagyon, egyrészt tényleg kellett neki a 4090-ek brutális áramfelvétele, elhanyagolható amennyire gyengébb modelleket érintett, a ma kapható kártyák nagy részét pedig már eleve csak nagyon kis eséllyel érintheti, mert a sense pineket lerövidítették egy szabványrevízióban, így elvileg a kártyák már sokkal hatékonyabban észlelik a hibás csatlakoztatásokat. Annyit adok persze, hogy a kezdeti koncepció tényleg egy elcseszett dolog olyan téren, hogy a francért kell kényszeresen mindent ennyire eszetlenül miniatürizálni és rossz minőségű átalakítók pedig valóban okozhatnak akár kisebb teljesítményű kártyáknál is még akár helyesen ütközésig bekattant csatlakoztatás esetén is gondot, de szerencsére a legtöbbhöz a gyártója ad ilyet, közülük pedig ajánlások alapján lehet válogatni.
-
hahakocka
őstag
válasz
huskydog17 #43979 üzenetére
Leírtam százszor már miket nézek s nem csak 1-2 kedvenc oldaladat hanem 10 félét s abból lesz egy átlag képzeld. S igen láttam sok videót ahol azt is mutatták hogy mik az árnyoldalai s nem, s nem AMD-s, hanem NV-s felhasználók voltak továbbra is s maradtak is azok ettől még. S nem nem én nem jósoltam meg semmit te voltál előbb Nostradamus. Annyit írtam hogy úgyis lesz majd még erősebb XES és FSR4.0 aztán mi lesz majd kiderül belőle pontosan: Azért mert 1-1 oldal egyszer rosszat mondott 10 éve kedvencedről még nem lesz ellenség....
Főleg ha azóta ez változott ezerrel.
Sokszor az 50 game-et tesztelő oldalakat (RT-DLSS-FSR off on al, 3 féle felbontáson, 3 féle textúrával, 2-3 féle fogyasztási helyzettel és ár-érték grafikonokkal, perf-per wattal) is nem függetlennek tartod , de a 10 game-el tesztelőket meg igen ez is érdekes meglátás. A részletesebb a rosszabb?[ Szerkesztve ]
-
hahakocka
őstag
válasz
huskydog17 #43978 üzenetére
Mondtam már Face-n, hogy lehülyéztél mindenkit engem is amikor még nagy Inteles voltál hogy a 7700 s a 7800x3D ára még lejjebb mehet idővel nagyon jó lehet meg fogja érni, (A 2600x -emet és az RX 5700-as kártyámat is eléggé ledegradáltad akkoriban - Igaz Alan Wake 2 -n kívül mindent vitt elég szuperül FHD ban eddig, ami csak engem érdekelt s 5 éven át jó vétel volt így 100e ft ért, ár-értékben- ugye végig Inteles voltál, én meg előtte rendelkeztem Intellel, amúgy majd 5 évig i5 4690-em volt, de már kacérkodtam a váltással pár ok miatt. Aztán utána x3D t vettél mégis és ezerrel meg is voltál vele elégedve. Ugyanezt tetted amikor DDR5 öt mondtad hogy hülyeség meg se éri drága lesz még 2-3 évig, mikor levezettem hogy fél éven belül hogyan s kb mennyire fog esni hát pont úgy lett és voilá végül csak olyan procit is vettél ami fogadja s a ram árak is lejjebb mentek. Az hogy nem emlékszel rá sajnálatos. Nálam megmaradt mert meglepő pálfordulások voltak itt. Téma általam lezárva feledékenységet nem tudom gyógyítani. Ahogy a mondás tartja nem hiába a stílus maga az ember amúgy, nem hiába jó páran már jelezték ezt ahogy láttam. S megint látom alant is baromságokat írsz de már megszoktam. Csak ennek és csakis annak fogok én hinni örökre igaz ? Előre látsz mindent oh Nostradamus úr
Látszott a DDR5 ram és AMD ellenességes időszakban amiről meséltem. Jelenleg vagyok natív hívő már jó sokszor elmondtam, hogy 1-2 éven belül ez persze változhat. Majd az új kártyával legyen bármi is ki fogom próbálni amúgy. Amiket írtam nem én írtam, hanem sok-sok RTX 3000-4000 es használó ők mind vakok biztos! Volt aki azt is írta hogy átváltott Intelre vagy AMD re mert egyszerűen nem érte meg ez a számára kis differencia, a nagy ártöbbletet s a vram többlet is fontosabb volt számára. S ez nem egy emberke , ismerős ismerőse sokan vannak így.
[ Szerkesztve ]
-
válasz
huskydog17 #43979 üzenetére
Kár rá pazarolnod az értékes idődet és energiádat, Radeon kártyája van, még nem próbálta a játékokat DLSS-sel, nem is értem hogy miért vitatkozik így.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
huskydog17
addikt
válasz
Busterftw #43965 üzenetére
A megoldás egyszerű: csak annak a usernek hisz, aki valamilyen módon negatívan számol be az NV technológiákról, legalábbis a kommentjei erre engednek következtetni.
Szerintem ő akkor se lesz hajlandó észrevenni a különbséget, ha egy nagy csoda folytán NV kártyája lesz, hiszen egyrészt ő kijelentette, hogy "natív hívő", másrészt arra sem hajlandó, hogy a független teszteket megnézze. Gondolom felborzolná a natív hitvallását.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
huskydog17
addikt
válasz
hahakocka #43960 üzenetére
"Szerintem nálad van úgy, hogy hibákat nem nézed sehol ha NV."
A valóság megint ellentétes a kijelentéseddel. Csak hogy értsd: ha igaz lenne az állításod, akkor például a SotTR-ben nem venném észre a vízfelületeken történő artifactokat, de mivel írtam is róla és a játékban emiatt nem is használok DLSS-t, így az állításod szimplán hamis.
"de korábban azt állították hogy mindig tökéletes akkor most mégse"
Pontosan ki és mikor állította ezt? Linkeld be légyszi, de szerintem semmit nem fogsz tudni belinkelni, mert ilyet soha senki ne mondott.
"DLSS és FSR se mindig tökéletes ennyi."
Végre sikerült egy értelmes és valóságközeli gondolatot is leírnod.
#43962: "Pedig régóta azt szajkózza hogy közel van a tökéleteshez és minden helyen leborul a DLSS előtt s isteníti"
Lásd fenti link, a valóság máshogy néz ki. A SotTR-en kívül van még 1-2 játék, ahol nem vagyok elégedett a DLSS képminőségével, de ezek közül az egyik még fejlesztés alatt áll.
Csak hogy itt is értsd a lényeget: soha nem állítottam olyat, hogy közel van a tökéleteshez, de ha mégis, linkeld be légyszi, nem emlékszem rá.
Az istenítés nálad gondolom azt jelenti, hogy nekem tetszik a feature és gyakran használom. Ez valóban így van, bár az istenítés szerintem extrém mértékű túlzás."Amikor vga-t veszek mérlegelek mindig hogy mi a jó és a rossz elem."
És mégis valamiért kizárólag azt mérlegeled (próbálod magad hitegetni), hogy NV-nél miért rossz az, ami valójában nem rossz.
#43964: "Még azt is szoktátok mondani, főleg Husky, hogy DLSS-el és egyéb kiegészítőivel szebb mint a natív
Ezt mindenki el is hiszi"
Ez így is van, több játék esetében. Mindenki el hiszi, aki hajlandó hinni a független teszteknek, illetve aki ki is próbálta. Nem egyszer le lett írva, hogy ez miért van, rengeteg független teszt bizonyítja is, ott vannak a tesztek csak meg kéne nézni/el kéne olvasni azokat. Erre továbbra sem vagy hajlandó annak ellenére, hogy konkrét forrásokat adtunk több topic-ban, te inkább továbbra is két kézzel tolod el magadtól a valóságot.
Szerinted a Starfieldnél miért volt ebből botrány, miért töltötték le a DLSS mod-ot kb. egy millióan?
Te azért nem hiszed el, hogy a DLSS/DLAA adta kép néhány játékban szebb képet ad, mint a natív, mert még csak arra sem vagy hajlandó, hogy az ezt bemutató teszteket megnézd/elolvasd. Mi akadályoz meg, hogy megnézd ezeket?"De meg fogom majd nézni igaz ha nem jön ki idén az RTX 5070 akkor vagy Intel vagy AMD vel, de kíváncsi leszek."
AMD és Intel VGA-val nehezen fogod megnézni a DLSS-t.
"Addigra lesz új XESS, Talán már 4.0 FSR."
Tényleg, és mit fognak tudni? Erről az egész világ semmit sem tud, de szerintem az Intel és az AMD sem, de neked már tényszerű infóid vannak ezekről. OK. Az FSR 3.1 sincs még kész, jelenleg tesztelés alatt áll, de érdekelne, hogy a 4.0 mit fog tudni.
"Általában szokta írni nem a tesztek mellé ha valaki mer kritizálni bármit a DLSS el, s amúgy az FSR el is, mert nekem egyelőre az se tetszik félre ne érts."
Ha még mindig rám célzol, akkor nem tudom értelmezni a mondatod. Mit szoktam írni hova?
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
-
A.Winston
tag
A dualslotos 5090 mennyire realis? Hatekonysag novekedes + konkurencia hianya miatti kevesbe tultolt gyari teljesitmeny miatt akar mukodhet is vagy valszeg hibrid lesz es kap egy radit is melle?
Tudom minden pletyka egyelore, de azok alapjan elvi lehetosege lehet?nincs
-
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
válasz
winters123 #43969 üzenetére
valószínűleg és ha igaz, ez azért a REF dizájn, azért egy ROG Strix biztos marad minimum 3 slot.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
hahakocka
őstag
válasz
winters123 #43969 üzenetére
Kérdés a hőfokok látják e kárát majd vagy a hangerő. De legalább a méret nem lesz akkor dupla tégla?
[ Szerkesztve ]
-
winters123
tag
válasz
-=RelakS=- #43966 üzenetére
Váó, 2 slot. Legyen úgy.
-
gejala
őstag
válasz
hahakocka #43964 üzenetére
Ma már majdnem minden játék szemkifolyatós TAA megoldást használ natívban, ami élvezhetetlen. Ezt kell lecserélni valamilyen upscalerrel. Nyilván a DLSS/DLAA adja a legjobb minőséget, de pl. Dead Island 2-ben csak FSR van, de az is sokkal jobban néz ki, mint a natív TAA-val.
-
hahakocka
őstag
válasz
Busterftw #43965 üzenetére
A végét pl nem olvastam már el mivel ebédidő szünetben találtam rá. Elnézést ezért. Attól még él a dolog amiről írtam általánosságban. Ha homokba dugod a fejed attól még sokaknál létezett. Majd ki fogom próbálni ha meglesz az új gép, biztos 4K ba úgyis. Ugyanúgy a leégés és leolvadásos esetek s nem csak hülyéknél s már nem a korábbi megoldott estekben. Userből sokféle, nagy számban, mindenki annak hisz akinek persze akar.
No ez már lehet közelebb áll a valósághoz? 28gb érdekes. 24-32 re tippeltem volna én is. A Memóribusz azért szép lesz
5090: 28 GB / 2000 ~ 2500 USD
5080: 20 GB / 1000 ~ 1500 USD
5070: 16 GB / 600 ~ 900 USD
5060: 12 GB / 400 ~ 500 USD
+adó
Ezt is kommentelték oda, hát csak tipp, de durva lenne.[ Szerkesztve ]
-
-=RelakS=-
veterán
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
Busterftw
nagyúr
válasz
hahakocka #43964 üzenetére
Igen, szoktuk mondani, tudod az userek, akik hasznaljak is.
Meg a tesztek is szoktak mondani. Most akkor nagy bajban lehetsz, hiszel az usereknek vagy sem. Te mondtad, az userek tapasztaljak.Majd ha lesz Nvidia kartyad ahol errol megbizonyosodtal magad, akkor szolj.
A kerdes meg mindig az, hogy mi ertelme van ezeknek a kommenteknek es random Google talalatoknak, amiket raadasul el sem olvasol rendesen posztolas elott.
Ezen gondolkozz inkabb.[ Szerkesztve ]
-
hahakocka
őstag
Még azt is szoktátok mondani, főleg Husky, hogy DLSS-el és egyéb kiegészítőivel szebb mint a natív
Ezt mindenki el is hiszi
De meg fogom majd nézni igaz ha nem jön ki idén az RTX 5070 akkor vagy Intel vagy AMD vel, de kíváncsi leszek. Addigra lesz új XESS, Talán már 4.0 FSR. Általában szokta írni nem a tesztek mellé ha valaki mer kritizálni bármit a DLSS el, s amúgy az FSR el is, mert nekem egyelőre az se tetszik félre ne érts. Ott az engine-el és a game is amúgy baj volt, de pl FSR el is vajon? Amúgy sok-sok játéknál főleg ahogy írtam FPS eknél tapasztalták ezt.
[ Szerkesztve ]
-
Busterftw
nagyúr
válasz
hahakocka #43962 üzenetére
Konkretan elolvasva az itteni es az AMD vs. INTEL vs. NVIDIA topik hozzaszolasait, ahol ezeket a benchmarkokat posztolja, sehol nem irja ezt, inkabb a teszt konluziojat.
"Userek a tapasztalat meg már mit sem ér."
Marmint az az user, amelyiket te linkeltel es nem a DLSS hiabajabol tapasztalt "gondot", hanem a jatek engine miatt?"Egyébként az IT-s kollega srác csak röhögött tudott ma Nv fanként amúgy és 3080 tulajként amikor említettem neki hogy majdnem le lett hülyézve, s meg le félemlítve, hogy tartott a jó kis olvadástól. "
Es?[ Szerkesztve ]
-
hahakocka
őstag
válasz
Busterftw #43961 üzenetére
Pedig régóta azt szajkózza hogy közel van a tökéleteshez és minden helyen leborul a DLSS előtt s isteníti kb. S nem EGY játék engine-ben van sok játéknál van gond. Userek a tapasztalat meg már mit sem ér. Máskor meg egy linkelt tesztelő. Csak a kedvelt 1-2 oldal.... Érdekes meglátás.
Egyébként az IT-s kollega srác csak röhögött tudott ma Nv fanként amúgy és 3080 tulajként amikor említettem neki hogy majdnem le lett hülyézve, s meg le félemlítve, hogy tartott a jó kis olvadástól. Ő se egy esetről hallott ez évben, itt Magyarországon úgyhogy csak nevetett rajta. Vállalja más a felelősséget azt mondta meg hogy nem hiába volt ebből ekkora botrány. Pedig full NV -s a srác.
Végén lehet Inteles vagy AMD s lesz?Áruló lesz!
[ Szerkesztve ]
-
Busterftw
nagyúr
válasz
hahakocka #43960 üzenetére
Csak ugye nem azt mondta, hogy a DLSS tokeletes, hanem atlag sokkal jobb mint az FSR, nem userek szerint, hanem ezt elemzo tesztek szerint, lasd DF vagy TPU.
De azt sem sikerult megerteni, hogy a fenti "user" peldad sem a DLSS miatt van, hanem a jatek engine miatt. Valamiert sosem fogod fel, mi a gond a "peldaiddal".
-
hahakocka
őstag
válasz
huskydog17 #43957 üzenetére
Szerintem nálad van úgy, hogy hibákat nem nézed sehol ha NV. Pedig a kettő együtt ad teljes képet. S játékfüggő de korábban azt állították hogy mindig tökéletes akkor most mégse? S nem nem én vagyok az egyetlen hidd azt hogy én láttam csak .Nagyon sok DLSS használó írt erről vagy készített videókat. Sok játékban amúgy amit NV re optimalizáltak ott szinte semmi gond nincs tényleg. Az igazság mindig középtájt van . Amikor vga-t veszek mérlegelek mindig hogy mi a jó és a rossz elem. Volt 4 NV m 4 AMD 3-4 évig. Az éremnek mindig két oldala van. DLSS és FSR se mindig tökéletes ennyi.
[ Szerkesztve ]
-
Raymond
félisten
válasz
-=RelakS=- #43958 üzenetére
Az elejen tobbszor volt hogy a fejlesztok a DLSS bekacsolasanal nem alitottak a LOD bias-on, de mostanra mar eleg ritka, alltalaban jol van beallitva.
Privat velemeny - keretik nem megkovezni...
-
-=RelakS=-
veterán
válasz
Busterftw #43956 üzenetére
Hűű!!
Megnéztem a linket a #43953 -ban
Szörnyű! Látni, hogy az alacsonyabb felbontás mellett érvényes mipmap szinteket használja a játék (közeli textúrák változatlanok, távolabbi textúrák dlss mellett alacsonyabb felbontásúak), amitől a textúrák alacsonyabb felbontásúnak, és az egész kép homályosnak tűnik. Ezen még kell dolgozniuk.
Nem sok játékban használtam eddig DLSS-t, de ilyen gyatra eredményre nem emlékszem.Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
huskydog17
addikt
válasz
hahakocka #43953 üzenetére
Tehát egyetlen user egy játékban történt tapasztalati alapján általánosítasz a technológiára? Remélem ezt nem gondolod komolyan. Amúgy az érintett user utána ezt írja:
"Actually, I had forgotten that I was using a newer version of DLSS (3.5.10) that has built-in sharpening disabled (post version 2.5.1), which is why it looks so blurry. However, the devs should still update the engine to make use of NIS sharpening as recommended by NVIDIA, so that we can make use of newer versions of DLSS.
Alternatively, one could apply NIS sharpening on the driver level but it has the very annoying downside of sharpening everything on the screen, including the UI. For that reason, I myself will be sticking with version 2.5.0 for the time being.
Edit: Having tried out 2.5.0 for an hour, I've decided to switch back to 3.5.10. I definitely prefer the improved image quality of the newer version despite the added blurriness."
Ő az élesített képet szereti, amit az új DLL kikapcsol, de ő nem hajlandó használni a driveres élesítést, és te neked ezáltal a DLSS minden játékban mossa a képet. Ami valakinek extremely blurry, az másnak lehet jó/normális. Az élesítés nagyon egyéni preferencia.
Érzed, hogy mi a gond?"RTX kártya (S AMD -s) használók írják nem én"
Én is RT felhasználó vagyok és a DLSS a játékok többségében aranyat ér. Kizárólag tőled láttam/látok ilyen szélsőséges mértékű ferdítés és bullshit általánosítást. Egy random user fórum bejegyzése helyett javaslom, hogy inkább a független teszteket olvasd/nézd, közelebb leszel a valósághoz. Rengeteg teszt van nagyon sok játékból, ahol szinte mindig a DLSS/DLAA adja a legjobb képminőséget, ahogy írtam ott vannak például a TPU/DF tesztek. Azokat miért ignorálod? A másik kérdés, amit már szintén sokszor feltettem, de egyszer sem válaszoltál rá: próbáltad már saját magad? (Közben ezt megválaszoltad hogy valóban nem.)
Nekem, mint RTX felhasználónak pontosan azok a tapasztalatok, mint amiket a független tesztek közöltek, melyek ellentétesek a kijelentéseiddel. Ez hogy lehet?"A Raszternél meg simán látod s könnyen lelövöd."
Továbbra is kevered a szezont a fazonnal, nem tudod miről beszélsz.
"Értem a felskálázást meg a kimeneti emelt felbontást, de az 1080p monitorod sose lesz 1440p vagy nagyobb persze picit élesebb lehet majd, de ennyi. De össze nem hasonlítható."
Nem, ezek szerint továbbra sem érted. Itt is zéró tapasztalattal kijelentesz egy hatalmas butaságot. A saját tapasztalatom és a független teszek is gyökeresen szembe mennek az állításaiddal. Például 1080p és 1620p között óriási a különbség, nem csak " picit élesebb", annál sokkal többről van szó. Te most tényleg jobban akarod tudni, hogy én mit látok a monitoron úgy, hogy neked záró tapasztalatod van vele?
Nekem egyre jobban úgy tűnik, hogy te kizárólag azokat a felhasználói véleményeket/tapasztalatokat/beszámolókat veszed figyelembe, amelyek a te szélsőséges mértékben elferdített világodnak megfelelnek (pl. upscaler mindig rossz, elmosott képet ad), de ha valaki ennek az ellenkezőjét mutatja, akkor azt ignorálod.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Busterftw
nagyúr
válasz
-=RelakS=- #43955 üzenetére
Ahogy eppen irja ezt ott a felhasznalo, hogy inkabb hasznalja az uj DLSS verziot a kis blur ellenere, mert a kepminoseg igy is jobb mint a regebbi 2.5 verzio.
-
-=RelakS=-
veterán
válasz
Busterftw #43954 üzenetére
Lásd Ghostwire: Tokyo. Szürreális látni, hogy _tudom_, hogy alacsonyabb felbontáson renderel a kártya (asszem performance módban használtam), mégis minden vonal éles. Persze, vannak annak a játéknak is furcsaságai (ha kevés a mozgás, elkezd egy rakás képkockát összemostni, és az a kevés mozgás elmosódik, a lámpa ki-be kapcsolásakor is előfordul, hogy nem egyszerre jelenik meg az egész fény), de alapvetően egy jól használható élmény a végeredmény.
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
-
hahakocka
őstag
válasz
huskydog17 #43946 üzenetére
RTX kártya (S AMD -s) használók írják nem én
Tele van youtube is ezekkel pl főleg FPS gameknél látható hogy blur-ol kb az enemy messze. A Raszternél meg simán látod s könnyen lelövöd. Értem a felskálázást meg a kimeneti emelt felbontást, de az 1080p monitorod sose lesz 1440p vagy nagyobb persze picit élesebb lehet majd, de ennyi. De össze nem hasonlítható. Én akkor már 1440p-4K natívba tolom 4K HDR el együtt majd, 4K ba viszont megéri a DLSS-FSR mert ott nem ront annyit . Eleve igazából 4K ra találták ki, oda kell is sajnos egyes gameknél. A t9bbinél is persze jó és fontos de több a ghosting és alacsonyabb felbontásról akár ugye 480-720p megy fel. 4K ra fogok váltani majd tehát. (4K Filmek miatt is) Ott majd használom néha az tuti. Már csak, hogy leteszteljem magam is. S a Fake frame-ek se mindig tökéletesek.
[link]
"It appears that no sharpening gets applied when DLSS is turned on, resulting in an extremely blurry image. Below is a comparison between native 4k and DLSS Quality, to demonstrate my point:"[ Szerkesztve ]
-
Raymond
félisten
válasz
huskydog17 #43950 üzenetére
Ahhoz meg orajel kene hogy azt a +60% compute-ot behozza es nem latom hogy jelentosen 3Ghz fole menne egyalatalan nemhogy az ahhoz szukseges tobb mint 4Ghz-et megkozelitene.
[ Szerkesztve ]
Privat velemeny - keretik nem megkovezni...
-
huskydog17
addikt
Valószínűsíthetően igen, nem találtam erre vonatkozó beszámolót/mérést, de ez nem is fontos, mert egyrészt nem erről volt szó, másrészt a 4080 ugyanaz az arch, mint a 4090, így nem sok értelme lenne.
Ha esetleg meg is lehet csinálni a 4080-al, nem valószínű, hogy megenne 700 Wattot, ugyanis az Ada arch sokkal hatékonyabb az energiával, mint az RDNA3.#43948 Raymond: Szerintem Anax arra gondolt, hogy Power Limit nélkül (extreme OC) meddig tudna elmenni a 4080 (Super). Ilyen információt nem találtam.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Anax
tag
válasz
huskydog17 #43946 üzenetére
"Igen, ez valóban érdekes, pedig erre már megvan a válasz, RDNA3 kb. 700 Wattot zabál, ha meg akarod közelíteni a 4090 tempóját. "
Ez nem lenne igaz egy 4080 -ra is, hogy többet fogyasztana a 4090 nél, ha meg akarod vele közelíteni?
[ Szerkesztve ]
-
huskydog17
addikt
válasz
Busterftw #43913 üzenetére
Igen, ez valóban érdekes, pedig erre már megvan a válasz, RDNA3 kb. 700 Wattot zabál, ha meg akarod közelíteni a 4090 tempóját.
#43927 hahakocka:
"Amúgy ha belegondoltok , RT ben 1080p ben lehet persze játszani még egész jól olykor, de ma már 1440p-4K korszak van. Teszteken is látszik."
Hogy látszik a teszteken, hogy ilyen vagy olyan korszak van?
"Most a csillanó, fény és tükröződés és árnyék + effektek miatt érdemes hátralépni egy felbontást sokaknak akár?"
Szavaidból egyértelműen arra lehet következtetni, hogy nincs tapasztalatod RT-vel, mármint számottevő tapasztalatod, különben nem kérdeznél ilyet. A válasz pedig igen. Ha valakinek lehetősége van a szebb látványra, akkor miért ne éljen vele? Attól, hogy neked jelenleg az RDNA1-el nincs lehetőséged megtapasztalni az RT-t, attól még nem lesz az automatikusan rossz és ördögtől való.
DLSS el meg még többet valójában.
???"Tudom DLSS el elérhető de na mégis vannak artifaktok, ghosting, stb zizi effektek és emellett mégis csak 720p be megy 2024 -ben."
Itt is milliószor leírtuk már korábban többen, hogy ez hülyeség, nem értem miért hajtogatod még mindig ezt a marhaságot.
Nem, a ghosting és különböző artifactok nem általános jelenség, néhány játékban előfordulnak, de a legtöbb játékban a DLSS kiváló képminőséget ad, sőt rengeteg játékban szebbet, mint a natív felbontás, főleg akkor, ha a játék saját AA algoritmusa fos minőségű. Rengeteg tesztet találsz akár a TPU oldalán akár a DF csatornáján ehhez kapcsolódóan, mindnél ugyanaz a konklúzió: DLSS/DLAA adja a legjobb képminőséget, FSR a legrosszabbat.
Artifact terén pont az FSR áll nagyon rosszul főleg a disocclusion artifact jelenség miatt, ami viszont általános jellemzője az FSR-nek. DLSS-nél ez nem jellemző, ahogy XeSS-nél sem. Kukkantsd meg az említett információforrásokat, nem harapnak, sokat közülük az vs topicba is linkeltünk többen.
Ha belefutsz egy olyan játékba, ahol DLSS/XeSS alatt ghosting van, akkor bármikor könnyen kicserélheted az upscaler verzióját, ami lehet megoldja a gondot, ilyen is sokszor előfordult már, DF is mutatott több ilyen játékot ahol a DLL frissítés megoldotta a gondot. FSR-nél erre nincs lehetőséged, ott megszívtad."720p be megy 2024 -ben"
Ez a rész pedig szimplán egy hatalmas marhaság. Ezek szerint te még mindig abban a hatalmas tévhitben élsz, hogy DLSS és egyéb felskálázók csak 720p-ben képesek működni? Erre lehet következtetni a szavaidból és tudjuk, hogy ez soha nem volt így. Megnyugtatlak, én minden játékban, amely támogatja a DLSS-t, bekapcsolom azt 1620p kimeneti felbontáson és így 1080p rendering felbontást kapok, ami fényévekkel szebb, mint a natív 1080p. Van viszont olyan játék, amit 4K-ban tolok DLSS Quality mellett, ami ugye 1440p rendering felbontás.Nekem ugyanaz a gyanúm, mint RT-nél, hogy életedben egyszer sem láttad még működés közben a DLSS-t veszteségmentes képen, tehát saját gépeden/monitoron, mondjuk RDNA1-el nem is lehet és emiatt abba a hamis hitbe rángatod magad, hogy az rossz.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Devid_81
félisten
Ha mar fogyasztas, ez volt mar?
NVIDIA GeForce RTX 5090 Founders Edition rumored to feature dual-slot and dual-fan cooler
...
-
M@trixfan
addikt
Volt már extra “import tariff” korábban is, az a kérdés mit tett az EU árakkal akkor? Elvileg minket nem kéne érintsen, csak sajnos sok esetben az USD árból számolják át az EUR árazást. Óriási ön-tökönlövésnek tűnik az USA részéről, hasonló az EU szankicióihoz. Pluszban a konténer hajóztatási díj kiugró emelkedése is aggasztó, az biztosan globális áremelkedést okoz. Akkor vegyük hozzá a mostani állást miszerint nem lesz felső kategóriában ellenfele az Nvidiának, egyre xarabbul áll a helyzet…
twitter: MatrixfanLive | Ősidőktől a PH!-n
-
hahakocka
őstag
Amúgy ha belegondoltok , RT ben 1080p ben lehet persze játszani még egész jól olykor, de ma már 1440p-4K korszak van. Teszteken is látszik. Most a csillanó, fény és tükröződés és árnyék + effektek miatt érdemes hátralépni egy felbontást sokaknak akár? DLSS el meg még többet valójában.
No mindegy reméljük minél hamarabb lesz elérhető minden célközönségnek és akár az alsó-középkategben is látványos és gyakorlatban jó sebességgel megoldható RT lesz 1440p-ben. Ez lenne sokaknak a cél. Tudom DLSS el elérhető de na mégis vannak artifaktok, ghosting, stb zizi effektek és emellett mégis csak 720p be megy 2024 -ben. Talán hatványozottan igaz az FSR-re ugyanez.[ Szerkesztve ]
-
t72killer
titán
válasz
huskydog17 #43912 üzenetére
"úgy tűnik az alaptalan félelem nagy úr." - nagy. A mindenféle hiedelmek hihetetlen módon képesek manipulálni a komplett piacot. Használtpiacon obszcén árakon megy a 3080/Ti/3090/Ti széria, annyiért veszik ezeket, amennyiért majdnemhogy garis új 4070xx megfelelőt találsz a boltban.
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
Busterftw
nagyúr
válasz
huskydog17 #43912 üzenetére
De latod azon sem elmelkedik, hogy egy 4090 teljesitmenyu RDNA3 vajon mennyit fogyasztana es mekkora hutes kellene ala.
Vagy ha mar kovetkezo generacio, egy 5090 teljesitmenyu RDNA4 mennyit fogyasztana.Valamiert ezek nincsenek bebofogve minden heten.
-
huskydog17
addikt
válasz
hahakocka #43901 üzenetére
Én továbbra se értem, hogy teljesen alaptalan pletykákat miért kezelsz továbbra is tényként. Szerintem ez az oka, amiért itt rendszeresen töménytelen mennyiségű marhaságot hordasz össze.
Jelenleg semmi bizonyíték arra, hogy 600 Wattot fog enni az 5090, de ezt te már tényként kezeled.
Ha így is lesz, az RTX 4090-es hűtések, akár FE, akár custom design, mind 600 Wattra lettek tervezve, és egyik sem közelíti meg a 40-50 cm-t, így nagy valószínűséggel az 5090 sem fogja.Ha ennyire félsz a fogyasztástól, akkor a lakásban ne használj se mikrohullámú sütőt, se porszívót, se mosógépet, se vízforralót stb. mert ezek 1 kW-ot is megesznek, akkor a te logikád szerint azok már fel is fogják robbantani a lakást és egész Paksot egyszerre gondolom. Ugye mekkora hülyeség?
"Én tuti nem vennék még milliomosként se ilyen kártyát."
Akkor miért hozod fel mindig pont ezt a témát és miért zavarnak téged ennyire a csúcstermék (feltételeztt) tulajdonságai? Itt most magadnak mondasz ellent.
#43903:
"Pedig folyton-folyvást vannak erről hírek és szakértőknél is nemrég pl akik mindent rendben tettek."Én napi rendszerességgel olvasom a hardver híreket, de egyet sem láttam már jó ideje, kizárólag itt a fórumon tőled látom ezeket a dolgokat.
"Egyik Nvidia rajongó ismerősöm is inkább 12gb os 3080Ti-t vett mert sokat olvasott erről s inkább megijedt a biztosra ment és nem akart 12 PIN-est. Kérdeztem tőle miért nem akart 4070-et, hát csak a 12 PIN miatt."
Akkor az az ember nagyon erősen félre lett vezetve vagy szimplán nagyon benézett valamit, ugyanis a legtöbb 4070-es custom design 8 pinest csatit használ, így az az emberke úgy tűnik nagyon nincs képben a dolgokkal. Na persze nem rossz a 3080Ti, de egy 4070 Super-rel sokkal jobban járt volna, de úgy tűnik az alaptalan félelem nagy úr.
"Sokan tartanak ettől."
Mi az a sok? Pontosan kik? Én valahogy ennek az ellenkezőjét látom.Azt sem értem hogyan kapcsolódik a témához a használt piac, illetve miért hoztad fel. A csalóknak pedig aztán végképp semmi köze a témához.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
t72killer
titán
válasz
hahakocka #43903 üzenetére
Nekem minden okés vele (4070TiS). A hőkamerám elnyelte a főd de a multiméter infrás hőmérőjével rámérek majd furmark alatt. Kézzel fogva nem forrósodik a csati környéke, pedig én is izgultam mennyire hevül fel a hangulat a tucatnyi hangyap.cs bedugása után
Tény, én egyéb okok miatt IS maradnék a max 300-350W körüli fogyinál, ami ugye az új szabvány fele. Ha más nem is, feleannyi hőt kell elvezetni a házból (nem founders karit dobott a kocka így az igencsak éhenkórász skylake-X procim egy levegőt szív a VGA-val.
[ Szerkesztve ]
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
Busterftw
nagyúr
válasz
hahakocka #43901 üzenetére
Most is van 600W bios a egyes 4090-kon, nem jelent semmit.
450W felett mar konkretan nem szarmazik semmilyen teljesitmenybeli elony, sot, 80% powerlimittel hasznalva nyersz 100W fogyasztast 3-5FPS karara."szakértőknél is nemrég"
Na kik ezek a szakertok? A Facebook haverok?"Sokan tartanak ettől."
Mennyien? Mert a szamok azt mutatjak, hogy sokkal-sokkal tobben nagyivben tesznek ra es nem tartanak tole.Jolvan felmondtad a szokasos heti "kivenne szar Nvidia-t" propagandat, szerintem ugorjunk a marhasagaidrol tovabb.
-
-=RelakS=-
veterán
válasz
hahakocka #43901 üzenetére
Már csak két foglalatnyi hűtőt pletyiznek az 5090 fe-re
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
TESCO-Zsömle
félisten
válasz
hahakocka #43901 üzenetére
Itt jegyezném meg, hogy ez kb a felét fogyasztja egy hasonló kategóriájú 4-way SLI/CF rendszernek, illetve még mindig nem sikerült megugrani egy valamire való lakossági (nyilván atommeghajtású) porszívó 1600-2200W-os fogyasztását...
Nekem csak az árával és magával a hűtéssel/kialakítással vannak gondjaim. Az első egyértelmű, a második ugye nagyon fasza, de a 600W-ot telibe a CPU felé fújja, ami annyira nem nyerő, illetve a sok-nyákos kialakítás miatt erős kérdőjel, hogy lehet-e (és ha igen, milyen/hogy fog kinézni?) majd rá vizesblokkot kapni.
[ Szerkesztve ]
Sub-Dungeoneer lvl -57
-
hahakocka
őstag
Pedig folyton-folyvást vannak erről hírek és szakértőknél is nemrég pl akik mindent rendben tettek. Egyik Nvidia rajongó ismerősöm is inkább 12gb os 3080Ti-t vett mert sokat olvasott erről s inkább megijedt a biztosra ment és nem akart 12 PIN-est. Kérdeztem tőle miért nem akart 4070-et, hát csak a 12 PIN miatt. Sokan tartanak ettől. Ez kicsit olyan lutri lassan minta használtnál, az adott embernek éppen még nem volt gondja, de másnak meg igen jól meg szívta. Én nem is veszek használtat. Most volt egy eset volt osztálytársamnál, 170re ft-ja bánta, a másiknál pedig egy rendőrségi nyomozás folyik már egy csaló ellen aki 2000 embert szívatott meg pedig jó értékelései voltak. Egyébként hova lett Gianni a Hardveraprón? Az is érdekes vagy 10-12 éve ad el ott és egyszerűen eltűnt.
[ Szerkesztve ]
-
Jacek
veterán
válasz
hahakocka #43901 üzenetére
Erdekes hogy megragadt ez a le eges.
Nekem 5db 4090-em volt kb 66x ki be szerelve, megsem tudtam egyetlen egyszer sem szarul belendugni a csatit...Ui: megint ugyan azok a hirek, AMD rejtett titkos wunderweapon, hogy atver mindenkit. Nvidia kazan, blokktegla stb... aztan jon a valosag
[ Szerkesztve ]
-
hahakocka
őstag
https://pcforum.hu/hirek/27762/nvidia-geforce-rtx-5090-videokartya-4-foglalat-fogyasztas-tobb-nyak
Ez alapján lehet 500-600W ot fog enni a kicsike, persze ne így legyen. Gondolom lesz vagy 40-50 cm is. Ezt majd lehet már pajzsként használni éjjel a betörők ellen!Remélhetőleg ez nem fog sokszor leégni mint a 4090 nél volt . Én tuti nem vennék még milliomosként se ilyen kártyát. Ha AMD ha, NVIDIA? ha Intel adja ki tök mindegy. Régen viccelődtek a PAKS 2-3 al hát ez a kártya lehet azt is leállítja
De ne így legyen. Kérdés mennyivel lesz jobb mint a 4090 s az ára is mennyivel lesz még nagyobb? Sok boltban még most is 850e-900e FT a 4090.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Marketing Budget
Város: Budapest