-
IT café
nVidia GeForce GTX 970 / 980 (GM204)
Új hozzászólás Aktív témák
-
nagyúr
és milyen igazuk is lenne, hogy 85W miatt kihagyják a vapor chambert, nem igaz? csak az a gond, hogy a 85W a 780Ti esetében 50-60W, a szintén 250W-os TDP-vel felcímkézett 780-hoz képest pedig már csak 20-30W. kicsit olyan érzésem van, hogy a fogyasztással kapcsolatos nagyotmondást saját maguk is elhitték, és ennek alapján némileg mellényúltak a hűtéssel. kár érte - így érdemes a 980-ból is megvárni a nem refeket.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
egyre inkább úgy fest az egyre több teszt alapján, hogy amellett, hogy a ref 980 könnyen fut temp limitbe, mind a 970, mind a 980 power limites is. ezeknél a kártyáknál is működik az Afterburner (vagy hasonszőrű) általi temp / power limit kitolás?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
el is fogytak az ASUS-ok az iPonnál. valaki megírná, mennyi volt? megint 110k?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
HREH, Forestgreen, hpeter10: köszi
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz #Morcosmedve #1953 üzenetére
vizeséknél van Borderlands kupon - az jelenleg kb. 6-7e pénzt ér. így is drágább, persze.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz #Morcosmedve #1967 üzenetére
nagy volt a kísértés, de nem én voltam - inkább a 960-ban gondolkodom, de ettől még lehet egy gyenge pillanatom
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz szasanyi #3386 üzenetére
szerintem hót feleslegesen agyalnak az emberek azon, hogy 1 év múlva vajon mi lesz a jobb HW. erre az a válasz, hogy nem lehet megjósolni. 8 éve (vagy régebben, csak én azóta vagyok itt ) minden aktuálisan megjelent nVidia architektúrával kapcsolatban a csapból is az folyik ezeken a fórumokon, hogy nem lesz időtálló, és 1-2 év múlva szívni fognak a vele a tulajok - ez eddig egész pontosan 0 alkalommal jött be. Volt amikor 1 év múlva az AMD rápakolt 10-15%-ot az azonos kategóriában futó versenyzőjére, volt, amikor nem, de a Nagy Drámai Zöld Failure eddig egyszer sem történt meg. Anno az FX5000 széria szerepelt nagyon rosszul - viszont az már a bemutatkozáskor is elhasalt, nem kellett rá 1 évet várni.
ha a DX12 már itt lenne 1-2 hónap távolságban, akkor lenne értelme a dolognak, de így...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz bandi0000 #3872 üzenetére
nagyon leegyszerűsítve, a textúrázók célhardverek, amik azzal foglalkoznak, hogy kiszámolják, hogy egy adott felületre hogyan feszül rá egy textúra - sorban végigmennek a felület pixelein, és megmondják, hogy arra a textúra melyik pixele kerül. azért nem gond a 970 és a 980 relatíve alacsony textúrázási kapacitása, mert ezen a téren régóta túl van méretezve mindegyik high-end VGA.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
-
nagyúr
válasz Malibutomi #4848 üzenetére
persze, hiszen a Gigának annyi körül van a power targetje. a referencia ugyanabban a tesztben 177W-ot evett. ehhez mérten a Giga nyilván gyorsabb is, de meglepne, ha 10-20%-nál több lenne a különbség.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Malibutomi #4859 üzenetére
akkor 185W, teljesen mindegy. a lényeg, hogy azok a kártyák fogyasztanak sokat, amiknek ki van tolva a power limitje, nem pedig mind.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz gainwardgs #5017 üzenetére
itt 2560x1440-re gondolsz, nem? a kolléga 2560x1080-at írt, az pont félúton van a fullHD és a WQHD között.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz gainwardgs #5195 üzenetére
az egy dolog, de a > 2 éves GTX 690 hogy beugrott már minden 1 GPU-s kártya elé
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
nyuszi vagy, McFly?
de komolyra fordítva, egyrészt 125k-t tényleg nem ér, másrészt viszont nagyon mulatságos, hogy felbukkan a 980 felett. OK, kell hozzá a 90%-os SLI-skálázódás, viszont ha jön a dájrektiksztvelv, meg a normális módszerek több GPU kihasználására, akkor a 2x2GB VRAM lényegesen többet fog érni, mint az egy GPU-n a 2GB.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
pontosabban mindenki érzékeny rá, csak mindenkinél más, hogy mekkora késleltetésnél kezdi észrevenni, hogy valami nem kerek. 100-120ms felett a többség már látja/érzi (az érzékenyebbek pedig jóval alacsonyabban is) - és ebben az előre-renderelésen kívül a monitor input lagja és a monitor megjelenítésének gyorsasága is benne van (kb. 10-40ms). 5-ös prerender 60fps mellett már biztosan túl sok (100ms + monitor), 100-120fps-nél határeset (50-60ms + monitor), felette beleférhet.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz SSJPeter #7917 üzenetére
gondolkodj a bolt fejével is egy kicsit. eladnak Neked 110k-ért egy VGA-t, amin nagyságrendileg 3-5k árrésük van. mit csináljanak az ilyen visszavitt kártyákkal, amit várhatóan a nagyker nem fogad el tőlük, mint hibás terméket?
a) nyeljék be? 20-30 eladott kártya árrését bukják egyetlen darabon.
b) adják el használtan? milyen áron? Te mennyiért vennél a 110k-s új árhoz viszonyítva visszavitt kártyát? 100k-t adnál érte? már akkor is 2-3 árrést buknak.
c) más lehetőséget nem látok.(#7914) bigdigit: mindenki ezt csinálja - most akkor azért "bünteted" az AQUA-t, mert ők bevallják?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Nagylajos_1 #9430 üzenetére
4K-ra a 970 teljesítmény terén a legkevésbé jó választás, mert akkora felbontásban sokkal többet számít a pixelfeldolgozási képesség, és ebben a 980 is meg a 290 és a 290X is közel 25%-kal jobb (azonos core órajel mellett).
másrészt a többkártyás rendszerek támogatottsága egyre romlik, szerintem 2015-ben lesz a mélyponton, utána a leegyszerűsített API-k érkezésével javulhat a helyzet.
mindezzel együtt, bizonyos játékok esetében lehet hatékony megoldás a 970 SLI, de mindenképpen érdemes teszteket nézni, nehogy nagy csalódás legyen belőle.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz t72killer #9454 üzenetére
persze, amint megmutatod, hol írtam, hogy az egész kártya jobb 25%-kal (nem csak a pixel delivery)
(#9455) Speed(R): igen, tavaly év végén még jobb volt a helyzet - az idei játékokkal sokkal több a gond.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz daveoff #12097 üzenetére
6-12 hónapos ciklus mellett még a következő kártyádnál is nagyjából mindegy lesz. max. annyi fog történni, hogy a következőt 10-12 hónap helyett muszáj lesz 6-8 hónap múlva cserélni
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz TTomax #12354 üzenetére
az majdnem biztos,hogy az nV nem fogja támogatni
szerintem ezzel érdemes megvárni az első monitorokat (tudom, mást sem teszünk, mint várjuk őket ), és utána pár hónapot. az egy dolog, hogy mit mond most az nVidia, viszont szerintem nem feltétlen akarják majd kizárni a saját terméküket a FreeSync vásárlók lehetőségei közül.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz daveoff #13005 üzenetére
érdemes a TXAA-dolgot egy kicsit árnyalni. alapvetően az a célja, hogy a temporális artifaktokat kiszűrje, és azt egész jól is csinálja (legjobb tudomásom szerint egyetlen ilyen PC-s eljárásként) - sajnos mellékhatásként erősen homályosít. jelen formájában szerintem is használhatatlan, de arról szó nincs, hogy gagyi lenne - kellene tovább fejleszteni, talán lenne is belőle valami.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
kérdés, hogy a sokat emlegetett HRAA és a többi analitikus megoldás temporálisan mennyire stabil - a példának felhozott DSR / VSR nem az. ha ezt a problémát is meg tudják oldani, akkor tényleg moar powa' analitikus AA, ha pedig nem, akkor majd 2 év múlva lehet újabb velőtrázó újításokkal előállni
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz MPowerPH #13881 üzenetére
szerintem abszolút nem felesleges, a játékok többségében még WQHD-ben is 30-50% plusz teljesítményt hoz a 3. versenyző, és a beállítások többnyire nem is a maximumon vannak.
mikrolag szerintem nem lesz feltétlen több 3 kártya esetén, mint 2-nél (nVidia régóta használ "simítást") - engem inkább az input lag érdekelne, amikor a 3 kártya 50 fps-t köhög ki magából...Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz MPowerPH #13944 üzenetére
nekem sokkal inkább az a gondom Hilberttel, hogy nincsenek a tesztek végiggondolva - fog egy csomó HW-t, odavág egy nagy rakás teszteredményt, de ami a leginkább érdekes lenne, az pont nem derül ki. ez a TriSLI-s tesztben nagyon markánsan látszik - megvannak a mérések 4K-ban, de az összehasonlítások WQHD-ban, FXAA mellett vannak csak bemutatva. az SLI szinte mindenhol 100 fps felett van, és a TriSLI vagy CPU-limitbe szalad, vagy felmegy 100-120 fps-ről 150-160-ra, ami túl sok információt nem hordoz. ebből könnyű levonni a konzekvenciát, hogy semmi értelme a TriSLI-nek, pedig gyanús, hogy 4K-ban pont sokat hoz.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz keIdor #14584 üzenetére
nemnem, az nVidia jól összezavart mindenkit a péntek / szombati környéki marhaságával - ennek semmi köze az SM-ek letiltásához. egyszerűen úgy döntöttek, hogy letiltanak egy fél partíciónyi ROP-ot is, ezáltal növelve a kihozatalt.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
hű, ez most elég káoszos. a belső univerzális adatbusz alatt a crossbar vezérlőt érted? ha nem, akkor milyen viszonyban vannak egymással? és miért lennének használhatatlanok a ROP-ok (nem látom, hogyan következik ez az előzőekből)? more detailz plz!
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
thank you, but...
a GPC-hez tartozó ROP-ot.
ezt a szakaszt nem értem, és vszleg ezért nem jön át a konklúzió sem. hogyan tud a GPC-hez tartozni egy ROP blokk? az összes funkcionális architektúra-ábrán a ROP és a mem-kontroller szorosan van csatolva, és az összes a crossbaron lóg, ami amúgy az interleaving / striping miatt muszáj is. ha ezt összekombinálom azzal, amit a postodból leszűrtem, akkor egy GM204-es GPC 512-bites belső buszon csatlakozik a crossbarhoz, és ennek a szélessége csökken, ha tiltogatod le az SM-eket. viszont én ennek sehogy nem látom a ROP-okra levetített hatását ill. a ringbus-analógiát sem értem - eddig abban voltam, hogy az a crossbar "helyettese".
gyanítom, hogy a fenti kérdésre nincs rövid válasz , viszont részletes infot a google-ön folytatott búvárkodásom nem hozott. van vmi anyagod esetleg?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
hmmm, ez nagyon érdekes ezek szerint ahhoz, hogy ez az egész memória-architektúra jól működjön, egy igencsak kifinomult, kiegyensúlyozott kontroll szükségeltetik. ez mennyire van a chipben (= extra tranzisztor), ill. mennyire driver?
viszont az továbbra sem jön át, hogy a fentiek miatt le kell tiltani egy fél ROP-blokkot. 3 eset van:
- ha minden letiltott SM ugyanabban a GPC-ben van, akkor világos, hogy a hozzá priorizált ROP-blokk alulutilizált lesz, de ettől még nem szükségszerű letiltani - MSAA-ban még mindig tud segíteni.
- ha 2 SM egy GPC-ben van, és 1 egy másikban, az végső soron hasonló helyzet, mint az előző - fél GPC, fél ROP. érthető, de nem szükségszerű.
- ha mindegyik SM más GPC-ben van, akkor nincs is értelme a letiltásnak. a sajtóban most ez a verzió forog, nem tudom, igaz-e.amikor először láttam az 56 ROP-os ábrát, rögtön az ugrott be, hogy a GPU-ban akár 3 GPC mellett egy ROP blokk is hibás lehet, és még mindig lehet belőle 970. mivel a kártya szokatlanul alacsony price pointon jött, nyilván a költségek optimalizálása a szokásosnál is fontosabb volt, és 4 független hiba lehetősége azért elég nagy rugalmasságot ad. míg ha a backendnek hibátlannak kell lennie, az ki tudja, mennyivel rontja a yieldet. szóval én még mindig erre hajlok
in any case, köszi az infokat
a 950-ben még bizakodom, hogy értelmes kártya lesz (gondolom, az is GM206 lesz), de alaposan a körmére kell nézni, mielőtt beleugrik az ember...Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz dewil666 #14962 üzenetére
mint mindent, ezt is lehetne értelmes emberek módjára kezelni. tekintsd azt, hogy a 970 egy 224-bites, 56 ROP-os, 3.5GB-os kártya. így megérte az árát? fogadni mernék, hogy a vásárlók 90-95%-ának igen, ha őszintén válaszol. a maradék 5-10%-nak (pl. 4K / Surround userek) meg valóban illene biztosítani a refund lehetőségét.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
írjanak gyors kódot arra, amit ismernek, a másikon meg menjen, ahogy esik. viszont egyelőre ott tartunk, hogy a Dying Light AMD-n még sokkal rosszabbul fut, mint nVidián. akkor most miért az IHV a hülye?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
nem tudom, a DL-nál milyen kiterjedtségű a probléma, de az olvasottak arra utalnak, hogy ha leveszi az ember a látótávolságot mondjuk 20%-ra, akkor a gondok jelentős része megoldódik. ez pedig legalább annyira piacnevelési probléma, mint műszaki.
iszonyú teljesítményeséseket 1-2 feature-től GE címeknél is látni - max. jobban vannak csomagolva.a minőségi rosta egy műszakilag teljesen logikus megfontolás, de a piaci hatása lényegesen kevésbé egyértelmű. amíg pl. az Assassin's Creed sorozat sikeres (pedig nem a Unity volt az első csúnya fiaskó műszakilag), addig a Ubi jó partner, bármilyen szar is ezt leírni. az nVidiáról pedig tudjuk, hogy erősen S&M driven cég...
jah, Namcoékat érdemes lenne felkarolni
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...