- Nem bírják kiszolgálni az AI energiaigényét
- Kanada feltalálta a Netflix-adót
- Tombol az AI-láz: az NVIDIA már értékesebb, mint az Apple
- Megpróbálják a spanyolok: megvédenék a gyerekeket a közösségi médiától
- DIGI internet
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- DIGI kábel TV
- Musk átirányította a Teslának szánt AI-chipeket
- Starlink
- Windows 7
Új hozzászólás Aktív témák
-
HSM
félisten
válasz Erdei88 #26456 üzenetére
Az első érvelési hibád, hogy nem érvelsz semmi mellett vagy ellen, hiszen éppen az én érvelésem ellen érvelsz személyeskedéssel, azaz próbálsz nevetségessé tenni.
A másik durva érvelési hibád pedig szalmabáb érvelésed. Sehol egy szóval nem állítottam, hogy az X5660-am mindennél jobb.
Már világosan, többször leírtam az álláspontom, ami mellett érveltem: [link].
Azaz hogy rengeteg játék van, ami egyfelől profitál a 4-nél több magból, és hogy emiatt egyáltalán nem felesleges 4-nél több magos processzort használni ezekhez a játékokhoz azoknak, akik megtehetik hogy vegyenek.(#26459) Hachiko95: Az állításod látom, de nehezen tudom elhinni, amikor magam is vagy 200 órát tettem BF4-be húzott i5-ön multiban, és azért néhol elég neccesen futott vele már az is.
De nehéz lenne onnan releváns méréseket venni, a multi természete miatt kb. lehetetlen kétszer ugyanazt precízen megmérni sajnos.
Pedig nálam csak egy R9 290-est kellett volna kihajtania, FHD maxgrafikán, bár élsimítás talán csak 2X-es volt.[ Szerkesztve ]
-
HSM
félisten
válasz Erdei88 #26461 üzenetére
A lényeg, hogy az érvelésem nem erre irányult. Azt a fórumtárs keverte ide. Én csak a Crysis 3 skálázódásának bemutatására használtam. Kipróbálhattam volna a kétmagos HT-s IGP-s notimon is csak az kevéssé lett volna hasznos úgy.
(#26463) Hachiko95: Azonos körülmények mellett kellene mérni. Ha még csak nem is az látszik a képen azt nehéz összehasonlítani. Látom, hogy a tiéden más van, éppen ez a gond.
[ Szerkesztve ]
-
HSM
félisten
válasz huskydog17 #26491 üzenetére
Kár volt rászánnom az időt, hogy elolvassam. Ezeket a dolgokat már a megjelenéskor tudni lehetett egytől egyig. Szomorú, hogy ezt ilyen szájbarágósan kell újra és újra magyarázni lassan két évvel a megjelenés után is.
(#26467) Hachiko95: Én pedig láttam a húzott a i5-ön 30 alatt is az FPS-t Crysis 3-ban masszív CPU-limittel. Mind1, szerintem lapozzunk.
-
HSM
félisten
válasz Hachiko95 #26501 üzenetére
"Saját tapasztalatból írom, hogy egy 4670K@4.5GHz és egy hasonló i5 elég egy GTX 1070 mellé, ez volt az állításom."
Hát ezaz... Nekem meg a 4690K-val az volt a tapasztalatom, hogy éppencsak elbírt az R9 290-esemmel néhány játékban FHD max grafikán 2 évvel ezelőtt 4,5Ghz-re húzva. A 1070 meg annál jóval erősebb.
Igen, a Crysis3-al jövök jobb híján, mert az egyfelől jó példa, másfelől jól mérhető. Sokat játszottam BF4-el is, ott is néhán eléggé rezgett a léc az i5-el, de ugye már írtam, hogy ott semmi értelme méricskélni, mert nem tudod megismételni.Megspórolok neked egy mérést, azon a részen 47 és 52 FPS között tud egy i5 4690K 4,5Ghz-en R9 290-el, szerintem már említettem, megmértem anno. [link] [link]
A 47FPS-es képen 1600Mhz CL9 a ram, a másikon 2133Mhz CL11.
De ha kicsit beljebb mész be fog az zuhanni 30-40FPS-re is, mint a huzat. Csak ott megint nem lehet jól mérni, ellentétben itt pontosan a mentés utáni pontban állva.[ Szerkesztve ]
-
HSM
félisten
válasz Hachiko95 #26503 üzenetére
Persze, hogy átlagban gyorsulni fog, meg vegyes limitben is valamennyit. A CPU limites részek meg ugyanúgy a béka feneke alatt lesznek/lehetnek.
Ezt nézik be a legtöbb tesztben is. Megmérnek egy játékot egy pályarészen, és levonják a konklúziót. Amikor lehet a következő pályára mondjuk másfélszer akkora CPU kellett volna. De azzal majd szív a user, mikor nem azt látja, amit a review-ban mértek. Ahogy a kicentizett proci miatti esetleges lagtenger sem fog az átlag FPS-eken látszani (akár a minimumon sem), miközben az élmény nem olyan lesz. Nehezen mérhető és számszerűsíthető dolgok ezek sajnos.[ Szerkesztve ]
-
HSM
félisten
válasz #45997568 #26634 üzenetére
Én azon lepődök meg, hogy néhányan miken lepődnek meg. MIért meglepő, hogy a GPU-limites helyzetekben nem nagyon van gyorsulás, sőt, pl. bizonyos Nv hardvereken lassulás? Az AMD bizonyos kártyáin meg mondjuk plusz 20-30%, ha jól programozzák. A DX12-től nem lesz hirtelen erőseb a GPU...
Viszont azt írják, talán az élesebb szeműek észrevették, hogy CPU terén könnyedén lehet 20-30%-ot hozni, és pont ez volt az egyik lényeges pont. No, meg az olyan apróságok, hogy jobban karbantarható, debuggolható kód, meg egyéb nyalánkságok.... Nyilván, nem való mindnekinek.
[ Szerkesztve ]
-
HSM
félisten
válasz daveoff #26636 üzenetére
Kérdés, milyen időtávban gondolkozott. Én ennyire már nem vagyok benne, de pl. gondolom nem véletlen jön új shader nyelv is (SM6) hamarosan... Illetve a Vulcan-on is mintha olvastam volna, hogy tervben vannak hasonlók. De persze, ettől sem lesznek erősebbek a GPU-k, legfeljebb kevesebb művelettel, egyszerűbben tudnak majd bizonyos dolgokat megoldani. Bár innen is voltak pletykák, hogy a jelnelegi vasak közül kb. csak a Polaris nem feküdne ki pár SM6 utasítástól... De nyilván ha ilyenek vannak, a piaci részesedés okán kerülni fogják a fejlesztők még jó sokáig ezeket PC-n...
-
HSM
félisten
válasz deja vu #26735 üzenetére
Ennek éppen inkább örülni kéne, hogy az olcsó, megfizethető monitorokba szépen lassan beszivárog egy hasznos, új képesség, és nem csak a méregdrága sokszázezer forintos réteg kiváltsága lesz ez a hasznos lehetőség.
Amúgy vannak meglehetősen komoly, profi Freesynces monitorok is, csak ugyanúgy zsebbenyúlósak, mint G-sync társaik.[ Szerkesztve ]
-
HSM
félisten
válasz deja vu #26740 üzenetére
Nem mondtam, hogy mind jók. De aki ebben az árban vásárol, az kap egy ingyen hasznos extrát. Ennyi.
(#26743) tom_tol: Rossz a módszertanod. Ezt kár nézni, mert a G-syncet alapból csak felsőkatgóriás termékekbe szerelték az elég horror ára révén. Nyilván egy 150 dolláros monitornál senki nem fizetne még 200 dollárt a G-syncért, mert nem ment el a józan esze.
Amúgy az én dellem is ez a 150 dolláros árkategória, és teljesen jó (belépő 24" FHD IPS), és idővel remélhetőleg ebbe a kategóriába is becsorog a freesync. Mondjuk én elvagyok nélküle is, elég nekem ez 80hz OC-val....
(#26744) Keldor papa: Azért a maxwell megjelenésekor is volt baj, ez cincogott, az 100 fokos VRM.... Ott sem volt minden fenékig tejfel... Ja, és a 290X-ekről nem vitt el a cica fél GB ram-ot a megjelenés után pár hónappal...
-
HSM
félisten
válasz keIdor #26774 üzenetére
"De nem vagy vele hátrébb, mint egy 4GB-ossal."
Azért elég szívás tud lenni, amikor bizonyos játékokban 3,5GB használat felett elkezd akadni, míg a rendes 4GB kártya sima marad. Erre azért már jópáran ráfáztak...
(#26776) Keldor papa: Igen, sajnos addig skálázódott az addigi architektúrájuk, míg az Nv a megosztott setup/geometriai motorjával tovább tudott menni. Majd most lesz továbblépés és pár igen ígéretes újítás a Vega-val.
[ Szerkesztve ]
-
HSM
félisten
Itt félreértés van kéremszépen. Nem kell várni. Vehetsz Nv-t is. Nem is értem, miért jönnek párhetente a frissített Nv driverek, amikor már megjelenéskor tökéletesen meghajtják a kártyáikat és a kártya teljesítményének 100% azonnal megjelenéskor rendelkezésre áll. Oh wait, hogy mégsem...
[ Szerkesztve ]
-
HSM
félisten
Új vagy jelentősen módosított architektúránál mindig gyengébb a kezdés mindkét oldalon. A Vega-nál ez a helyzet, elég sok jelentős újdonságot/módosítást pakoltak bele. Most az Nv nem lépett nagyot a Pascal-okkal, nem csoda, hogy nem "60%-ról" indult a driveres teljesítményük.
Szval, jelenleg így fest a helyzet, hogy míg az Nv Pascal-os driverei már kiforrottnak tekinthetőek, így jelentős gyorsulásra viszonylag kicsi az esély, addig az új Vega architektúránál komoly gyorsulások is benne vannak a pakliban az első ~ fél évben. Plusz nyilván sok minden függ attól is, mennyi új képességet tudnak engedélyezni a megjelenéskori driverbe.[ Szerkesztve ]
-
HSM
félisten
"De eleve úgy tervezték a konzolt, hogy ha kevés a processzor, akkor vigyék át a feldolgozást a GPU multiprocesszoraira."
Ez így van. Viszont a gyakorlatban ez elég korlátozottan látszik megvalósulni, viszont rengeteg bosszankodásról hallani fejlesztői körökből, hogy így lassú a CPU meg úgy, ami nem is csoda, amikor a 8 mag tud összesen annyit, mint egy modern kétmagos i3..."Ugyanolyan egységek, mint a CPU-magok."
Ez viszont óriási és súlyos tévedés. Egészen másra használható, egészen más tulajdonságú egységek. Bizonyos algoritmusok az egyiken, mások a másikon futnak jól, és ez nem felcserélhető. Most az, hogy a memóriához ugyanúgy hozzáférnek az alap, az a koncepció lényege, de ettől nem lesznek hasonlóak sem a különböző részegységek."Amelyik fejlesztő ezt nem követi magára vessen."
A fejlesztő kezét köti az idő, és a költségvetés. Ezen már millió jópofa fejlesztés megbukott. Kapásból PC-re nem lehet áthozni, mert PC-n nagy a PCI-E késleltetése. Akárhonnan nézzük, elbaltázott koncepió volt ennyire gyenge CPU-t belerakni, és a fejlesztőkre bízni a kemény munkát, hogy főzzön valami látványosat a nagyon kevés erőforrásból....
Nem kellett volna ennyire spúrkodni a chippel, simán belerakathattak volna egy kisebb órajelű és így étvágyú Vishera FX-et, rendes 8-magosat, máris szóba sem került volna a CPU-gyengeség még évekig.... Ráadásul ahogy a blogban is írják, azért is butaság volt így csinálni, mert így hiába raknak erősebb GPU-t a nagyobb gépbe, a játékokat nem írhatják komplexebbre, mert az alapoknak a kis gépen is futnia kell, legfeljebb több konfettit kaphat ugyanaz.... De azt is érzéssel, mert a konfettit is a CPU animálja...[ Szerkesztve ]
-
HSM
félisten
"Csak ezek kutatása pénzbe kerül, és nagyon sok cég képtelen levezényelni."
Pontosan itt a bökkenő. Ezért írtam, hogy elkélt volna ide egy erősebb CPU. Rengeteg pénzzel a top stúdiók elértek korlátozott eredményeket. Hát, azért ez nem az, amitől eldobom az agyam...."Nem azért, mert nem lehetne rajta változtatni..."
Pedig pont, hogy nem lehetett változtatni, mert kompatibilisnek kellett maradni az előddel."A GPU erejére voltak panaszok, és ezekre reagált is a Sony és a Microsoft."
Igen, 4K-n már az volt a kevés, nem túl meglepő módon. Ezért hozták ki a komolyabb GPU-s verziókat 4K-hoz, amiken az eredeti géppel kompatibilis játékok szaladhatnak magasabb képminőséggel.[ Szerkesztve ]
-
HSM
félisten
válasz velizare #29086 üzenetére
Ó dehogynincs. Ez a lényeg. Tény, belerakhatták volna, ahogy írod, csak nem lehetett volna használni, amiatt, amit én írtam.
(#29087) Loha: Köszi a linket, érdekes volt.
(#29088) Abu85: Ezzel tisztában vagyok. De nem azért nem került bele a dupla CPU, mert volt jobb felhasználása annak a vacak 15mm2-nek, hanem a kompatibilitás miatt.
(#29089) Abu85: "Ott a fejlesztők nem panaszkodnak, hanem dolgoznak"
Nem a fejlesztők hozzáállása a baj. Hanem elsősorban a pénz.[ Szerkesztve ]
-
HSM
félisten
válasz FLATRONW #29092 üzenetére
Az lenne a sorsa, mint a PhysX-nek. Néhány játékmenetet nem érintő effektre be lehetne vetni, és ennyi. A lényeg, a játékok komplexitása érdemben nem változna, mert annak a kis gépen is ugyanúgy mennie kell.
Plusz ne felejtsük el, a nagygépnek 4K a célterülete, oda már a nagyobb GPU sem annyira izmos, mint elsőre tűnik. -
HSM
félisten
válasz #Morcosmedve #29095 üzenetére
Nem mesterséges butítás, hanem "természetes". Olcsón, kicsi TDP-ből kellett valami jóféle játékra alkalmas szerkezetet összedobni. Amennyiből ezt kihozták, egy korrekt irodai PC nem jön ki, nemhogy egy fullos játék PC.
Ehhez képest nagyon jó lett viszont ezt el kell ismerni. -
HSM
félisten
válasz #20844032 #29097 üzenetére
Az igény általában azhogy megfizethető is legyen, meg jó is, ezt kéne valahogy összerakni. Aki 120FPs-el akar játszani, annak nem ez való.
Könnyű mindent a fejlesztőkre fogni, de ők sem mindenhatóak. Ha a vas keveset tud, akkor nem tudsz vele csodát tenni, főleg korlátos idő alatt. Ez nem lustaság, hanem technikai korlát. -
HSM
félisten
válasz #Morcosmedve #29101 üzenetére
Nem akarnak, mert akkor meg azon menne a panaszkodás, hogy nem elég vékony, kigyullad a rárakott TV, hangos a hűtés, meg különben is miért kerül egy 10 éves használt autó árába...
-
HSM
félisten
Talán nem a legszerencsésebb szó a kompatibilitás itt. A lényeg, hogy nem rakhattak volna az új játékokba lényegesen erősebb processzort követelő dolgokat, mert akkor az botrányosan futott volna az alap gépen, márpedig az új gép lényege éppen az, hogy kompatibilis maradjon a játék-park a régivel is. A grafikából könnyen lehet csinálni két profilt a két géphez, de a játékmenetet érintő, processzorfüggő dolgoknak a megcélzott leggyengébb processzorhoz kell igazodnia.
Mi következik ebből? Amit mondtam, hogy nem igazán rakhattak volna be jobbat, mint amit tettek, +30% órajelből, ez még menedzselhető.
A fixfunkciós blokk is mire és miért kell, igen, talált süllyedt, a gyengus processzor tehermentesítésére....
Amúgy a pénz csak a dolgok egyik fele. A kiadónak kész termék kell. Határidőre. A programozónak ezt kell teljesíteni. Persze, százezer dollárok elmennek optimalizálásra, de egy drasztikusabb átalakításhoz adott esetben hosszú hónapok munkája kellhet, akár évek, az pedig a meg nem jelent program miatti kiesett bevételt is beleszámolva már iszonyat költség lehet.... -
HSM
félisten
"Nem szabad ugyanis elfelejteni, hogy a rajzolási parancsok feldolgozásával járó munka teszi ki a processzor feladatainak döntő többségét."
Ezzel kapcsolatban azért szkeptikus vagyok. DX11-ben is jópár játék volt, ami 5-6 vagy akár több magig skálázódott, pedig ott legjobb tudomásom szerint szigorúan egy mag adhatja csak a rajzolási parancsokat. Tehát akad még más feladat is bőven a CPU-nak.Egyébként a rajzolási parancsok gyorsítása fix hardverrel jópofa ötlet, sanszosan remekül hat a fogyasztás/teljesítmény mutatóra is, miközben felszabadít ha nem is 8 Jaguar magnyi, de néhánynak megfelelő számítási teljesítményt biztosan.
-
HSM
félisten
"A PC-t ne számítsd, mert ott a driver elvisz egy rakás szálat a saját feladataira."
Neeem, nem. Én itt a játékról beszéltem, nem a driverről, ami a VGA-t hajtja.Pl. egy BF4 DX11 multiban csak a játék aktívan kb. 6 szálat dolgoztat, elég rendesen.... Ezek nem az OS, vagy a driver, hanem csak a játék processzének szálai.
-
HSM
félisten
Érdekes mód a játék erőforrás igénye nem lényegesen kisebb Mantle alatt sem. Ott 5 szálat eszik meg 6 helyett [link] a 12-ből, ami azért nem egy eget verő különbség. A processzor összterhelésében nem volt jelentős különbség, ahogy a futási sebességben sem. Szval nekem nem úgy tűnik, mintha a rajzolási parancsok előkészítésére vagy a driveres háttérszálakra ment volna el a processzor ereje, mert akkor 100X jobban kellett volna fusson Mantle alatt, és sajnos nem ez volt a helyzet.
Nyilván tisztában vagyok vele, hogy a DX11 alatt ez mennyire korlátozó tényező, hogy egy magra van csomó minden korlátozva, plusz a driveres ellenőrzések overhead-je, de ettől függetlenül mégis a gyakorlatban az jön ki, hogy eggészen jól karban tudták ezt tartani a fejlesztők, és amíg ezen API képességein belül maradtak, addig nem okozott ez olyan borzalmas nagy bajokat.[ Szerkesztve ]
-
HSM
félisten
-
HSM
félisten
válasz #00137984 #29449 üzenetére
Tehát egy processzorigényes játékhoz erős processzor kell a csúcs kártyák alá, milyen meglepő.
Érdekes egyébként, hogy csak a középkategóriás i5-i7-eknél van ez a jelenség a 1070/Fury között, gyengébb vagy erősebb prociknál vagy egálban vannak CPU limittel, vagy elhúz a Fury.
-
HSM
félisten
válasz #00137984 #29452 üzenetére
90 vs 98 FPS minimumra az i5-4670K-val. Ez azért messze van a hirtelen beeséstől.
De tény, látszik a legtöbb négymagos i5/i7-eknél, hogy jobban szeretik a zöld drivert. Bár van kivétel, a 6700K alatt már jobban szalad a Fury.... (Ott a minimum fps mérési hibahatáron, átlagra meg már gyorsabb a 1070-nél.) -
HSM
félisten
válasz Oliverda #29604 üzenetére
"annyiért adják a terméket amennyiért még épp megveszik"
Akkor, ki a láma? Igen, aki megveszi ennyiért. Nem hőbörögni kellene a konkurencia hiánya miatt, hanem nem megvenni a túlárazott terméket. A kékek is azért tudták csinálni amit, mert az emberek így is vitték, mint a cukrot... Senki nem hőbörgött, hogy ugyanaz a négymagos kétcsatornás cucc van lenyomva a torkukon, ami 5 évvel ezelőttt is, pedig kellett volna.... -
HSM
félisten
válasz tom_tol #29630 üzenetére
Egyszerűen eldöntöm, kell-e nekem az ennyiért, és ha nem, veszek mást.
(#29631) Puma K: Mert van párhuzam a kettő között, "nem tudom, feltűnt-e".
Egyszerű, veszek gyengébbet, ahol van árverseny. Pl. RX480-580, teljesen jó termékek, teljesen jól használható teljesítménnyel.(#29632) Yutani:
(#29635) Oliverda: Semmi szükség rá. Egyszerűen nem kell megvenni. És ha elég sokan nem veszik meg, már indul is lefelé az ár.
[ Szerkesztve ]
-
HSM
félisten
Persze, értem én. Ez esetben viszont örülnöd kéne, hogy van az igényeidet kiszolgáló GF kártya, teljesen mindegy, mennyiért. És mivel meg tudtad venni, mindenki boldog.
Ha viszont probléma az ára, akkor azon kellett volna elgondolkozni, vajon tényleg kell nekem max grafikán 140-160FPS 1440P-n? Hamar rájöttél volna, hogy ebből lejjebb adva viszont már untig elég egy felennyire erős, jóval olcsóbb kártya is.
Én pl. egy R7 250X-re váltottam, mert rájöttem, hogy kb. csak BF4-ezek és StarCraft2-zöm, azt se sokat, és egészen meglepő módon tök jól megy rajta mindkettő. Igaz, csak bő 60 FPS-em van mediumon BF4-ben, és mondjuk 80 magassága SC2-ben magas grafikán, de valahogy mégsem panaszkodok egy 10 rugós régi belépő kártyával.... Nem azt mondom, hogy mindenkinek ezt kéne tennie, de kissé furcsállom, hogy úgy csinálnak itt néhányan, mintha nem lenne semmi más választásuk, amikor dehogynincs..
(#29644) Egon: Nekem egy 9700-as Radeonom volt. És boldogan csengettem ki érte az akkoriban (2002 vagy 2003) nem kevés, 70 rugós árát, fülig ért utána vele a szám évekig.
Pont ezaz, ha valakinek mindenáron a csúcs kell (mert máshol van piros alternatíva, verseny) akkor miért nem örül, hogy a zöldektől megveheti?
[ Szerkesztve ]
-
HSM
félisten
Nem teljesen értem, ez hogy jön a témához, amire válaszként írtad.
(#29649) Moby: A konzol is jó, ha 30FPS-t kiprésel magából 4K-n... Én tudom, hogy a csapból is ez folyik, de ezt sem kötelező megvenni. Ha viszont megveszed, akkor ezzel vállalni kell a kompromisszumokat, hogy pl. méregdrága VGA kell alá, vagy erősen lejjebb tekert beállítások.
-
HSM
félisten
No igen, úgy látszik ez szerencse kérdése is... Nekem is BBA 9700 volt, és megvolt 2-3 évig, és 0 problémám volt vele, driveresen is jól működött, hardveresen is. (Silent Storm-ot mondjuk pont nem játszottam vele. )
A barátodnak meg szintén szerencséje volt a 8800-al, mert ahogy írod, nem voltak a világ legtartósabb GPU-i.(#29653) Egon: Valóban, minden igaz a piacra, amit írtál. Egy bökkenő van: az nem az AMD hibája, hogy eszement drága és nehéz erre a piacra belépni, és emiatt rajtuk kívü nincs más konkurencia. Ha azt vesszük, örülhetünk, hogy így is még talpon vannak, azok után, mennyi szerencsétlen piaci hatás tépázta meg az elmúlt években a vállalatot...
Az árverseny szerintem jelenleg nem reális elvárás, ha megnézed, a mostani árán is elvileg elvitték a komplett nyitókészletet Vega-ból... Akkor mire versenyezzenek? Majd ha tele lesznek a polcok, lehet árat csökkenteni.
Hogy alábecsülték-e a keresletet? Elvileg az eltolódást a bányászat okozza, ami teljesen kiszámíthatatlan, meddig fogja felszívni a kínálatot, így ara építeni azért nem lehet. Mert ha felhúzol plusz gyártósort miattuk, és utána hirtelen leáll a bazár, akkor gáz van. (Pénzügyileg.)
Igen, azt állítom, nem az AMD tehet róla. Ez egy igen komplex, többszereplőtől függő piac (gondolj a szoftverekre, OEM-ekre, stb) és mint írtam, elég sok dolog nem jött be nekik az utóbbi időből. Erre persze rögtön rá lehetne felszínesen vágni, hogy "de erről ki tehet ha nem ők", de nem állná meg a helyét, mert egy csip tervezése 4-5 éves időtávlat, és nagyon sok döntést az elején meg kell hozni előrejelzések alapján, és később hiába látszik már, hogy nem arra ment a piac, akkor már baj van. (Lásd idejekorán "túl okos" GCN, idejekorán túl többszálú Bulldozer.)
Persze, ma már látjuk, hogy most, 2017-ben milyen szépen mennek az FX-ek korukhoz képest a modern programokban, meg a GCN-ek is kiállták az idők próbáját, de pénzügyileg ez sokba fájt a cégnek, és ezt nem lehet rájuk pecsételni, hogy ők tehetnek róla, mert komplex egymásrahatások vezettek a kialakult állapothoz.A poor Volta-zás szvsz a jelenlegi formájában marketing fail. Elméletileg azt akarták vele kommunikálni, hogy a Volta ellenfelének szánják a terméket. Ami amúgy teljesen érthető, a mai, még inkább a tegnap technológiáját (DX11 alapok) használó programok mellett a Pascal kb. a tökéletes GPU, saját pályán meg nem lenne éppen könnyű megverni. Marad tehát a következő generáció, amiben az Nv-nek is elvileg már illene kicsit elmozdulnia a jelenlegi problémákat kevésbé "izomból" "megoldani" igyekvő architektúra felé, és az már egy sokkal reálisabb verseny helyzet lehet jövőre. Persze, nem tudjuk, mit agyalt ki a zöld oldal a Pascal óta, de én itt lényegesen komolyabb versenyre számítok, mint amit ma láthatunk a tesztekben.
(#29654) Moby: Nyilván mindketten tudjuk, hogy a mai teljesítményviszonyok alapján a Vega 64 lassabb a 1080Ti-nél. Ha neked a 1080Ti éppen elég, akkor nincs alternatíva. End of story.
Viszont nem tudom, mit fogsz csinálni, ha jönnek majd ki új játékok, amik erőforrásigényesebbek lesznek, és már a 10080Ti sem lesz elég 4K-ra maxon. Akkor mi lesz?[ Szerkesztve ]
-
HSM
félisten
válasz #85552128 #29657 üzenetére
" Minimal architectural improvement over Fiji"
Az igen. Csak úgy süt ebből a szakértelem....(#29660) Moby: Ha megnézed a Vega újításait, a legtöbb pont ilyen jellegű problémákat próbál orvosolni, hogy ne több erőt próbáljunk belepakolni, mert már így is brutális erő van benne, és ez egy nagyon nem gazdaságos irány, hanem próbáljunk magán az architektúrán fejleszteni, hogy esetleg okosabban megközelítve a kérdést, hátha kevesebb erőforrással is elérhető ugyanaz, vagy akár jobb képminőség.
Gondolok itt, primitve shader, hbcc, fp16 packed math. Ezek mind olyan funkciók, amik olyan problémákat oldanak meg, amik mellett a mai vasak letérdelnének.[ Szerkesztve ]
-
HSM
félisten
válasz #85552128 #29666 üzenetére
Mondjuk azt a +25%-ot? (Mindezt úgy, hogy a memória sávszélesség még csökkent is a Fiji óta!) Egyébként más területeken ennél több is viszsajöhet még ebből.
Architektúrális fejlődésről beszéltünk, tessék, megkaptad az eredményed. A 4K-t nincs értelme nézni, mert ott ezt a frissebb kártyát is megfogja a memória sávszélessége, így nem architektúrák közötti fejlődést néznénk, hanem azt, hogy mi történik, ha memória sávszélesség limitessé tesszük a tesztet.
-
HSM
félisten
válasz #20844032 #29669 üzenetére
Szvsz belepaszírozhattak volna másfélszer ennyi cuccot, 3-4000 bites HBM2-vel. Csaképpen akkor megint egy bő 600mm2-es csip lett volna, mint a Fury, aminek meg az árazhatósága vérzett volna ezer sebből. Szval érdemes azt is nézni, hogy itt nem ugyanakkora csipet építettek, mint a Fury-nél, hanem egy lényegesen racionálisabb, tömegtermelésre alkalmasabb cuccot.
Ami a 4K képességet érinti, szvsz simán képes rá, de tény, több kompromisszummal, mint a 1080Ti. Mondjuk ez a "több kompromisszum" mint a topikból sokan céloztak rá, képminőségben elenyésző.
(#29671) Szaby59: Ez igazán konstruktív hsz lett. Nem tudom, te hol láttál egy gyártástechnológia és architektúra váltástól kétszer +25% teljesítményt, ráadásul egy durván 25%-al kisebb csipből, de nekem egy se jut eszembe....
Egyébként nem tudom, feltűnt-e (úgy tűnik nem), hogy most nem a DX11/12 volt a téma, hanem az architektúra.
Ami amúgy az architektúrát illeti, elég vicces, hogy még úgy is nőtt az IPC a hivatkozott cikk szerint, hogy a magasabb órajelek elérhetősége miatt nőtt a futószalag hossza, ami amúgy IPC csökkenéssel jár. [link]
[ Szerkesztve ]
-
HSM
félisten
válasz #85552128 #29673 üzenetére
1. Az architektúra az általad említett esetekben nem változott jelentősen, hanem gyakoraltilag csak tovább csiszolták a meglévőt, kb. mint a GCN1 és GCN2 váltás, és ehhez jött az új process.
Plusz gyorsan tegyük ide hozzá, hogy a 80% előrelépéshez a megjelenéskor kellett egy Titán, valamint új memória technológia (GDDR5X), aztán persze később a gyengébb 1080Ti is feljött erre a szintre.A Vega esetében viszont nemhogy 25%-al gyorsabb memóriát kapott volna, hanem memória sebesség tekintetében még visszalépés is történt. Tehát oké,ez egy komoly előrelépés volt, de nem teljesen ugyanez a helyzet, mint most a Vega-val, ahol egy jó adag funkció még ki sincs használva, mivel egy lényegesen durvább technológiai váltás történt, és ilyenkor nem elég csak tovább reszelni a meglévő drivert. Demókon már láthattuk pl. a HBCC hatását, hogy Vega-n vígan szalad olyan kód, ami a konkurencián el sem tud indulni.... Na, az hány % előrelépés?
[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Google Pixel 6/7/8 topik
- Kerékpárosok, bringások ide!
- Luck Dragon: Asszociációs játék. :)
- AMD CPU-k jövője - amit tudni vélünk
- Melyik tápegységet vegyem?
- NVIDIA® driverek topikja
- Nem bírják kiszolgálni az AI energiaigényét
- Kanada feltalálta a Netflix-adót
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- További aktív témák...
- Suzuki Swift 2005 1.3 GLX CD AC - AndroidAuto & CarPlay
- Bomba ár! HP Elite X2 1011 G1 - m5 I 8GB I 256GB SSD I 11,6" FHD Touch I CAM I W10 I Gari
- Bomba ár! Lenovo ThinkPad T490 - i5-8GEN I 8GB I 256GB SSD I 14" FHD I Cam I W10 I Garancia!
- 8db GeForce RTX 3090 Egyben
- VAST AI - VAST AI - VAST AI - GeForce RTX 3090
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Ozeki Kft.
Város: Debrecen