Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz cyberkind #33750 üzenetére
Jelen állás szerint az NV legjobb esetben is PCI Expressen ragad. NVLinket biztos nem fog beépíteni az Intel és az AMD.
Amúgy én többször mondtam már. CCIX, de akár jó a GenZ is. Ezek elég jók ahhoz, hogy a PCI Express mehessen és mindkettő szabványosítható.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
TTomax
nagyúr
Ez megint az egyik legrosszabb dolog ami a pc gaminggel történhet,most már amikor már majd minden egy lapra lesz integrálva és az egészet dobhatod a kukába,pont azt öli meg amiért a pc pc,a relativ szabadságot.
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
TTomax
nagyúr
Ha az nvidia kiesik az sem jó, nem kevesebb hanem több cég kellene a versenyhez.De mind az Intel,mind az AMD csak befelé csukódik.
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Abu85
HÁZIGAZDA
válasz TTomax #33752 üzenetére
Nem tudod a PC-t úgy fejleszteni, hogy a CPU-k 10+ maggal rendelkeznek, a GPU-k 10+ TFLOPS-osak, a memóriák elérése a CPU oldaláról 80, míg a GPU oldaláról 500 GB/s is lehet, és eközben a PCI Expressen keresztül egy nem memóriakoherens kapcsolat érvényesül 16 GB/s-mal. Még a PCI Express 4.0 32 GB/s-ja is kevés lesz. Ahhoz, hogy értékelhető mértékben gyorsíts mindenképpen radikális lépés kell. Egy memóriakoherens, legalább 100 GB/s-os kapcsolat. Az már nem feltétlenül szükséges, hogy a GPU beköltözzön a CPU mellé. Ez csak abból keletkezik, hogy az Intel, az AMD és az NV nem tud megegyezni egy memóriakoherens és nagyon gyors szabványról.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
gV
őstag
válasz keIdor #33731 üzenetére
nagy kópé az nV, de ebben az esetben csak tanítvány, a mestert amdnek hívják: [link]
Nos, annak, hogy míg az AMD látványosan lépett árszintet, az nVidia suttyomban tette meg ugyanezt. Bár hoztak 30% előrelépést ár / teljesítményben, a GTX 680-ban nem az eddig megszokott 500mm2 feletti GPU-monstrum dolgozott, hanem egy, az AMD által sokat hangoztatott, de elég gyorsan hátrahagyott 300 mm2 alatti chip. Ezt a lépést pedig az tette lehetővé, hogy az AMD a saját 350 mm2-es GPU-jára épülő kártyát beárazta a szokásos 350-400 USD helyett 550-re. Jajj, de jó...
Ugyanez volt a célja az AMD-nek a GCN architektúrával. A HD 7970 indulásként nem is sikerült rosszul, és a driverek folyamatos javulásával később (amikor már túl sokat nem számított) el is hagyta a GTX 680-at, a szoftveres támogatás javulása mellett a 3 GB memória okán is. Egyetlen bajom van a kártyával, ez pedig az ára, ami rövid távon biztos jót tett az AMD-nek, viszont ezzel a húzással elég komoly kárt okoztak a "jó árú VGA" imidzsnek, és bár ezt számokkal kimutatni szinte lehetetlen, szerintem hosszú távon ez pénzben is lefelé billentette a mérleget. Ja, és ők lőttek először abban a "csatában", ami a VGA-k árának drasztikus emelkedéséhez vezetett.
[ Szerkesztve ]
-
TTomax
nagyúr
A PCI-E szabványnak már régen követnie kellett volna az igényeket.Az már régen látható volt hogy a 4-5évenkénti duplázás marhára nem lesz elég.Az intelt nem érdekelte,ők amúgy is szeretnek vele spórolni,az amd még úgy se,megoldják házon belül és pont ez a baj,hiszen így kis is zárnak szépen mindenféle más céget,így új belépőre már elviekben sem lesz lehetőség.Ha csak nem történik valami drasztikus változás a jelenlegi irány felé haladva a pc gaming ki lesz nyírva,nem törvényszerű de az irány erre mutat.Mindegy ki kezdte és ki nem,mindhárom cég orrba szájba kartellezik és saját kis pecsenyéjét sütögeti.A szememben egyik sem jobba másiknál,csak a pénzünk érdekli amivel nem is lenne gond,csak valahogy amit mostanában nyújtanak érte,na az nem koser.Nem véletlen van jelentős vándorlás a konzolok felé.
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Abu85
HÁZIGAZDA
válasz keIdor #33756 üzenetére
Mert a 16 GB/s már borzalmasan kevés. A 32 GB/s csak szimplán kevés lesz, mire megjelenik. Önmagában ezzel, hogy fejlődik nincs baj, de egyrészt nagyon lassan, és gyakorlatilag csak a teljesítmény növelése a fő cél, holott azért ma már a memóriakoherencia is eléggé fontos lenne.
Én azért remélem, hogy nem tűnik el, mert ha a Microsoftnak bejön ez a Ray-tracing vonal, akkor azt nagyon jól ki lehet helyezni ám külön GPU-kra. Effektíve ilyenkor a Ray-tracing effekt bekapcsolásáért veszel még két GPU-t és kész, mellette meg lehet ott a fő GPU a CPU mellett.
Még lehet itt leképező szintű változás is. Ha mondjuk áttérünk texel shadingre, akkor az is iszonyatosan kedvezne a több GPU-nak, és akkor a PCI Express jó szolgálatot tehetne, hiszen a shading fázisok jól elkülöníthetők lennének.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
TTomax
nagyúr
válasz keIdor #33756 üzenetére
Sajnos az AMD sem jobb mert hiába socket kompatibilitás ha az új ficsörök meg nem fognak menni,akkor hagyhatod a régebbi cput is benne nem igaz?Egyébként az is benne van a pakliban,hogy az alaplapgyártók is nagy ivben tesznek a dologra,ugyanis biost frissíteni simán lehet usbröl cpu nélkül is,de eddig csak az asus építette be,és csak a premium lapokba,ezt pedig alapból minden lapnak tudnia kellene.
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
TTomax
nagyúr
Nem fog eltűnni a PCI-E még sokáig,túl sokféle perifériát tudsz ráaggatni csak hát nem nagyon akarják radikálisan fejleszteni,hiszen évekig sulykolták hogy a PCI-E 2.0 is elég még mindenre...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
TTomax
nagyúr
Én ezért irtom már régóta hogy a dvga piacon az AMD és az nVidia simán csak kartellezik.Olyan szépen egymás után lépték meg ezeket a dolgokat hogy öröm volt nézni.Én fanyalogtam mind a 7970,mint a gtx680 teszt alatt,mert premium áron adtak egy 300mm2 körüli gput egy 256bites nyákon ami soha nem volt premium.De mindkét teszt konkluziója az volt a PH!n hogy hát gyorsabb,meg kevesebbet fogyaszt,és még picivel olcsóbb mint az előző flagship volt..."ajánlott",az utolsó igen szép lépés a G80 volt,nem is fogunk többet ilyesmit látni mert rájöttek többet is lehet keresni...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
TTomax
nagyúr
EZ a VS topic is igazából okafogyottá vált... nincs itt már VS max egy-két user véleménye között mert ez már a múlté...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
veterán
válasz TTomax #33759 üzenetére
A PCIe pont az igényeket követi, ezért tartunk még mindig a 3.0 -nál, mert nincs igény jobbra, kb. sehol nem korlátozó tényező a PCIe busz PC-n.
A PC Gaminget kb. 10 éve sokan temetik az AMD-vel egyetemben, ehhez képest minden eltelt évvel csak nagyobbra duzzad és egyre meghatározóbb lesz mint játékplatform. Az NV, meg a játékos kiegészítőket gyártó cégek temetés helyett, szarrá keresik magukat rajta...
-
olymind1
senior tag
-
cyberkind
félisten
válasz Carlos Padre #33767 üzenetére
Ami a legtöbbet hozza nekik, és ezt veszítenék el a PCI-E kukázásával?
Paranormal Cocktivity
-
TTomax
nagyúr
Ne cseréljük fel az okot és az okozatot.Azért mert csak annyira van használva a PCI-E busz amennyire attól lehetne azt még jobban is,persze hogy nem készül olyan vga aminek ne lenne elég hiszen az pazarlás lenne,de készülhetne ha adott lenne a gyorsabb bus.
A PC gaming pedig mindent tesz csak nem növekszik,az egy dolog hogy a profit magasabb és jobban jövedelmez csakhogy ez egy helytelen irány merthogy olcsóbbnak kellene lennie a komponenseknek ahhoz hogy a felhasználó tábor növekedjen most van a sarcolás ideje,meg még lesz is egy pár évig,nem véletlen a konzolok térnyerése,azok a konzolok ahol most már magán a konzolon is keresnek nem úgy mint eddig.Az irány nem jó,persze a pc gaming nem hal ki,csak átalakul...egy szűk réteg marad csak akik hajlandóak kifizetni a nagy semmit,és gépet épitenek de ha azok is ráunnak...meg marad majd a nagy többség az egybe épített cuccokkal,merthogy relatív az lesz az olcsó.
Az AMD nem fog meghalni,ne mossuk össze a pc gaminget az AMD halálával.Az Intel lesz a legelső aki igy vagy ugy de életben tartja az AMDt.
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
_drk
őstag
válasz TTomax #33769 üzenetére
Meg az Nvidia-nak is kell az AMD, hogy szépen belőhesse az árakat. Mondjuk a középkategóriát 100ezer huf fölé.
Egyedül a piacon nem hiszem, hogy ilyen szépen tudná árulni a kártyáit, max a Prémium maradna ott ahol, meg a totál budget kategória.Ami vicces, hogy mindenki szidja az AMD-t miért szerencsétlenek, hát ők örülnének a legjobban ha tudnának prémium kategóriát fejleszteni. Ami még viccesebb, hogy a RX480-al Full HD-n freesync-el igazából ami kell a gamernek az ott is van. 4k még jelenleg az Nvidia-nak se megy, majd max most meglebegtetik a 1180-at hogy ez már elég lesz nagyjából. Mikor a konzolok ha csalnak is, de ott van már élvezhető "4k" tartalom.
-
TTomax
nagyúr
Azért FHD és 4K között van néhány olyan felbontás amit illene kiszolgálni 60Hz felett is.
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Abu85
HÁZIGAZDA
válasz TTomax #33769 üzenetére
Nem pont a VGA a limit. Leginkább az API. Volt régebben egy előadás, hogy a DX12 és a Vulkan API-val igencsak taccsra lehet vágni a PCI Express 3.0 x16-ot is. Egyszerűen a legacy API-kban máshol voltak a hardveres korlátok, és sok dolog nem jött elő, amelyek az új API-kkal problémásak. És nem kell ehhez szupergyors VGA. Szóval valóban, amit most látunk az leginkább egy kényszerű tényező. Azért nem érezzük a PCI Express-t limitnek, mert a programok úgy vannak elkészítve, illetve effektíve butítva, hogy ne legyen limit, mivel a user nem tud vele mit kezdeni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Crytek
veterán
Next PC Upgrade: 2022
-
veterán
válasz TTomax #33769 üzenetére
Mire használnád jobban a PCIe buszt?
PCIe 2.0 -án is 4k (valódi) 60fps-el futnak (csúcs VGA-kon) az elsődlegesen a PS4 APU-jára fejlesztett AAA játékok, úgy hogy nem a PCIe busz a szűk keresztmetszet, hanem a GPU...PUBG -ből pl. több mint 30 milliót eladtak Steamen, miközben a PS4 -en a legjobban fogyó exkluzívok 10 millió körül járnak...
Sőt így is lehet nézni a dolgokat:
PC had more “good” exclusive & multi-platform games than any console in 2017Mielőtt nagyon belemennél ebbe a megsarcolós témába:
NV vonalon egy GTX 780(Ti)/970/1060(3GB) -al a PS4 grafikai szintjének megfelelő beállításokon tudod tolni a multiplatform játékokat 30fps helyett 60fps-el... -
Puma K
veterán
Nem jó az utolsó link.
De ez már jó: PC had more “good” exclusive & multi-platform games than any console in 2017
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
TTomax
nagyúr
Értsd márt meg hogy ez nem azért van mert elég a PCI-E bus,hanem azért mert a programok igy vannak megirva,de sokkal többet ki lehetne hozni ha nem így lennének.
PUBG,ugyan....az a 30millió user nem ennyi gépet jelent vagy felhasználót söt egyik re sem igaz. Míg a 10 millás PS4 cím közel valósan ennyi gépet,és usert jelent.Azért mert egy kínai internetkávázóban naponta azonos gépröl loginol 6-10 emberke,míg PS4nél ez az opció nem játszik.Ráadásul az eladási szám is csalóka,hiszen millió-számra vannak a cheaterek PC-n akik akár már az 5. 10. accountjuknál tartanak, vagy bannolva vannak mert pénzt próbálnak farmolni...Mit gondolsz miért lehet a mai napig az eladási listák csúcsán?Ne nagyon támaszkodj ezekre a számokra,félrevezetőék.
[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Abu85
HÁZIGAZDA
CPU visszaírásra. Számos olyan technika van ma, ami nem azért alakult ki, mert ez a jó, hanem azért, mert szűk a CPU és a GPU közötti kapcsolat. Például a GPGPU-culling nem azért terjed a Frostbite, az id tech, a Dunia, stb. motorokban, mert annyira szuper minden kivágási munkát a GPU-ra rátolni. Bizonyos feladatok jobban illenek a CPU-ra, de hiába gyorsabb ezekben, ha közben a pipeline egyirányú, tehát a visszaírást mindenképpen el kell felejteni. Ebben az esetben az dönt, hogy összességében mi a gyorsabb. Ha egy adott feladatban mindent a CPU csinál, vagy ha mindent a GPU. Az teljesen mindegy, hogy a hibrid modell sokkal jobb lenne, mert kevés hozzá a PCI Express. A GPGPU-s irányokkal sem lépünk igazán előre, csak nem a bal kezünket harapdáljuk, hanem a jobbat. Utóbbi pedig picit jobb, van aszinkron compute lehetőség, tehát ez még fejleszthető. De következő körben már tényleg nincs hova lépni. Muszáj magát az alapproblémát kezelni, vagyis a szűkös buszt. És ezen a primitive shader sem igazán segít. Az is csak egy 2000-es években kialakított rendszert cserél jóval modernebbre, nyersz vele maximum egy-két évet, de nem fogja önmaga megoldani a szűk busz problémáját.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
válasz Puma K #33776 üzenetére
Köszi a javítást.
core i7: 2016-ban a GTX 1080 -nal gyakorlatilag hibahatáron belül volt a PCIe 2.0 a PCIe 3.0-lához képest: NVIDIA GeForce GTX 1080 PCI-Express Scaling
TTomax, Abu85: Az összes AAA multiplatform játéknál a sima PS4 továbbra is az elsődleges célplatform (az eladások miatt), ami nem használ PCIe buszt a GPU és a CPU között...
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
És hogyan adsz ki egy olyan multiplatform játékot PC-n, ami mondjuk alkalmaz a PS4-en visszaírást a CPU memóriájába? Meg sem fog mozdulni. Nem elég gyors az összeköttetés, hogy működjön. PS4-en persze működni fog, de akkor már nem multiplatform játékról van szó. Szóval PS4-en is csak az exkluzív játékok mennek el addig, hogy erősen terheljék a CPU és az IGP összeköttetését, illetve hogy használják a megosztott memóriát.
Azt értsd meg, hogy minden gyártó megcsinálta a maga kis memóriakoherens és egyben igen gyors összeköttetését. Az Intel az UPI-t, az AMD a GMI-t, az NV az NVLinket. Nem azért, mert volt egy rakás felesleges mérnöki kapacitásuk, hanem mert kellett.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
"És hogyan adsz ki egy olyan multiplatform játékot PC-n, ami mondjuk alkalmaz a PS4-en visszaírást a CPU memóriájába?"
Például lebutítod a játékot PC-re, amit simán megtennének, mert a PC sokadik fontosságú platform, a PC (vagy PCIe) miatt viszont nem fognak lebutítani semmit PS4-re.Ne keverd már bele a PC Gamingbe a GPGPU -t, meg HPC-t, ahol jóval nagyobb adathalmazokkal dolgoznak mint az egy VGA-n megtalálható VRAM mennyiség, ott ezért szükség is van a gyorsabb buszokra.
[ Szerkesztve ]
-
Carlos Padre
veterán
A ps4 nincs jelen Kínában.
A ps4 exluzívok eladásait nem boostolják a bannolt cheaterek. (ez de szép magyar mondat volt )Szerk. megnéztem, a 1060 pont egy ps4 ára. Mire összeraksz egy full konfigot 2-3x többe fog kerülni.
[ Szerkesztve ]
Genyó vagyok, ha hülye vagy megmondom.
-
Abu85
HÁZIGAZDA
válasz Petykemano #33781 üzenetére
De belehet, csak ott kellene alkalmazni valamilyen heterogén több GPU-s menedzsmentet. És ott nincs mihez kezdeni a rendszerrel, ahol nincs IGP, vagy le van tiltva.
A primitive shadert még be sem építették egy API-ba sem. Annak egy igen leegyszerűsített modelljét alkalmazza például az id tech 6.5. Az se rossz egyébként, alapvetően a primitive shaderrel használható pipeline a culling szempontjából nem tud sokkal többet, mint az id tech 6.5-nél az a modell, hogy az input assembler után rögtön jön egy compute shader lépcső még mielőtt egy csomó nem látható geometria eljutna a vertex shaderbe vagy ezen túlra. A primitive shader elegánsabban kezeli a problémát. Nem kell csúnya compute kódokat írni a működéshez.
(#33782) Loha: Ha elkezdenék butítani a játékmenetet, akkor több munka lenne az egész játék áttervezésével, mintha eleve úgy dolgoznák ki az egészet, hogy minden platform leggyengébb pontjaihoz igazítsák a dizájnt.
(#33783) Raymond: Költői volt a kérdés. Nyilván tudja mindenki, hogy nem igazán fér bele a szűkös időkeretbe a CPU-GPU-CPU-GPU round-trip.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
De ha a GPGPU-nél oda kell figyelni arra, hogy van-e egyáltalán IGP, vagy hogy az milyen teljesítményű, ezért nem lehet áltanosan használni, akkor megette a fene. Senki nem fog erre programozni.
De akkor ugyanez érvényes arra is, ha az intel, az nvidia vagy az AMD a saját koherens linkjével dolgozik. Mennyi lehet a piacon azoknak a készülékeknek az aránya, ahol a CPU és a ténylegesen használt dGPU gyártója ugyanaz ÉS teljesítmény szempontjából egyáltalán megéri ezzel szórakozni? Persze más, ha 1-2 éven belül az intel szignifikáns (értsd: konzolokhoz hasonló számosságú) piaci részesedést ér el saját linkkkel összekötött GPU konstrukcióval. Ez mennyire reális?
Mennyire reális, hogy előbb megvalósul, mint hogy megérkezzen a PCIe sávszéleség bővítés (4-5) ÉS közben nem veszik el a CPU gyártók és közben nem lesznek más CPU gyártók (arm)
Oda akarok kilyukadni, hogy persze világos, hogy ennek a PCIe sávszélesség-problémának egy lehetséges megoldása az, ha az AMD és az Intel saját linket használ PCIe helyett és közbe még mellékesen ki is pöckölhetik az nvidiát, de ennek csak akkor lesz értelme, ha piaci részesedést is szereznek rá, meg programozni is fognak így.
Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz Petykemano #33786 üzenetére
GPGPU felé azért mennek most, mert az mindenkinél van. Tehát ha írnak egy GPGPU-culling megoldást, akkor az kompatibilis az összes konzoltól kezdve, az összes compute shadert támogató GPU-n át, az összes compute shadert támogató IGP-ig. Egy irtó univerzális megoldás multiplatform szinten, még akkor is, ha van nála jobb. Emellett fejleszthető is. Egyszer megírod, és a "hovatovábbal" ráérsz majd két év múlva foglalkozni. Addig optimalizálod, beépíted a subgroup/wave intrinsics függvényeket, kihelyezed asszinkron computera. És ezektől még a módszer univerzális jellege megmarad.
Ha nem egyezik meg a piac, és mindenki lezárja magát a saját linkjére, akkor eleve megszűnik a gyártók keverése. Nem is tudsz majd VGA-t venni. Megkapod a GPU-t a CPU-val közös tokozásban. Az meg tökmindegy, hogy háromféle link van. A program oldaláról ezzel nem kell különösebben foglalkozni. A leglassabb sebessége is messze több, mint amire ma képes a PCI Express, de még a készülő 5.0-t is felülmúlja, és akkor ezek is gyorsulnak a jövőben.
Oké most ez teoretikus lesz. Tehát amerre megy a Microsoft, és amilyen jól működik a texel shading, én egyáltalán nem tartom kizártnak, hogy a PCI Express és a gyártók külön linkjei jól el lesznek egymás mellett. Legalább az asztali szinten. Mobilban nem, ott túl kicsi a hely, de asztalon simán meg lehet csinálni azt, hogy veszel egy Intel vagy AMD procit, ahhoz jár ugye a GPU a tokozáson, és az már egy komplett rendszer. De teszem azt egy texel shading leképezőt használó játéknál az árnyalási fázis függetleníthető a raszterizálástól, tehát azt szépen szétszedi a program, és a fő GPU-d marad a tokozásban, míg az árnyalásra befogsz egy VGA-t a PCI Express porton, de akár befoghatsz 20-at is. Maga a texel shading marha jól skálázódik. Ugyanígy a sugárkövetés. Az is egy nagyon jól függetleníthető feladat. Nem kell azt azon a GPU-n elvégezni, ami éppen a képet rakja ki a kijelzőre, és ennek a skálázódása is igen baráti. És itt lehet igazából keverni a gyártókat is. Láthatod az AotS-t, az is támogat multi-GPU-t AMD+NV rendszeren, tehát technikailag ennek nincs akadálya. Az más kérdés, hogy üzletpolitikailag x gyártó mondhatja azt, hogy az én piacomon y gyártó nem szívesen látott szereplő. De tényleg, a szoftver oldaláról sok dolgot lehet csinálni, még akár nem is jelent ez jelentős többletmunkát.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
válasz Carlos Padre #33784 üzenetére
Úgy van ahogy írod, de a PS4 exkluzívok 10 milliós eladásait nem azért említettem, hogy konzol vs. PC vitát indítsak, hanem aki nem tudná mennyi az a 30 millió eladott PUBG Steamen, legyen mihez viszonyítania...
-
veterán
Multiplatform AAA játékoknál az eladások kb. 80%-a olyan platformokból származik, amikben nincs PCIe busz a GPU és a CPU között, és nem a leggyengébb láncszemhez igazítják a játékok fejlesztését, hanem a legtöbb bevételt hozó platformhoz, ami most a PS4.
Nem fogják az eladásaik 20%-a miatt lebutítani az összes többit.
Ha PC-re túl sok meló lenne portolni a PCIe busz miatt, akkor egyszerűen ki sem adják, és kész.
Az előző konzolgeneráció végén, ahol az elsődleges célplatform a Xbox 360 volt, több multiplatform AAA játék már meg sem jelent PS3-ra, mert túl sok lett volna vele a meló a PS3 nagyon eltérő felépítése miatt.
[ Szerkesztve ]
-
namaste
tag
válasz keIdor #33731 üzenetére
Eltolódtak a kategóriák, de nem a kódnév számít, hanem a teljesítmény. Számít mit kínál a konkurencia, mindig egymáshoz igazodnak. Ha a GF104 felvette volna a versenyt a HD 5870-nel, akkor az lett volna a GTX 480.
Fermiből nem volt GF102, Maxwellből se volt GM202. Kepler, Pascal, Volta csúcs GPU-k nem jöttek ki játékosoknak, csak a pro felhasználóknak. (Igaz, nincs Volta játékos kártya.)
Ha már vs, az AMD csinálja jól, nem számozza a GPU-kat, hanem neveket ad és 1. vonalbeli GPU-t küld a 3. vonalbeli ellen.
(#33739) TTomax
A HPC és a gépi tanulás is vágott GPU-t kap, ráadásul prémium árat fizetnek érte. -
Abu85
HÁZIGAZDA
válasz keIdor #33792 üzenetére
Ez véleményes. Kérdés, hogy a Titan V-t hova számolod. Elvégre lehet rajta játszani.
A HBM-mel egyébként az a problémája az NV-nek, hogy kevés memória építhető a GPU mellé. Nekik nincs HBCC-jük, hogy ezt a problémát csak egy driverbe épített csúszkával kezeljék. Fizikailag kell a memória, és a GDDR6-ből így több használható. Ez a HBM-nek az összes előnyét felülírja a nézőpontjukból.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
válasz namaste #33791 üzenetére
"Ha már vs, az AMD csinálja jól, nem számozza a GPU-kat, hanem neveket ad és 1. vonalbeli GPU-t küld a 3. vonalbeli ellen."
Szerintem kifejezetten korrekt dolog az NV-tól, hogy nem sumákolják el a GPU-k belső kódneveit, így a hozzáértő vásárlók pontosan tudhatják, hogy mit vesznek.
Abu85: "A HBM-mel egyébként az a problémája az NV-nek, hogy kevés memória építhető a GPU mellé."
A Quadro GV100 -on lévő 32GB HBM2 kevés?
SZVSZ játékra 8GB VRAM bőségesen elég lesz a következő konzolgenerációik (~2020), vagy akár tovább is. Attól függ mennyi RAMot kapnak az új konzolok.
A HBM-el az a gond, hogy nagyon megdrágítja a játékos kártyákat, miközben minimálisak az előnyei.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
32 GB-nyi HBM2 jelenleg 400 dollárba kerül minimum. Emellett ehhez 4096 bites busz kell. Mit csinálsz mondjuk egy középkategóriás VGA-n, amire elég az 1024 bites busz? Oda reálisan egy ~40 dolláros 4 GB-os stack az ideális.
Ha jól megírják a programokat, akkor 4 GB is bőven elég lenne, de a legtöbb fejlesztő, csak bevágja a DX12 RSL-t, vagy a Vulkan VMA-t. Ezek megfelelő háttérmunka nélkül csak működnek, de borzasztóan pazarolnak. Szóval messze nem az a baj, hogy nem lehetne megírni jól a programokat, hanem az, hogy nem írják meg. Félelmetes az, hogy a Rise of the Tomb Raider Xbox One X-en 1,2 GB-tal elvan. Ennyi device_local flaggel ellátott memóriát használ GPU. PC-n ugyanez 5-6 GB közötti. Eközben ugyanazt éri el, csak nagyságrendekkel szarabb az allokációk kezelése.
A HBM már csak a GDDR5-nél drágább. A GDDR5X-nél és a GDDR6-nál már olcsóbb. Jóval kevesebb lapka kell a megfelelő sávszél eléréséhez.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
"32 GB-nyi HBM2 jelenleg 400 dollárba kerül minimum."
Pontosan ezt mondtam, hogy nem az a baj hogy kevés, hanem az hogy drága."Mit csinálsz mondjuk egy középkategóriás VGA-n, amire elég az 1024 bites busz?"
Nem teszel rá HBM-et, mert se a fogyasztással, se a sávszélességgel nem lesz gond, viszont a vásárlók árérzékenyek és szeretik a sok GB-ot.A 8GB konzolok a PC-s High textúrákat (~3GB) használják, míg a 12GB RAMmal felszerelt Xbox One X meg a PC-s Very High (~6GB) textúrákat. Ha a RotTR 1,2 GB-tal ellenne mint ahogy állítod, nem kellene hozzá az Xbox One X.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Mit teszel rá? A GDDR5 rendkívül sokat fogyaszt, a GDDR6 pedig túl drága.
Az Xbox One a textúrákat a host visible flaggel ellátott memóriában tárolja. A GPU egyszerűen csak kiolvassa és kész. Az adat egyébként nem csak textúra, hanem rengeteg puffer is. Ez a probléma a PC-vel, hogy oda streamelni kell a textúrát is a host visible memóriából, és ezen a ponton vesztesz el egy rakás hatékonyságot, mert nincs szükséged arra a rakás allokációra, hanem azokból kell az allokációk egy része. De nem tudod csak úgy ezeket beolvasni, így pedig másolgatni kell a teljes allokációt. Effektíve költesz rá ~8 GB-nyi memóriát, miközben a valóban fontos adat igazából ebből ~3 GB csak, de nem tudod elérni, hogy csak ezt másolja be a hardver, muszáj hozni a szükségtelen adatokat is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz keIdor #33798 üzenetére
Nem. Nincs különösebb baj a memóriával, a gond az, hogy iszonyatosan hiány van a többi memóriából, és a memóriagyártók nem a GDDR6-ot tartják prioritásnak, amikor a többi megrendelést is ki kell szolgálni. Szóval rendkívül torz most a piaci megjelenés ilyen szempontból. Még ha kész is az első ilyen hardver, akkor sem éri meg kiadni, annyira kevés a memória hozzá, ez pedig még az árat is felnyomja.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.