Keresés

Új hozzászólás Aktív témák

  • gbors

    nagyúr

    válasz UMbikes #44 üzenetére

    Vélhetően lesz belőlük 6700, csak nem egyszerre adják ki.

    A kártyáról - furcsa ez a 40CU-s setup. Persze értem, hogy sokkal takarékosabb ekkora chipet építeni, és elméleti síkon jól működhet a magas órajellel való kompenzálás - csak ugye ezek az órajelek már jó ideje elméleti számok, a gyakorlat meg össze-vissza mutat mindenfélét. A boost clockokat nézve a 6800 teljesítményének a 75-80%-áról beszélünk, tehát a kártya átlagosan a 3060Ti környékére várható - hacsak persze nem a +4GB memóriára optimalizált teszeseteket nézzük :)

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Darmol #55 üzenetére

    A teljesen "hiteles", "független" tesztelők által készített összehasonlító grafikonra gondolsz? Amely arra utal, hogy majdnem olyan gyors, mint a 6800? ;)

    #58 Abu85: de ismerjük :)

    [ Szerkesztve ]

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Abu85 #68 üzenetére

    1080p-ben nem meglepő a közelség, mert ezek a GPU-k jellemzően nem 100%-on pörögnek abban a felbontásban.
    Ha 1440p-ben relatíve sokkal jobb, mint 4K-ban, az arra utal, hogy kiemelten jól megy a core clock (ahogy UMbikes feltételezi), míg a memória nem tudja tartani a lépést a nagyobb felbontásban. Kíváncsi leszek, mert a 3GHz környékére tolt GPU-k egy alternatív irányt jelentenek a sebességnövelésben.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Kansas #96 üzenetére

    Ez az "Ampere sokkal jobban szerepel 4K-ban" dolog nagyrészt legenda, elsősorban a 3080 és a 3090 CPU-limitáltságából született. A 3070-re egyáltalán nem igaz (nézd össze itt az 1080 Ti-vel), és a 3080 esetében sem jelentős. Az RDNA2-vel szemben igaz lehetne, mert a 6800-asoknak 4K-ban fájhat a sávszélesség hiánya - de a tesztek ezt sem igazán támasztják alá.

    A különbség azon része, ami nem CPU-limit, nagy valószínűséggel a GPC-k számával van összefüggésben - a 3070-nek ugyanannyi van, mint a 3080-nak, és lehet, hogy a frontend már egy kicsit kevés a 3080-nak.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Kansas #98 üzenetére

    A HUB-video elsősorban azt támasztja alá, hogy a készítője nincs tisztában a vegyes limittel, mint jelenséggel. Nem akarom bántani őket, általában színvonalas anyagokat adnak ki a kezükből, de egy ilyen témába rossz ötlet volt belefolyniuk, a videoból látszik, hogy sem odavágó szakértelemmel, sem megfelelő tesztmódszerekkel nem rendelkeznek egy ilyen jelenség elemzéséhez. A következtetéseik arra a feltételezésre épülnek, hogy ha a felbontás csökkentése mellett nő az FPS, akkor az eredeti felbontásban nem volt CPU-limitáció - ez nyilván nem szükségszerű. A végkövetkeztetés pedig homályos hadoválás - a 3070-es teszt, amit linkeltem, teljes mértékben cáfolja is.

    A 3070-nek valóban sokkal alacsonyabb a sávszélessége, de ez aligha gátolja komolyan 4K-ban - a 3060 Ti nem megy közelebb hozzá, pedig egyforma a sávszélességük, miközben minden más területen 20%-kal előrébb van a 3070. A 8GB hatása egyelőre minimális - sajnos elég kevés oldalon van a 3060-asokkal 4K teszt, de a Tom's HW tesztje szerint egyedül a HZD-ben problémás a dolog, és az átlagos FPS-t ott is csak minimálisan rontja.

    Szóval nincs itt varázslatos architektúrális limit az Ampere-ben a duplázott FP32 kapcsán - pusztán csak rettenet magas a számítási kapacitás, és nehéz etetni.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Kansas #107 üzenetére

    Próbáljuk meg akkor a másik oldalról, hátha úgy könnyebb átütni a "bántsák az NVidiát" reflexeden.

    Itt abba is hagytam az olvasást. Vagy értelmes ember módjára beszélünk, vagy baromságokat vagdosunk a másik fejéhez. A kettő együtt nem megy, és a másodikkal meg szórakoztass mást. Adieu.

    #106 Abu85: a kártyák teljesítménye nem arra utal, hogy nagyon ritkán megy együtt a kettő, jóval gyorsabb mindegyik, mintha csak feleannyi FP32 ALU lenne bennünk. Ettől még elhiszem, hogy jelentősen rontja a kihasználhatóságot - viszont ettől nem lesz relatíve gyorsabb az architektúra 4K-ban, mint alatta.

    [ Szerkesztve ]

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Kansas #113 üzenetére

    Ahogy gondolod, érvek ellen amúgy is be voltál oltva ebben a thread-ben.
    Gyakorlatilag inkább saját magának és a CPU-limites elméletének mond ellent.

    Nagy divat lett ezen az oldalon ilyenekkel alaptalanul dobálózni, amikor nincsenek észérvek. Márpedig nincsenek - feldobod, hogy a "jelenség" miért nem érinti a 6900XT-t. Megnézted, hogy a "jelenség" érinti-e a 6900XT-t? Én megnéztem, és azt látom, hogy pont ugyanakkora a különbség közte és a 3090 között 1440p-ben, mint 4K-ban. 6800XT és 3080 esetében detto. A lassabb kártyáktól valóban jobban elhúz mind a négy kártya 4K-ban - a szintén Ampere 3070-től is. Vajon miért? Az RDNA2-ben is vannak rejtélyes erőforrástartalékok, amiket csak 4K-ban lehet előhúzni? De a GA104-ben már nincsenek?
    Az RX6000-es sorozat és a GA104-es kártyák tesztjeiből teljesen egyértelmű, hogy a HU következtetései hibásak voltak - ami annyiban nem meglepő, hogy az alapfelvetésük is rossz volt. Elmagyaráztam, hogy miért, ha nem akarod megérteni, az a te dolgod. Ha nem olvasod el az indoklásként belinkelt teszteket (és később azt írod, hogy a logikám nincs mérésekkel alátámasztva), az is a te dolgod. Viszont ezek után ne nagyon várd el, hogy bárki komolyan vegyen.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Kansas #117 üzenetére

    Rendben, nézzük a Shadow of the Tomb Raidert:

    1080p:
    RX 6900 XT: 128.6 FPS (100%)
    RX 6800 XT: 128.6 FPS (100.0%)
    RTX 3080: 127.1 FPS (98.8%)
    RTX 3070: 122.6 FPS (95.3%)

    1440p:
    RX 6900 XT: 119.8 FPS (105.7%)
    RX 6800 XT: 113.3 FPS (100%)
    RTX 3080: 114.3 FPS (100.9%)
    RTX 3070: 90.1 FPS (79.5%)

    2160p:
    RX 6900 XT: 70.2 FPS (107.8%)
    RX 6800 XT: 65.1 FPS (100%)
    RTX 3080: 67.3 FPS (103.4%)
    RTX 3070: 50.4 FPS (77.4%)

    Elemzés:
    1080p-ben a 3 kártya 5%-on belül van, nyilván van valamilyen masszív limitáció - 99% valószínűséggel CPU / system ram / PCIE sávszélesség, 1% valószínűséggel valami más.
    1440p-ben már kb. a normális arányok látszanak, miután közel vannak az 1080p-ben látott kimaxolt 128.6 FPS-hez, valamennyi CPU-limitet itt is gyanítok, de itt kellene keresztmérés, hogy biztos legyen. A 3080 1%-kal gyorsabb, mint a 6800 XT, és 4.6%-kal lassabb, mint a 6900 XT.
    2160p-ben egy kicsivel széthúzódik a mezőny - a 3070 egy kicsit visszább csúszik, a 3080 és a 3090 egy kicsit előrébb lép. A 3080 a 6800 XT-hez képest 2.5%-ot javul, a 6900 XT-hez képest pedig 0.5%-ot.

    Konklúzió:
    A 3080 és a 6800 XT relatív sebessége között látható 2.5% változás arra utal, hogy egyes játékokban a 3080 minimálisan előrelép 4K-ban. Miután a 17 játék átlagát mutató összegzésben ez a különbség nem látszik, a mértéke miatt már eleve kétes a dolog - és ráadásul a 6900XT-hez képest érdemben nem lép előre a 3080, tehát ezek a mérések egyáltalán nem támasztják alá a felvetést, miszerint a GA102 4K-ban bármilyen jelentőséggel bíró előrelépést mutatna a Navi-hoz képest.

    Ha az a mondás, hogy FHD-ben az AMD a menő (amit ez a mérés amúgy megintcsak nem támaszt alá), annak sokkal inkább az lehet az oka, hogy bizonyos körülmények között jobban bánik a CPU-limites helyzettel.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Abu85 #131 üzenetére

    Igen, ilyesmit el tudok képzelni - kellene célzott mérés, hogy egy kicsit jobban látszódjon, mennyi az elméleti és mennyi a gyakorlati hatása.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Kansas #144 üzenetére

    Pedig kéne az az elemzés, mert én a Metro Exodusnál is azt látom, hogy pár % extrát tud felmutatni a 3080 a 6800 XT-vel szemben, amikor 1440p-ről 2160p-re lépünk (5.6% helyett 8.7%). A 3070 és a 6800 viszonylatában meg még fordítva is van a dolog - a 3070 gyorsabb 1080p-ben, a 6800 pedig 1440p-ben és 2160p-ben.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Kansas #149 üzenetére

    Haladunk :)

    Akkor pár dolgot tűzzünk le:
    - A régebbi generációk és az Ampere között egyes játékokban (de nem az átlagban) látható jelentősebb különbség az 1080p->1440p->2160p teljesítményvesztésben
    - A Navi 20 jellemzően hasonlóan viselkedik, mint az Ampere
    - Ezeknek a különbségek játéktól függően potenciálisan más-más okokra vezethetők vissza - a CB tesztben is van bőven olyan, ahol CPU-limit van (Death Stranding, F1 2020, Gears, SOTR biztosan). Ezen felül van pár, ahol a 3090 már karcolja a CPU-limitet, a többi még nem, úgyhogy vszleg érdemesebb a 3080-at nézni.

    Amit én a HZD-nál látok:
    - CPU-limit ebben az esetben tényleg nemigen látszik, csak a 3090-nél
    - A szokottnál sokkal kevésbé pixel-heavy a játék, az 1080p->4K váltás 65-70%-ra ejti az FPS-t, a jellemzőbb 40% helyett
    - 1080p-ben van némi gond az új generációs top tier kártyákkal, a 2080Ti-hez képest mindegyik ellép a 1440p-ben, a Radeonok és a 3090 jelentősen, a 3080 kevésbé. Utána az ugrás 2160p-re már nem olyan jelentős.
    - Jó meglátás a 8GB memória problémája 4K-ban - ha összeveted a min és az avg FPS-eket, akkor azt látod, hogy jellemzően 15-20% van közöttük, míg 4K-ban a 8GB-os kártyáknál ez felmegy 40-50%-ra. A 3070-nél amúgy pont nem, de valószínűleg már így is megszenvedik az átlag FPS-ek a memóriahiányt.

    A fenti 4 dolgot összerakva, nekem az a véleményem, hogy a HZD-ben a legnagyobb GPU-knak egyszerűen kevés a frontendje ahhoz, hogy a rengeteg ALU-t etessék 1080p-ben. 1440p-ben már majdnem normalizálódik a helyzet, de még 4K-ra is marad egy kis javulnivaló. 4K-ra ugráskor pedig a 8GB-os kártyák elkezdenek szenvedni, tovább homályosítva a képet.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Kansas #154 üzenetére

    A fő különbség szerintem az volt, hogy én elsősorban a sok játékos átlagot néztem, te pedig egyes játékokat. Szóval volt értelme visszatérni a civilizált mederbe :)

    Azt viszont továbbra sem látom sehol alátámasztva, hogy az Ampere ALU-struktúrájában kellene keresni a relatíve jobb 4K-s teljesítmény okát abban a pár játékban, ahol ez felbukkan. Utilizációs bottleneck ettől még akkora van benne, mint egy ház - ha nem lenne, akkor pl. a 3060 40-50%-kal lehetne gyorsabb, mint a 2060. Ha meg a másik véglet lenne igaz, miszerint nagyon ritkán lehet mindkét clustert etetni, akkor 5-10%-kal. Ehhez képest olyan 25-30%-ról van szó - pont a közepe.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Duck663 #156 üzenetére

    Mármint mi az "ez"?

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • gbors

    nagyúr

    válasz Kansas #158 üzenetére

    Én azért nem nézek sok játékos átlagot

    OK, ezt értem, de válasszuk szét az egyéni igényeket és a GPU-k elemzését. Utóbbiban minél több játék van, annál jobb. Az átlagok persze hajlamosak eltakarni az érdekes, nem túl markáns részleteket (mint pl. a 8GB probléma a HZD-ben), viszont 15-20 játék esetén már elég jó képet mutatnak arról, mit lehet várni a cucctól általában.

    Én az Ampere kártyák architektúráját említettem, és abba a GPU-n kívül a VRAM is beletartozik(meg az összes egyéb komponens a NYÁK-on és körülötte) (...)

    Aha. Végső soron, az architektúra egy elég jó gumiszó, mindenesetre én a GPU logikai felépítését értem alatta, a funkcionális egységeket, az arányaikat és az összeköttetéseiket. Az eléggé más.
    Utilizáció alatt a GPU egységeinek kihasználását értem, bottleneck alatt pedig azt a faktort, ami a legszűkebb keresztmetszet - jelen esetben a GPU-n belül. Az Ampere FP32-es ALU-inak kihasználtsága messze van az ideálistól - ha 4K-ban javul a relatív teljesítmény, akkor az arra utal, hogy az 1080p-ben lévő szűk keresztmetszet lassan áttevődik máshová (feltéve, hogy a kiindulási alapnál ez kb. stabil - mondjuk a 2080 Ti ilyen szempontból jó alapnak tűnik). A pixelek számának növelésével az ALU-terhelés is kb. arányosan növekszik, ezért nem gondolom, hogy az egy ütemezőre ráakasztott két ALU-clusternek ilyen hatása lenne. Miután a HZD eleve kevésbé érzékeny a pixelek számára, mi fájhat neki? A legegyszerűbb irány, hogy túl sok az egy pixelre eső háromszög.

    #159 Duck663: Gyakorlatban is megduplázták az ALU-teljesítményt, csak sok körülménynek kell összejönni, hogy ez kihasználható legyen, és a mai játékokban ezek jellemzően nem jönnek össze.

    Ezt viszont nem értem:
    az órajel változtatásával nagyobb mértékben változik a számítási kapacitás, mint a korábbi generációknál
    Ezt mire alapozod? Az órajel növelésével a GPU összes része gyorsul, az ALU-k ugyanannyira, mint az ütemezők, a ROP-ok meg az összes többi.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

Új hozzászólás Aktív témák