Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Cifu #25586 üzenetére

    Ennél bonyolultabb. Maga a vektor és skalár felállás az etetés szempontjából mindegy, mert ugyanúgy SIMT mindkét rendszer. Az eltérés oka sokkal inkább a régebbi döntésekből következik, és mivel nem éri meg nulláról újratervezni, azért egyszerűen csak elfedik egy réteg alá az ALU típusát, felette pedig ugyanúgy etetik őket. Ez könnyebb, mint nulláról újracsinálni mindent. Régen ez számított, amikor még nem SIMT-ek voltak a hardverek, de ma már igazából lényegtelen. A vektornak csupán annyi előnye van, hogy sokkal könnyebb rá több precizitású, több adattípust támogató módot tervezni, ezért használ az NVIDIA külön ALU-kat az eltérő precizitáshoz és adattípushoz, míg az AMD egyszerűen csak beletervezi az egészet a vektorba, mivel nekik ez sokkal könnyebb. Az NV is megtehetné ezt a skalárra, csak annak az a hátránya, hogy amíg az AMD egy vektorra csupán egyszer építi be a multipreciziót biztosító hardvert, addig az NVIDIA-nak ugyanezt 16-szor kell megtenni, hogy hozza ugyanazt a működést, és így már ugye a tranzisztorköltség nem mindegy. A játékokban viszont ezért nem jók sok mindenre az extra magok, mert ezek nincsenek az API-n belül definiálva. Ehhez pont multipreciziós ALU kellene, hogy vektor vagy skalár az mindegy, de persze tranzisztorköltségben jobb a vektor.

    A regiszterek és a gyorsítótárak tekintetében szintén eléggé mindegy, hogy milyenek az ALU-k. A mai GPU-k már nem úgy vannak felépítve mint régen, hogy egy ALU-hoz fix regiszter tartozik. Sokkal inkább van egy vagy több regisztertömb a multiprocesszoron belül, és azon osztoznak a feldolgozók. Ha megnézed, akkor az NVIDIA és az AMD is ugyanúgy egységes SIMT-hez köti a regisztert. Ennek nagyon prózai oka van: így hatékonyabb.

    Azért nagyon sokban különbözik a Turing és az RDNA multiprocesszora. [link] - ebben pont össze van hasonlítva az RDNA, a GCN és a Turing. Elég bonyolult téma, de körbejártuk annyira, amennyire lehet.

    Az API-kat felesleges idevenni. A Vulkan valójában kedvezőbb az NVIDIA-nak, mint a DirectX 12. Ami miatt azt látod, hogy nem az, az a driver, illetve az a probléma, hogy PIX-hez hasonló képességű debug+profilozó képességeket a Renderdoc+RGP ad, tehát amikor egy Vulkan port készül, azt nem igazán lehet jól profilozni NVIDIA és Intel hardveren. Ezen szerencsére dolgoznak, de óriási hátrány, hogy az Intelnek és az NVIDIA-nak nincs Renderdoc-kal interoperabilis profilozója, mert amíg az AMD-nél egy kattintás ellenőrizni valamit, addig az Intel és az NVIDIA GPU-kon egy rakás extra munka. DirectX 12-n azért nincs ilyen gond, mert a Microsoft fejlesztőeszköze, vagyis a PIX eléggé átfogó mindhárom gyártóra vonatkozóan, így hasonlóan egy-két kattintás ellenőrizni a kódot gyártótól függetlenül. Tehát a Vulkan API-n futó játékokon egyáltalán nem azt látod, hogy a hardver rossz lenne, hanem azt, hogy az NVIDIA-nak kell 3-4 hónap, mire rendbe rakják a kiadott kódot. Aztán most már látod, hogy megy a World War Z, illetve a Strange Brigade is, csak kiadáskor ebből gond van, mert a fejlesztő számára nincsenek megadva azok a profilozási lehetőségek, amiket az AMD fel tud kínálni, így aztán persze, hogy lassabb lesz a kiadott kód. De ennek semmi köze ahhoz, hogy a hardver mire alkalmas, és legkevésbé a GCN/RDNA előnye ez a Turinggal szemben. Színtisztán az AMD szoftveres háttere az explicit API-ra driverestül és profilozóstól jobb. Itt még mindig azt nyögi az NV, hogy nem volt Mantle-jük, így évekkel később tudták először kipróbálni, hogy mire van szükség explicit API-val. De a hardver tekintetében már egyáltalán nincs problémájuk. Szoftveresen persze le vannak maradva, de az AMD négy évvel korábban kezdte meg ezt az egészet. Persze, hogy az a négy év érződik a szoftveres háttér minőségében, de még egyszer hangsúlyozom, a hardvernek ehhez semmi köze. Ugyanúgy a No Man's Sky-t is rendbe fogják rakni, csak szükségük van az adatokra, amiket az NV ki tud nyerni, de önállóan egy fejlesztő nem biztos, hogy hozzájut megfelelő fejlesztőeszköz nélkül. Kb. ugyanaz a sztori, mint a World War Z esetében, 3-4 hónap múlva majd jön egy driver+patch, amivel lesz sebesség és stabil lesz a játék GeForce-on.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák