Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #58124 üzenetére

    Olyan nem lesz. Ezek kísérleti megoldások. Csak a Navi 31 kapja meg.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #58127 üzenetére

    Az Infinity Fabric gondoskodik mindenről.

    Egyébként nem ez az izgalmas kérdés, hanem az, hogy visszavette az AMD a teljesítményt.
    A prototípushoz viszonyítva 15%-ot estek. Persze sokkal kevesebbet is fogyasztanak így. ;]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #58136 üzenetére

    Eddig is hardveres volt, és sosem a TMU csinálta ezt. Annyira sok a buta a Twitteren, aki arra nem hajlandó, hogy elolvassa mi a fene az a bejárás, amivel nem mondana olyan orbitális marhaságokat, hogy azt a TMU csinálta eddig a Radeonokon.

    #58138 Yutani : Inkább butaság, mint érdekes. A TMU sosem csinált bejárást. Soha! A TMU csak metszésvizsgálatot csinál, de ez minden architektúrán így van. A BVH mindig is hardveres volt az összes RT dizájnon. Ha nem az lenne, akkor 1-2 fps-sel futna minden. Ez a baj a Twitterrel. Minden idióta írhat oda, és sokan hozzáértés nélkül el is hiszik. Nincs olyan, hogy nem hardveres BVH bejárás, mert nem futna normálisan az RT effekt.

    #58135 Petykemano : Az Infinity Fabric egy architektúra. Az összeköttetés az egyik eleme, és az egy busz gyakorlatilag. Két lapka összeköttetésére való.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Hellwhatever #58143 üzenetére

    Metszésvizsgálat akart lenni. Átjavítottam. :R

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Yutani #58147 üzenetére

    Eleve co-issue lesz az RDNA 3. Tehát órajelenként két FMA-t is megcsinál egy SIMD csoport, ami kétszer annyi, mint az RDNA 2-nél. Tehát innen eleve jön a much lover hit to FPS. Persze, hogy kevesebb lesz a zuhanás, ha az új dizájn kétszer gyorsabban tud számolni már egy órajelre levetítve is. :))

    Elárulom, hogy az RT-nek az basz oda az RDNA 3-ban, hogy eleve co-issue a feldolgozás, tehát mindig van egy szabad ALU egy RT shadernek, amíg a hardver dolgozik valami másik feladaton. Az RDNA 2-nél konkurens feldolgozás volt, nem pedig párhuzamos. Emellett ehhez hozzá is lesz igazítva a regiszter az L0 és az L1 cache is. Fel lesz hizlalva a dizájn a gyorsítótárakkal. Tehát amellett, hogy párhuzamos lesz a feldolgozás, még lesz is elég wavefront. Ez a kulcsa ennek, mert a BVH bejárás valójában az RT számítások nagyjából 3-4%-át teszik ki. Sokkal jobban függ a maradék ~95%-től a sebesség. Viszont ezekben is szarok a mai hardverek, mert túlságosan wave-limitre kerülnek. Erre a megoldás a több erőforrás a több konkurens wave-hez, de még jobb megoldás a programkód szintjén történő változtatás, amire szintén hoz algoritmust az AMD. Erre az algoritmusra épül majd az új RTGI effekt, és a lényege ennek az, hogy a sebessége gyakorlatilag UE5-féle Lumen szintű lesz a mai hardvereken, miközben nem SDF-et használ, hanem AABB-t. Ezzel gyakorlatilag a jelenlegi AABB-s RTGI effekteknél 2-3x gyorsabb az AMD RTGI effektje, és csak attól, hogy az algoritmus gyorsítótáraz. És ez nem csak az új hardvereken látszik meg, hanem minden hardverek 2-3x gyorsabb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #58152 üzenetére

    Azt a fajta chipletet az NV is tudná, amit az AMD. Az AMD megoldása ilyen hülyén fogalmazva egyfajta monolitikus chiplet, tehát maga a GPU még mindig egy nagy egész, de a memóriavezérlő és a csatornák le vannak választva. Ezt az NV is le tudná választani, egy olyan cache-rendszer kellene csak hozzá, mint az infinity Cache. Más igénye ennek a megoldásnak nincs.

    A valós chiplet azért ennél nehezebb, amikor már magát a GPU-t is szeleteled, nem csak a jól levágható részeit. Azt az AMD sem tudná ma megcsinálni, mert változtatni kell a parancsszervezésen. Viszont a chipletnek alapvetően az a lényege, hogy a nem skálázódó elemeket levágd a skálázódó áramkörökről. Az IO tipikusan nem skálázódik, tehát azt megéri levágni a GPU-ról, és korábbi node-on gyártatni, mert méretben nem lesz sokkal nagyobb, és a gyártása olcsóbb. Ezt a fajta kezdetleges chiplet koncepciót az NV-nek is érdemes meggondolni, mert viszonylag egyszerűen kivitelezhető, és látványos előnyei vannak az IO levágása miatt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Komplikato #58154 üzenetére

    Ott a HIP. Arra át lehet konvertálni a meglévő CUDA kódot. A Blender Cycles-X már ilyen. Az Orichiben van írva, és onnan van fordítva CUDA-ba és HIP-be. Ez már kész felület, lehet használni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Busterftw #58167 üzenetére

    Az Intel nem tud az AMD-től elvenni market share-t. Ahol ez nagy mennyiségben számít az a notebookpiac. A mobil Radeonokat főleg Ryzenek mellé rakják, főleg azért, mert a párosítás miatt kedvezmény jár a gyártóknak. Intel mellé Radeont nagyon ritkán raknak notiba. Az Intel az Arcot ugyanúgy nem tudja majd a Ryzen mellé rakni, mert nem tud árukapcsolást csinálni vele. Ellenben a Core-okkal tud, és ez szükségszerűen annak a cégnek rossz, akinek a GPU-ja most kerül a Core-ok mellé, vagyis az NVIDIA-nak. Ők kerülnek ki az Intel-féle árukapcsolással, ahogy kikerültek a Ryzenek mellől az AMD-féle árukapcsolás miatt. Ebből egyébként már most van balhé a gyártóknál, mert az Intel az Arc-ot nagyon olcsón adja a Core mellé a notiba, de csak akkor, ha párosával, csomagban veszi a partner. Annyira olcsón, hogy az NVIDIA azt csak masszív veszteséggel tudná lereagálni. Ez igazából az AMD-nek is szar, csak ők leszarják, mert nekik ott a Ryzen, amihez ők adják olcsón a Radeont párban.

    Ettől függetlenül nagyon nagy változások egy ideig nem lesznek, mert a mostani Arc A sorozat nagyon-nagyon gyenge hozzá.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #58169 üzenetére

    A Cyberpunk 2077 forráskódja a CD Projektnek van meg, nem az AMD-nek. Az AMD-től hiába kéred az FSR 2 implementálását bele, a forráskód hiányában erre nem képesek.

    A játékosok egyébként időben exkluzív szerződések áldozatai, amely megállapodások kizárják egy meghatározott ideig egy eljárás implementálását. Legközelebb majd a Forspoken és a The Callisto Protocol lesz ilyen.

    #58172 PuMbA : Az FSR elsődlegesen azért nyílt forráskódú, hogy a Microsoft gyárilag tudja kínálni az Xbox GDK-ban.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #58174 üzenetére

    Ha a temporális eljárásoknak lenne valós karbantartási költsége, akkor mindenki csak egyet építene be, méghozzá az FSR-t. De mivel valós karbantartási költsége nincs, így sokan mindhármat beépítik, mert karbantartási költségben ez addig nem több, amíg ugyanazok az eljárások igényei a motor felé. Akár harminc féle megoldást is használni lehetne, annak is ugyanakkora karbantartási költsége lenne, mint egynek, amíg ugyanazokat az adatokat használják, és ugyanúgy.

    #58190 Yany : Az AMD driverben ezek érhetők el. [link] - ez az oldal mindig frissül az adott újításokhoz. Mindhez van leírás, hogy mit csinál, esetleg kép is. Szóval meg tudod nézni, hogy van-e benne már olyan, amit akarsz. És igen van instant replay, meg instant gif is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Elég nagy különbség van előállítási költségben. Az RTX 4090 FE-t a Foxconn 1340 dollárért gyártja tisztán, tehát ez az az ár, amit csomagolás és szállítás nélkül ha kérnének érte, akkor nullszaldós lenne. A csúcs referencia Navi 31 előállítási költsége a TUL-nál 630 dollár.

    A kérdés az, hogy mennyi lesz az eladási ár. Esetleg az AMD akar-e akkora árversenyt, hogy 1300 dollár alá bekényszerítse a 4090-et. Akkor a gyártók többet nem is gyártanák a terméket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #58198 üzenetére

    Nincs meg komponensre levetítve. A Foxconn azért van meg, mert tőlük kérdeztem a kontakttól, hogy mennyibe fáj ezt legyártani, és erre mondták október második felében, hogy nekik 1340 per kártya. De mondták, hogy a custom modellek esetleg lehetnek többek. Ez alapján nem is csodáltam, hogy mennyire az MSRP fölé van lőve az AIB 4090-es sereg.

    A Navi 31-ről meg most futott be a TUL adat.

    Valószínűleg lehetne mindkettőn csökkenteni, ha a komponensgyártók nem számolnának fel a komponenseken nyereséget, de úgy meg miért adnák el ezeket?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #58203 üzenetére

    Itt az a nagy kérdés, hogy mekkora a Navi 31-es VGA teljesítménye. Ha csak közel van a 4090-hez, akkor az nem akkora baj. Ha elveri a 4090-et, akkor az viszont nagy baj, mert kb. feleannyi legyártani.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #58209 üzenetére

    Greymon szerint 650 wattos GeForce-ok jöttek. :)

    A Navi 31-nél is ott a 3D V-Cache modell. Tehát a kiépíthető legjobbat mindkét cég tartogatja.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Busterftw #58213 üzenetére

    A meghurcolásokkal az a gond, hogy több évvel később történnek meg. Ha egyszer 70% lesz az AMD részesedése a Ryzen-Radeon termékkapcsolásból, akkor valószínűleg meg fogják őket is hurcolni, és valószínűleg kötelezik őket, hogy fizessenek xy cégnek bánatpénzt, amiért kiszorultak a piacról. És pont emiatt éri meg a termékkapcsolás, mert annyira sokára lesz eredménye egy esetleges vizsgálatnak, hogy amikor majd jön a dádá, akkor lazán kifizetik a bánatpénzt a pórul járt cégeknek. Az Intelnek is nagyon megérte fizetnie az AMD-nek, mert a sokszorosát keresték meg korábban.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Steve_Brown #58226 üzenetére

    Gyártói bemutatón soha.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    A Ciberpunk2077-ban a bemutatón tesztelt beállításon 8%-kal gyorsabb a 4090 a 7900XTX-nél. Belsős adat. Lemérték, csak nem rakták ki.

    #58242 Motyi : Nincs még NDA. A driver november 20-ra van időzítve, tehát előtte semmiképpen.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz KillerKollar #58243 üzenetére

    Nem tudom a beállításokat. Nincs meg a footnotes.

    Időközben annyi infó van még, hogy a 7900 XTX kb. olyan viszonyban van a 4090-nel, mint a 6900 XT volt a 3090 Ti-vel. Valahol megveri, valahol nem. Viszont sokkal olcsóbban gyártható, így most nem annyira kritikus ráárazni a hardvert a csúcs-GeForce-ra.

    Egyébként prótipp. Az átlag javulás a 6950 XT-hez viszonyítva 55% 1440p-ben. Tehát a 6950 XT eredményeiből lehet számolni.

    #58250 FLATRONW : Nem ismerjük a per játék javulást. Tehát az átlagot így nem lehet rárakni valamire, inkább egy teszt több játékos átlagára.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Azt írta a compalos kontakt, hogy nem ez lett volna az eredeti 7900 speckó. Eredetileg három dizájn készült. Egy 7800, egy 7800 XT és egy 7900 XT. Úgy lett volna az egész, mint az RDNA 2-nél. Aztán megjött a 4090 és látták, hogy mekkora a userek között az elégedetlenség a fogyasztás és a méret miatt. Ezzel az igazi 7900 XT ment a levesbe, mert az három 8 tűssel jött volna kb. olyan fogyasztással, mint a 4090, és hasonló mérettel is. A két 8 tűsre tervezett 7800-ból pedig 7900 XT és XTX lett. Engedélyezték az összes feldolgozót, és levitték az órajelet, hogy energiahatékony legyen. Állítólag így is elég gyorsnak találta az AMD, miközben kb. akkora a fogyasztása, mint a előző generációs csúcsnak. Azt pedig mindig is tudták, hogy olcsón lehet gyártani, tehát az árazás eléggé szabad.

    Itt csurgott el Kepler 3 GHz-es órajeltipp-tweetje.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Pug #58340 üzenetére

    Kösz. Elbaszcsiztam egy paramétert miután javítottam benne pár gépelési hibát. De visszahoztam. :R

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Na befutott pár infó a Compal kontakttól. Azt írja, hogy van már 4080-ja is, így látja a teljesítményt. A 7900 XTX nagy átlagban félúton van a 4080 és a 4090 között. A 4080-at mindig veri. A 4090-et vannak olyan szituációk, amikor meg tudja verni, de van ahol a 4080 hátulról rámászik, noha megelőzni nem igazán tudja. Ami nagyon megy a 7900 XTX-nek azok a DX12-es eSport címek, ezekben valamiért nagyon erős, és kibérli az első helyet. Egyelőre nem tiszta, hogy ez miért megy az RDNA 3 dizájnnak ennyire, valószínűleg azért, mert az eSport játékokat azért ésszel tervezik, hogy nagy legyen az fps, és ez a szituáció valamiért fekszik a Radeonnak.
    A 7900 XT már nem veri mindenhol a 4080-at, de a nagy átlagban gyorsabb nála, és néhány címben a 7900 XT is meg tudja verni a 4090-et, főleg DX12 eSport, vagy nagyon prociigényes single player játékban.

    A látottak alapján amúgy már most megy a vita, hogy a 4080 1200 dollár lesz-e. A 4090 ára biztos nem változik, mert abból annyira keveset gyártanak, hogy úgyis elmegy majd mind, tehát azt lehet extrém prémiummal adni. A 4080-nál viszont el akarják érni a gyártók, hogy az NV adja alább, és legyen az MSRP-je 950 dollár. Előállítási költségben egyébként a 4080 FE 790 dollár most, tehát a 950 beleférne haszonnal is, ha az NV engedne a saját árréséből. Ebben az esetben az előállítási költség is csökken, tehát van bőven lehetőség pénzt keresni.

    A képlet ismeretlen része, hogy az AMD a gyártóknak nagyon nagy szabadságot adott a saját 7900 XTX modellek esetében. Nem muszáj ugyanis tartani a 355 wattos TBP-t, el lehet menni bőven fölé. A felső limit a 450 watt és a 3 GHz-es OC magórjel. Ennél többet csak külön engedéllyel lehet csinálni. Viszont a referenciaajánlás és a felső OC limit között akkora rés van, hogy egyelőre egyik gyártó sem tudja, hogy mit fog csinálni a másik. És az is kérdőjeles, hogy az OC-s Radeonoknak mi lesz az áruk, mert +500 MHz-et enged az AMD, ami akár nagy extra árcédulát is eredményezhet.

    Úgy néz ki, hogy rég nem látott árverseny jön. ;]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Steve_Brown #58381 üzenetére

    Nem tudom, senki sem mérte ki, mert az AMD saját kártyája hardveresem limitált, így az nem enged sokáig OC-zni. Ehhez AIB dizájnok kellenek, amik már három 8 tűs csatit használnak.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz atok666 #58384 üzenetére

    Úgy, hogy ha az NV enged az árréséből, akkor olcsóbban veszi az AIB a 4080-hoz a GPU-t, és ezáltal csökken az előállítási költség, amit az AIB költ, hogy legyártson egy kártyát, és ezáltal nagyon is reális lesz a 950 dolláros szint. A 4080-nal meg lehet csinálni. A 4090-nel nem, de az nem is érdekes.

    #58389 bitblueduck : AD103 van a 4080-on. De amúgy stim. Nyilván az NV sem tudja akármeddig levinni a GPU árát, de azért van hova engedni. Az AD102, ami nagyon necces, mert óriási, de az AD103 azért elég vállalható méretű.

    #58385 paprobert : Ezt a meghajtó fordítója használja ki. A programozónak nincs vele igazán dolga. Az AMD-nek és az NV-nek kell olyan shader fordítókat írni, ami egyre több esetben tud co-issue, illetve dual-issue módot használni.

    #58395 b. : Nyilván szar még az 1000 dollár is ezekért a GeForce/Radeon kártyákért, de valahol el kell kezdeni. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #58398 üzenetére

    Az alsó régió sosem fogja megkapni ezeket. Jelenleg legalább 7-szer drágább 5 nm-es chipet gyártatni, mint 6 nm-eset. Egyszerűen abba az árba az 5 nm nem fér bele. A Navi 33 lesz a legkisebb, és az már 6 nm-en készül csak azért, hogy 400 dollár alá lehessen vinni az árát.

    Az NV az Ada esetében nem is gondolkodik 600 dollár alatt az AD106-tal. Olyan észvesztően drága az 5 nm-es wafer a TSMC-nél, hogy még a legkisebb lapkával is támadhatatlan az 500 dollár alatti régió. Jelentős profitot kellene feláldozniuk a 400 dollárhoz, ami meg értelmetlenné teszi az egészet, mert akkor inkább gyártják tovább az olcsó Ampere-eket nagyobb profittal.

    Az NV a legkisebb Adával a 3070 Ti-t cseréli le, árban is hasonló lesz a fejlesztés. Ez alatt marad a teljes Ampere felhozatal, amit most frissítettek GDDR6X-szel.
    Az AMD a legkisebb Navi 33-mal a Radeon 6800-as sorozatot váltja, de sok dologtól függ, hogy miképpen. A Radeon RX 6700 XT-nek valószínűleg nem mard hely, tehát az ki lesz vezetve, a Radeon RX 6650 XT pedig technikailag marad a piacon, de a 6600 széria is le lesz váltva az RDNA 3-mal, csak APU formájában.

    Az Intelre egyelőre azért felesleges várni, mert ők veszteséggel adják a mostani nagyobbik GPU-t, és emiatt nincs is nagy gyártási mennyiség belőle. A kisebbik GPU-n van nyereségük. Nagyon sokat kell változtatni az architektúrán, hogy az 5 nm-es TSMC node-on egyáltalán a nyereség közelében legyen, mert az Intel is annyiért veszi a wafert, amennyiért az NV és az AMD, vagyis nekik is bejön egy ~7-szeres szorzó.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz paprobert #58412 üzenetére

    35 ezer dollár körül van most egy 5 nm-es wafer a TSMC-nél. A top 3 megrendelő (Apple, AMD, MediaTek) talán meg tudja szerezni 30 ezer dollárért darabját, de ennél olcsóbban aligha. Túl nagy az 5 nm-es node-ra az igény, és jelenleg túl kevés az elérhető kapacitás, vagyis a TSMC versenyeztet.

    A 7/6 nm-es waferek viszont már közel sem kerülnek 10 ezer dollárba. Már jóval olcsóbbak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Amikor a wafereket nézik, akkor a legtöbben azt nem számolják, hogy a Covid szétbaszta az egész árképzést. Minden drágább lett, de nem kicsit, hanem sokkal. Drágább lett a homok is, nem is kevéssel. A bérgyártók ezt a drágulást viszont nem egységesen verik rá a node-okra, mert a kisebb node-okat többet nem tudnák megfizetni a partnerek. Emiatt a drágulás költségét 90%-ban a legmodernebb node kapta/kapja meg, vagyis az 5 és 3 nm. Ezért az, hogy régen, kb. másfél éve olcsóbb volt a wafer nem számít már semmit, ma sokkal drágább, mert az 5 nm-es node szinte egymaga viseli az elérhető összes TSMC node extra költségét. A jó hír, hogy ez sok megrendelőnek így is jó, mert alapvetően az 5 nm-es node és annak egyes verziói elég jó kihozatallal mennek már most is.

    Azt nehéz megmondani, hogy a Covid utóhatása még meddig tart. Nyilván lesz egy pont, amikor a piac elkezdi korrigálni magát, és olcsóbb lesz az 5 nm-es wafer. Talán annyira, hogy eléri a másfél éves szintet, de ez biztos nem fél éven belül lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #58469 üzenetére

    Tehát az RDNA 3 megduplázta az IPC-t, de semmilyen nagy architekturális átalakítás történt az RDNA 2-höz viszonyítva. Oké. :D Ezért imádom a DigitalFoundry elemzéseket. ;]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Busterftw #58471 üzenetére

    Most összezavartál. Nem az architektúrát nézte a DF? Mert abban bizony 2x az IPC az RDNA 2-höz viszonyítva, az pedig jelentős belenyúlás.

    #58472 PuMbA : Az AMD az intersection teljesítményét adja meg, de az RT az nem csak abból áll, viszont a többi az nem számszerűsíthető, mert az NV-vel ellentétben az AMD dizájnja programozható. Ha csak a shader teljesítményből indulunk ki, akkor az RDNA 3 az IPC változással, vagyis azzal, hogy innentől dual-issue az ALU, úgy 3-szorosára növelte a shader teljesítményét az RT eljárásoknak, a megnövelt intersection teljesítmény mellett. És a cache átszervezésével egy RT eljárás akár 10x is gyorsabb lehet, mert sokkal nagyobb lett az L0 és az L1. A probléma az, hogy nem csak az RT használja a hardvert, tehát ez nem számszerűsíthető.

    Ez egy felfogásbeli különbség az AMD és az NV között, és a DF azt hiszi, hogy az a jó, ha brute-force csináljuk ezt, mert használjunk akkor fix-funkciót mindenre, zabáljon be az effekt 20-25 GB memóriát, és ne keressük az optimalizálást. Az AMD konstrukciója pont arra megy, hogy legyen programozható, hogy ne kelljen eszement VRAM kapacitást az RT-re kiszórni, mert lehet azt okosabban is csinálni, ha van LOD.

    #58475 PuMbA : A Far Cry 6 hibrid RT effektet használ, aminek az a lényege, hogy csak ott van az RT alkalmazva, ahol annak hatása van. Ha ezt megcsinálnák a Cyberpunkra, akkor minden RT effekt kétszer-háromszor gyorsabban futna benne, miközben nem lenne ennek látható minőségromlása. Ez olyan dolog, mint a Gotham Knights RT reflection effektje, amit nagyon sokan leszóltak, mert kvázi nincs látható minőségelőnye az SSR-hez viszonyítva, miközben több erőforrást igényel. Csak ugye a Gotham Knights fejlesztői nem vették vissza az SSR minőségét, ahogy a Cyberpunk fejlesztői, mert valójában a Cyberpunk SSR-je istentelenül szar, és nem azért, mert az SSR rossz, hanem mert szándékosan rosszra van csinálva, hogy az RT adjon valami minőségkülönbséget. Mert amúgy ugyanaz lenne a helyzet, mint a Gotham Knights esetében. És valójában a Gotham Knights és a Far Cry 6 csinálja jól, mert így hozható ki a legjobb minőség a legnagyobb sebességgel. Ha csak azért lecsökkented a régi eljárás minőségét, hogy az RT-t reklámozd, akkor elkurvulsz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #58479 üzenetére

    Dehogynem. Pont azért dupla az IPC, mert teljesen más lett az architektúra szerkezete. Ezt nem lehet radikális változtatás nélkül összehozni.

    Tensor magot nem akar az AMD, mert alig használható, és iszonyatosan zabálja a tranzisztort. Miért kellene az NVIDIA-t követni egy olyan irányba, aminek a játékok alig tudják hasznát venni?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #58481 üzenetére

    Ha a dual-issue feldolgozóra gondolsz, akkor az a shader fordító feladata. Ugyanúgy nem fontos rá optimalizálni, mint az NV-nél a co-issue-ra. Magát az IR-t elemzi a meghajtó fordítója, és megkeresi azokat az utasításokat, amelyeket egymás mellé tud fordítani.

    A Snowdropra azért kötötték a szerződést, mert az AMD-nek van egy saját RT rendszere a DXR mellett, és az már lehetővé tesz olyan dolgokat, mint amit a fejlesztők használhatnak a PS5-ben, illetve már az Xboxban is. Ezek még a DXR-be nincsenek visszamentve, bár vannak rá korai tervek, lásd a Microsoft-féle traversal shader. Na most, ha egy motort ezekre írnak, például Snowdrop 2.0 akkor azt PC-re a mostani DXR-rel nehezen menthető, így az AMD odaadja a saját RT rendszerét, hogy arra is írják meg, hogy a DXR limitjeit PC-n meg tudják kerülni. Az Intel és az NV is írhat magának zárt RT rendszert, amit odaadhat a fejlesztőknek, ha a DXR-t nem tartják elég jónak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Busterftw #58483 üzenetére

    Konkrétabban az AMD jelentette be a dual-issue képességet. Az ne az én hibám legyen már, hogy a DF nem vette észre. :P

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Albus_D #58485 üzenetére

    Akkor itt az ideje annak, hogy amiket írtam azt szakmailag cáfold meg. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Albus_D #58487 üzenetére

    Tehát nincs szakmai érved, így hazug kifogásokat gyártasz, hogy miért nem akarsz szakmailag vitázni rajta. Azért köszi, hogy megpróbáltad Emilió, vagyis hát Sbig_x, akarom írni Albus_D. ;)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Albus_D #58489 üzenetére

    Oh, tehát én is kamuprofilokat gyártok, mint te? Nekem minek? Azt azért tudod, hogy én itt dolgozom, vagy nem? :))

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Albus_D #58491 üzenetére

    Én annak. És ugyanúgy neked is lehetőséged van csinálni egy szakmai IT oldalt, ahol alkalmazhatod saját magad újságíróként, és megnézzük, hogy hova járnak majd többen. Nem értem, hogy ezzel mi a gondod... :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Albus_D #58493 üzenetére

    Bocsi, szakmai vitát nem akarsz, így gondoltam segítek abban, hogy még hol mondhatnád el a mondandód. De ha saját oldalt sem akarsz, akkor nem tudok mást javasolni. Esetleg valamilyen benzodiazepin a szorongás ellen. De egy pszichológus is segíthet. Mond el nyugodtan neki, hogy van egy PH-s házigazda, aki állandóan szövegel, és ezt nem bírod már idegekkel. Nem haragszom meg, ha ilyen nyersen fogalmazol, elvégre az egészséged fontos. :U

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #58497 üzenetére

    Jobban örülnél annak, hogyha a Gotham Knights fejlesztői visszavették volna az SSR minőségét, hogy mesterségesen kreáljanak valami előnyt az RT effektnek?

    Ha erre esetleg igen a válaszod, akkor miért lenne jó úgy megvalósítva?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #58499 üzenetére

    A Gotham Knights-nak köze sincs az AMD-hez. Sosem volt. Az Intel és az NV támogatta.

    Igazából most azért kardoskodtok, hogy az RT effekt miatt legyen visszavéve az SSR minősége, hogy látszódjon különbség. A Gotham Knights fejlesztői erre nem voltak hajlandók, ellentétben mással, khmm... Cyberpunk 2077. Ezért érdekelne, hogy mit nyer a felhasználó azzal, ha egy fejlesztő úgy dönt, hogy mesterségesen csökkenti az SSR minőségét? Szerintem semmit, mert csak korlátozzák az RT nélküli minőséget. Viszont ha nem korlátozzák ezt, akkor meg alig látható az RT reflection látványelőnye.

    És akkor még egyszer. Véleményem szerint a Gotham Knights fejlesztői döntenek jól akkor, amikor az RT nélküli minőségnél nem élnek korlátozással, az RT meg tudja azt, amit... kell vagy nem alapon bekapcsolhatja a user.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #58501 üzenetére

    De még mindig az a kérdés, hogy szerinted miért hiba az a Gotham Knights fejlesztőinek részéről, hogy az RT nélküli minőséget is maximálisra tervezték, vagyis nem korlátozták az SSR-t? Az, hogy pár játék korlátozza ezt, hogy az RT-nél láthass valami különbséget az oké, de miért bántunk egy olyan stúdiót, amely nem él ilyen piszkos módszerekkel? Nem az lenne a normális, hogy RT-vel és RT nélkül is megkapd a lehető legjobb minőséget, aztán eldöntöd, hogy szükséges van-e az RT-re vagy nincs?

    Annyira elkurvultak pára az iparban, hogy sok felhasználó szerint már az a normális, ha vissza van véve az RT nélküli grafikai minőség, mert úgy látszik az RT reflection hatása. Persze, hogy látszik, ha szándékosan szarabb az RT nélküli SSR effekt. És akkor jön a Gotham Knights, ahol a fejlesztőket azért ostorozzák, hogy az RT reflectionnek alig van látható hatása, mert az SSR minőségét nem korlátozták szándékosan le. Ugyan már. :) Az, hogy ennek vannak akik örülnek jelzi, hogy a PC gaming közösség nagyon félre van vezetve.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #58503 üzenetére

    Én az RT-nek minden általam játszott játékban láttam hasznát, csak tudni kell hol keresni. A Dirt 5-ben az autón, míg az FC6-ban látványos előnye volt azoknál az árnyékoknál, ahol a fény egy lyukas hálón ment át. Nyilván itt a hagyományos raszterizálás jellemzően elhasal, de ez nem újdonság. Ugyanúgy baj volt RT nélkül az FC 6-ban ott, amikor valami képen nem látható dolgot kellene volna visszatükrözni. De ez sem új dolog. Tulajdonképpen ezekért van az RT, ahol a raszterizálás kevés, mert technikailag nem rendelkezik elég információval a megfelelő minőség megjelenítéséhez, ott kell bevetni az RT effekteket. Nyilván egy SSR rendelkezik elég információval a képkockán látható objektumok visszatükrözéséhez, tehát ott lényegi haszna az RT-nek nincs, sőt, maga az SSR is ray tracing, csak másmilyen.

    Ami szerintem hülyeség, hogy az RT effekt látványos hatása érdekében az SSR minőségét visszafogja egy stúdió, hogy ne legyen jó a megjelenítés RT nélkül. Ez faszság, az ipar elkurvulása. Mert az RT nem arra ideális, hogy kiváltsa a korábbi eljárásokat, hanem kiegészítse azok gyengeségeit. Így lesz két eljárás erőssége összevonva. Ezért csinálta nagyon jól az Ubisoft azt, hogy az FC6-ban hibrid megoldásokat alkalmazott, mert pont ott segített a grafikai minőségen, ahol a hagyományos eljárások elhasalnak, és ez az, ahova az RT-t terveztük. Csinálja azt a munkát, amit raszterizálással nem tudnánk megvalósítani. Ne olyan munkát csináljon tízszer drágábban, amit raszterizálással is tudunk hozni legalább olyan jó minőségben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #58510 üzenetére

    Szóba se hoztam az AMD-t és az NV-t a hsz-emben. Nem ők csinálják a játékokat. Nem értem, hogy miért ragaszkodsz az AMD vs. NV-hez. Ezek x és y stúdiók döntései.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz paprobert #58514 üzenetére

    Nem a kód a lényeg, hanem az, hogy az API milyen limitációkat teremt. A mostani DXR verzióban nem programozható a bejárás, és ez azt jelenti, hogy ameddig lövöd a sugarat addig kell a kilövéskor beállított LOD-dal számolni. Ez akkor jó, ha a sugarat nem lövöd 3-4 virtuális méternél tovább, mert akkor nem okoz bajt, de ha mondjuk kilövöd messzire, akkor elkezdi az RT effekt lezabálni a VRAM-ot, mert az esetleg LOD0-ban tárolt objektumot is be kell tölteni a kilövéskor érvényes LOD szinttel. Tehát lehet, hogy méretben ez az objektum csak 6-8 pixel, de mind a tízmillió háromszögét be kell tölteni a VRAM-ba. Ez az, ami régóta hátráltatja magát a DXR API-t, mert a probléma nem megoldható addig, amíg a bejárás nem lesz programozható. Hogy ez mikor lesz? Senki sem tudja, valószínűleg nem annyira hamar, hogy érdemes legyen rá várni, lásd Snowdrop 2.0, ami nem is akar várni, mert az AMD már kínál programozható bejárást, csak nem szabványosan.

    Eredményben egyébként ugyanazt tudja megjeleníteni a két eljárás. A különbség a memóriahasználatban lesz. Amit esetleg megoldasz dinamikus LOD-dal 1 GB VRAM-ból, ahhoz dinamikus LOD nélkül 15 GB-ra is szükség lehet. Ilyen szempontból nem gond, hogy az Ubisoft keres kerülőutat, mert tudnak ők szabványosan is működni, csak sokkal-sokkal több VRAM-ot fognak lezabálni.

    Ezt amúgy hardveresen már nem tudod gyorsítani, mert a probléma szoftverben keletkezik. Nincs az a hardver, amivel azt a hátrányt leküzdöd, hogy 6-8 pixelt elfoglaló objektumokat be kell töltened maximális, 10 millió háromszöges LOD szinttel. Ez tökéletesen látszik az Unreal Engine 5-ön, amely a Nanite miatt pont beleesik a DXR-nek ebbe a problémájába. Nem is alkalmaz a GI-hoz AABB gyorsítóstruktúrát, hanem csináltak a Lumennel egy saját szoftveres eljárást.

    Ez most a piacnak egy kettősség. Vagy viszik a motorokat arra, hogy komoly geometria legyen, és akkor nincs DXR, vagy van DXR, de akkor nincs olyan geometria, mint az Unreal Engine 5-ben. A megoldásnak ott kellene, hogy megszülessen, hogy van is komoly geometria, és mellé van még DXR is. Ehhez viszont szükség van a programozhatóságra, hogy legyen dinamikus LOD. Ez a kulcsa ennek, és másképp ez a probléma nem oldható meg.

    #58526 Alogonomus : Itt nem az NVIDIA optimalizálásról van szó. Lehet rá optimalizálni. A gondot az jelenti, hogy az aktuális DXR szabványban választani kell sugárkövetés és a magas geometriai részletesség között. A kettő együtt nem működik. Nem véletlen, hogy az NVIDIA a Quake 2-t vagy a Portal első részét újítja fel, mert azok rendkívül kis geometriai részletességet használnak, tehát működik velük az ilyen szintű geometriai részletességhez szabott fixfunkciós RT hardver DXR alatt.

    Az Unreal Engine 5-nél viszont látjuk, hogy pont nem működik, és az Epic nem is AABB-vel csinálja a Lument. Azzal a geometriai részletességgel nem működnének a mai fixfunkciós RT hardverek.

    Az Ubisoft csak azért ment el az AMD-hez ezzel a problémával, mert ők is ugyanabban a gondban vannak, mint az Epic az Unreal Engine 5-tel, csak valószínűleg nehezebb lenne egy Lumen alternatívát csinálni, mint elkérni az AMD-nek a saját Radeon Rays API-ját, és azon AABB-vel megoldani a gondokat a programozhatóság által. Ez annyival kedvezőbb az Ubinak, hogy amint lesz programozható bejárás a DXR-ben, rögtön tudnak rá írni egy portot. De ettől még az Epic megoldása a Lumennel elegánsabb, mert általánosan gondol a mai rendszerek limitációira, és annak megkerülésére törekszik, míg az Ubisoft nem igazán akar kerülni, egyszerűen csak megvárják az AMD API-ján, amíg a szabvány felnő.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #58541 üzenetére

    Ha nem korlátozod mesterségesen az RT nélküli grafikát, akkor ekkora különbséget ad az RT. Máshol azért ad nagyobb különbséget, mert korlátozzák az RT nélküli minőségi szintet, de ezt a Gotham Knights fejlesztői nem akarták megtenni. Mi értelme lett volna? Az RT ott ad előnyt, ahol a korábbi eljárások elhasalnak, például képkockán nem látható objektumok visszatükröződése. De komolyan ne üssük már azért a fejlesztőket, hogy feltolták az RT nélküli minőségi szintet az elérhető maximumra, mert egy fejlesztőnek ez lenne a dolga. Aztán a felhasználó majd eldönti, hogy az RT extráját kéri-e.

    Egyébként az SSR az RT kikapcsolásával nem tűnik el, csak bizonyos területeken az SSR-nek limitációi vannak. Például képtelen a képkockán nem szereplő objektumokat visszatükrözni. Az RT reflection aktiválása pedig ezt adja hozzá.

    Nem a frame pacing a baj, hanem a flip queue érték magas, és mivel DirectX 12-ben van írva, ezen a meghajtó nehezen tud változtatni. Ráadásul per gyártó alapon van megszabva a flip queue. Az AMD-nél és az Intelnél 4, míg az NV-nél 6. A folyamatosságon ezt a problémát érzed. És ezt az Intel és az NV nem is tudja befolyásolni, mert nincs alternatív feldolgozási rutin a meghajtóban, a motorban pedig le van tiltva a parancs, amivel módosítani lehetne. AMD-n opcionálisan ez kiüthető, ha aktiválod az Anti-Lagot vagy a Chillt. És valóban az Anti-Lagra sokkal-sokkal folyamatosabb lesz az egész, mert a motornak a nem kedvező flip queue feldolgozását megkerülöd. Nyilván ezt lehetne javítani a motor oldalán, de nem tudni, hogy miért alkalmaznak ennyire extrém flip queue méretet, valószínűleg nagyon régről származik a kód, és a mai combos GPU-k csak így használhatók ki optimálisan. Csak ez áldozatokkal is jár a folyamatosság érzése szempontjából, ami különösen hátrányosan érinti a régebbi hardvereket. Ez valós baja a játéknak, de az RT effektek nem azok, mert elvárható módon működnek, csak pár média nem látott még olyat, hogy milyen az, ha az RT nélküli minőséget nem korlátozza a fejlesztő. Hát ilyen.

    #58542 Alogonomus : Az AMD is kifogy a memóriából a DXR-rel, mert a programozhatóság hiánya a szabványból ered. A Radeon Rays az az API, amivel ezt a problémát meg lehet kerülni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Van a ROP-okban pár egészen komoly újítás. Just sayin.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #58637 üzenetére

    Ki ne találjuk már, hogy sugárkövetés kell ahhoz, hogy sötétebb legyen egy autóban. Ezt cirka 15-20 éve is megoldották sugárkövetés nélkül. Ez sokkal inkább annak az eredménye, hogy a CD Projekt RED nem alkalmaz elég képzett programozókat... ;]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #58642 üzenetére

    Éppenséggel nem nagy a hátrány. Alig lehet észrevenni, ha nem nézed kifejezetten azt, amit az RT ad. De ez tipikus, hiszen az RT-t egyelőre csak effekt szintjén használják, holott ez sokkal több lenne, ha értelmesen be lenne építve a motorokba. Szerencsére már ez sincs messze, és akkor nem ilyen nyomi minőséget fogtok látni. ;)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #58645 üzenetére

    Amit csak az RT Diffuse Lighting okoz, és ez egy annyira olcsó RT effekt, hogy szinte mindegyik GPU megoldja. Ugye fontos, hogy nem kötelező ám a semmi extrát nem biztosító pszicho módot választani, mivel medium RT szint fölött alig van érzékelhető előny. Sőt, alapvetően az RT-nek van egy olyan hátránya ebben a játékban, hogy olyan felületeket tesz fényessé, amilyeneket nem szabadna. De hát ezt a bugot máig nem sikerült megoldani. Persze nem siettetném őket, mikor is jelent meg a játék? Alig volt még a piacon. :P

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #58647 üzenetére

    És ezek egyike sem reagál arra a kritikus problémára, hogy az a kurva sugár csak pár méterig számol. Pedig a valóságban nem csak pár méterig halad a fény. :) Ez így fingreszelés, és kb. annyi haszna lesz, mint a pszichó módnak. Amíg nem engedik a sugárkövetést tényleg pár méteres távon túl is működni, addig rendkívül limitált lesz az az előny, amit ki lehet hozni belőle.

    A multiple bounce is hasztalan addig, amíg nincs API a sugarak csoportosítására. Képi előnye nem lesz, de az L1-L2 cache-t azt szét fogja szemetelni, aztán mindenki néz, hogy miért lassult a normál feldolgozás is. Hát azért, mert nem hasznosítható adatok zúdultak be a cache-be. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #58650 üzenetére

    Tükröződésre nem csak egy alternatíva van. Már a Half-Life 2-ben is tükröződött a víz, és hasonló trükköket lehet csinálni ma is. Ami az RT-t korlátozza, hogy ha a tényleg látható határig menne a számítás, akkor mindent be kellene tölteni maximális LOD-dal a memóriába, mert az RT jelenleg se kivágást nem támogat, se dinamikus LOD-ot. Ezzel a VRAM használata 70 GB lenne. Ezen most úgy tudnak spórolni, hogy csak nagyon limitált távolságig számolnak RT-t, hogy ne kelljen 70 GB-nyi assettet a VRAM-ba rakni, amúgy se lenne rá kapacitás. De egyébként, ha megnézed, akkor az RT maga úgy is eléggé növeli a VRAM terhelését, hogy kis távolságig történik. És ez azért van, mert nincs kivágás, és nincs dinamikus LOD.

    Ha nagyon érdekel ez a téma, akkor a gondot az Intel tök jól elmagyarázza az alábbi videóban: [link] - még egy megoldást is felvázolnak rá, amivel prezentálják, hogy mennyit javulnak a DXR kódhoz viszonyítva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Radeon Raytracing Analyzer jó ideje van már. Ami változott, hogy nyílt forráskódú lett, mert korábban zárt volt. Az AMD azért nyitja meg idővel a specifikus profilozóit, mert a fejlesztők döntő része RenderDocot használ debugra. A RenderDoc viszont nem profilozó, hanem debug eszköz, tehát mellé kell még profilozó. Ugyanaz fog történni majd az RRA-val, mint az RGP-vel. Integrálásra kerül majd a RenderDocba, így a későbbiekben az RRA és RGP eventeket meg lehet nézni a RenderDocban, és a RenderDoc eventeket az RRA-ban és RGP-ben. Ez a folyamat egy kattintás lesz, és már tudja is a program, hogy mit kell csinálni. Ezért kell az openszósz.

    Az egésszel a fejlesztők időt nyernek, mert ha látnak valami hibát a RenderDocban, akkor csak egy kattintásnyira lesznek attól, hogy megnézzék RGP-ben, vagy később RRA-ban, hogy ha RT a kód. Ezzel több tíz perces keresésektől lehet megkímélni a csapatokat, mert az interoperabilitás a fejlesztői alkalmazások között csak mutatja a megfelelő eventet.

    Programozható bejárást ez nem fog adni. Ahhoz Radeon Rays kell, és az részben zárt, illetve a hozzá való profilozó is az. És ezek biztos, hogy nem lesznek nyíltak. Amelyik fejlesztő programozható bejárást akar, ahhoz konkrétan odaszögeli magát az AMD, lásd az Ubisoft üzlet. Nekik annyira nem fontos ez a forráskód, mert úgyis gyári szinten vannak becsövezve az AMD-hez, és végig fogják egymás kezét. Az openszósz Radeon Raytracing Analyzer azoknak lesz hasznos, akik pont hogy nincsenek az AMD közelében, mert túl picik, vagy nem elég érdekes a projektjük, de ettől még akarnak valami debug eszközt a szoftverfejlesztéshez, és lehetőség szerint olyat, amiért nem kérnek pénzt. Ilyen például a RenderDoc, és ha azt használják, akkor már opció használni annak az integrált profilozó kapcsolatait, hogy megkönnyítse a munkát.

    Szóval itt semmi stratégia nincs. Ha ezek az eszközök nem lennének, akkor egy csomó fejlesztőnek sokkal nehezebb lenne a munkája. Nem azoknak, akiknek fogják a gyártók a kezüket, hanem pont azoknak, akiknek nem.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák