Keresés

Új hozzászólás Aktív témák

  • nkmedve

    őstag

    "Ennek az oka, hogy magát az eljárást a memória-sávszélesség limitálja, minden beállítási szinten, és előfordulhat, hogy ilyen hardveres korlátokkal, elméletben megterhelőbb paraméterezés mellett jobban jönnek ki az aszinkron módon végrehajtott feladatok."

    Tesztelte valaki a skálázódást memória OC mellett? Nálam a 2080 effektív 16.6 GHz-re képes a gyári 14 helyett (Samsung RAM), kíváncsi lennék így mennyit hozna RT-ben. Ha a sávszéll szerint skálázódik az RT teljesítménye akkor valahol a gyári 2080 - 2080Ti között félúton kéne legyek. Mivel az NV végtelen kedvességében nem csomagolt BFV kulcsot a korábbi RTX vásárlóknak ezért ezt nem fogom tudni kipróbálni egyelőre.

  • nkmedve

    őstag

    válasz SaGaIn #29 üzenetére

    Egyetértek, játékok esetén nincs szükség teljes RT-re, bőven elég ha idővel a rasterization problémásabb elemeit megtámogatják RT-vel (árnyékok, tükröződések, fénytörés, fények) ha ez megvan akkor onnan már nem sokat javítana a teljes RT minőségben, viszont teljesítményben többszörös igénye lenne.

    Más:
    Talán nem a BFV volt a legjobb választás az RT demózására, mivel egy ilyen multis játéknál mindenki csillió FPS-t akar, de pl single játékoknál a QHD 60 FPS RT mellett már bőven jó, és ezt már a mostani generáció is nagyjából képes hozni megfelelő optimalizálás mellett. Vicces visszagondolni a régebbi kommentekre ahol sokan azzal riogatták a népet, hogy az RT maximum 720p-ben lesz használható. :D
    Még 1-2 generáció és kiforrhatja magát a dolog, feltéve ha képesek lesznek emelni a memóriasávszéllt megfelelően (fog kelleni oda a HBM szerintem, a GDDR6 nem lesz elég).

    [ Szerkesztve ]

  • nkmedve

    őstag

    válasz schwartz #34 üzenetére

    A sávszéll önmagában nem elég, az 1080 Ti-nek sincs hiánya benne, de mégis kb. 80-85%-kal kissebb RT teljesítményre képes, mint a 2080 Ti (kb. 6-szoros különbségről beszéltek). Az RT és a Tensor magoknak nagy szerepük van itt, bár ez függ az implementációtól is, AMD-nél gondolom másképp fog működni de valamilyen dedikált RT egységekre ott is szükség lesz. Gondolom az NV sem csinált volna drágán gyártható 700+ mm2 méretű chipet ha csak egyszerű CUDA magokkal tudta volna hozni ugyan azt a teljesítményt.

    (#35) csicso82 Valami olyasmire gondoltam én is, kíváncsi leszek, hogy az RT mód mikor készül el az új Tomb Raider-hez, ott talán inkább lesz ideje megcsodálni az embernek. Esetleg egy Hitman-szerű játékban is el tudom képzelni (élethű fényvisszaverődés 47 fején... :)) ).

    [ Szerkesztve ]

  • nkmedve

    őstag

    válasz komi77 #49 üzenetére

    Akik ezzel foglalkoznak azok már legalább 30 éve tudják, hogy ez a jövő, ez soha nem is volt a kérdéses. A kérdés inkább csak az volt, hogy mennyire távoli jövő. Nem túl rég bármiféle valós idejű RT erősen sci-fi kategóriának számított.

    Nyilván időbe fog telni amíg az RT kinövi magát és többmindenre lesz használva, de a lényeg, hogy itt van és opcionálisan használhatják akik valami újdonságot akarnak (szerencsére nem kötelező, és nem kompetitív multiplayer mellett kell próbálgatni). Az, hogy már most, első generációs hardveren FullHD-ben vagy QHD-ben megy, nem kis megvalósítás.

    [ Szerkesztve ]

  • nkmedve

    őstag

    válasz komi77 #51 üzenetére

    Nem tudok róla, hogy a múltban lett volna hasonló próbálkozás arra, hogy játékokba rakják be a valós idejű RT-t, úgyhogy nem mondanám, hogy egy periodikusan visszatérő dologról beszélünk (mint pl. a moziban a 3D vagy a virtuális valóság), az RT sokkal inkább lineárisan fejlődött az idők folyamán és fokozatosan terjedt.
    Maga a ray tracing eljárás nagyon régi találmány és széleskörűen használják már évtizedek óta pl. filmeknél (vagy említhetjük a játékok cutscene animációit is).
    Én kb. 9 éve találkoztam először vele és azóta is gyakran kellett javítgassak RT-vel kapcsolatos dolgokat több projektünkön is (persze nem valós idejű RT-ről beszélünk most, hanem olyanról aminek percek kellenek, hogy egy frame-et kirajzoljanak, egy erős CPU-n).

    Az "álom" már nagyon rég az lenne, hogy RT-re építsünk minden 3D grafikát használó alkalmazást (pl. játékok) mivel ezzel lehet a legvalósághűbb kinézetet elérni, de a hatalmas számításigény ezt lehetetlenné teszi egyelőre. Ami most történik az annyi, hogy a játék grafikájának néhány nehezebben modellezhető elemét (pl. tükröződések, árnyékok) RT segítségével számoltatják, hogy így valamivel közelebb kerüljünk a valósághű grafikához. Persze RT nélkül is meg lehet ezeket oldani (eddig is voltak tükröződések pl.), de az nem a legszebb, és lassan kezdjük elérni a határát annak amit ki lehet hozni a raszter alapú grafikából.

    (#52) schwartz A Vega compute-ban talán valamivel erősebb, mint a 1080 Ti, de kétlem, hogy ez elég lenne arra, hogy a 2080 Ti RT teljesítményének így izomból akár csak felét/harmadát hozza (ahogy már írtam a 2080 Ti kb. 6x gyorsabb, mint az 1080 Ti ilyen felhasználás mellett).
    Amúgy a Vega memória-sávszéllben jelentősen lemarad a 2080Ti-től (484 GB/s vs 616 GB/s), inkább az 1080 Ti szintjén van.

  • nkmedve

    őstag

    válasz kisbalázs #56 üzenetére

    Persze, kutatás szintjén sokan foglalkoztak ilyesmivel, de mondhatni az RTX-el került ki először a "laborból" és kereskedelmileg vált elérhetővé. Mellesleg én is próbálkoztam valós idejű RT-vel, open-source RT engine-ben létrehozni egy egyszerű scene-t és úgy paraméterezni, hogy másodpercenként több képet ki tudjon számolni (valami 320*200-as felbontásban és nagyon minimális megvilágítással és sample size-al sikerült valami ilyesmi, de ronda volt az egész :D ).

Új hozzászólás Aktív témák