Keresés

Új hozzászólás Aktív témák

  • #54625216

    törölt tag

    Az UE5 első sorban a filmes felhasználóknak ad majd nagy lökést, mert renderelt tartalmaknál eleve nem szempont a magas fps. Cinematic rendernél az output sávszélesség a szűk keresztmetszet (hálózati háttértárra kell nagy felbontású exr szekvenciákat kiírni), tehát ha a realtime alkalmazásokban az input visszafogja is az engine-t, az a cinematic renderidőt elhanyagolható mértékben befolyásolja csak.

  • #54625216

    törölt tag

    válasz Strezi #9 üzenetére

    A 4K-val az a baj, hogy nem csak a renderidő nő (azt még bőven lehet kompenzálni a hardver bővítésével, ami meg pénzkérdés), hanem a nagyobb részletesség több emberi munkát is igényel.
    2K-hoz pl. még jók az átlag 4K textúrák, míg 4K-hoz már 8K vagy nagyobb kell. Na most a textúra részletesség nem csak annyi, hogy Photoshopban feltolod a felbontást, hanem azt valakinek teljes részletességében meg is kell festenie, különben semmi értelme, ha nincs benne több részlet. Ugyanez a helyzet a modellek részletességével és kb. minden kreatív munkával.
    A több emberi munka meg lassítja a produkciót, mert nem mindig lehet több emberrel kompenzálni a feladat nehézségét. (Van ugye a mondás, hogy "a manager az, aki azt hiszi, hogyha teherbe ejt kilenc nőt, akkor egy hónapon belül meglesz a gyerek".)

    Sok nagy költségvetésű produkció tehát azért kamu 4K, mert egyszerűen nincs rá elég idő. Ilyenkor általában a munka döntő része 2K-ban zajlik és csak azokat a rétegeket renderelik ki 4K-ban, amiket javarészt procedurálisan állítanak elő és jól látszik a felbontás növelés, pl. CGI szőrzet és haj, részecske effektek, stb.

    Ami a Cryengine-t illeti, az azért nem lett sikeres ez a próbálkozás, mert nem voltak az editorban filmes munkát támogató eszközök. Ilyen szempontból az UE is messze van még a jótól, de legalább a minimális tool-okkal rendelkezik.

  • #54625216

    törölt tag

    válasz tibaimp #12 üzenetére

    Szerintem a játékipar meglepően gyorsan át fog térni a streamelésre. Onnantól a kiadónak kell beruháznia a hardverre (videókártya, sdd, vagy akár teljesen egyedi hardver), a home PC pedig megmarad vékony kliensnek.
    A PC hardver ettől még fejlődni fog, de egyre inkább a highend szegmensben és nem az átlagusereket meg a gamereket fogja célozni, hanem a tartalomfejlesztőket.

  • #54625216

    törölt tag

    válasz Meridian #68 üzenetére

    A konzol SSD-ket nem írogatni fogják gyorsan, hanem olvasgatni.

  • #54625216

    törölt tag

    válasz Komplikato #91 üzenetére

    A GI-nek nincs közvetlen köze a poligonszámhoz, legfeljebb annyiban, hogy nem lehet minden takart poligont kapásból kiszórni a memóriából, ez viszont érvényes alacsony poligonszámú jelenetekre is.

    A renderelőknél két igazán fontos paraméter van:
    - a sampling, azaz hogy hány ray-t lő ki pixelenként
    - és a dicing, azaz hány mikropolygonra bontja a jelenetet pixelenként.
    A render minőségét első sorban a sampling befolyásolja, főleg az aliasing és a zaj mértékén javít. (Illetve kb. mindenen, mert jellemzően a többi paraméter a sampling értékét szorozza.)
    A dicing azért érdekes, mert a shaderek a samplingtől függetlenül mikropoligononként csak egyszer futnak le így néha szükség van pixelenként több mikropoligonra, hogy a shader kód többször fusson le és a számítás pontosabb legyen. Ez viszont csak a highend rendereknél szempont, ott is csak ritkán, realtime grafikánál még nagyon messze vagyunk attól, hogy a dicing mértéke befolyásolja a látványt.

    Ebből számomra az következik, hogy a 20 millió háromszög alatt a teljes jelenet részletességét értették, azaz beleszámolták a takart háromszögeket is.

    [ Szerkesztve ]

  • #54625216

    törölt tag

    válasz PuMbA #99 üzenetére

    " Emiatt van az, hogy az 1968-ban készült 2001: Space Odyseey brutálisan néz ki 4K-ban"

    A Space Odyseey 70mm-re készült, így magán a celluloidon is van elég részlet. A 35mm celluloid filmek nagy részét 2K fölött legfeljebb archiválási céllal scannelik, mert a nagyobb felbontás semmit nem ad a minőséghez, gyakorlatilag csak a grain lesz finomabb.
    Így azokat a filmeket, amiket a 4K dili előtt scanneltek 2K-ban nem scannelik újra, fake az összes (grain leszed, felscale, némi sharpen, 4K grain rárak).

  • #54625216

    törölt tag

    válasz Komplikato #97 üzenetére

    Van egy olyan elv, hogy bizonyos keretek között a CPU - RAM - háttértár I/O hármas - megfelelő optimalizációval - ki tudják váltani (egészíteni) egymást.
    Ha kevés a ram, akkor procedurális megoldásokkal előállítható az az adat, aminek jobb esetben a memóriában lenne a helye.
    Pl. az 1984-es Elite játék a tízezer csillagrendszer temérdek adatait úgy tudta kezelni 16kbyte memóriával, hogy az összes adatot random fügvénnyel állította elő és csak a random seed-et tárolta. Azaz a cpu dolgozott a memória helyett.
    Ha kevés a cpu, akkor előre leszámolt adatokat lehet a memóriában tárolni, pl. textúrákba bakelt világítás, ezzel tehermentesíteni a CPU-t.
    Az UE5 most a háttértár I/O-t használja ki a GPU és a VRAM kiegészítésére. Ehhez pedig bezony szükség van a PS5 hardverre is, ami ezt lehetővé teszi.
    Nemrég, amikor a Sony bemutatta a PS5 hardvert - az amúgy elég bénára sikeredett - youtube videójában, mindenki azon értetlenkedett, hogy mit lovagol a csóka a SSD-n. Oké, fasza gyorsan betöltenek majd a játékok, hurrá, lépjünk, inkább a TFlop-okról beszélj.
    Most már érthető, hogy miért vergődtek annyit a Sony-nál a háttértár I/O-n.
    A konzol hardverben ugyanis nem az az érdekes, hogy az aktuális csúcskategóriához képest mit tud, hanem hogy azt nagy közönség számára elérhetően, szabványosítva tudja.
    Tehát az UE5 szoftver oldali áttörés csak úgy értelmezhető, ha mellé tesszük a hardvert, ami futni fog, a fejlesztést meg rentábilissá teszi azáltal, hogy eljuttatja a tömegekhez .
    Az átlag PC hardver hiába éri be (vagy hagyja le) a PS5-öt pár generáción keresztül CPU-ban, GPU-ban, RAM-ban és VRAM-ban, nagyon messze vagyunk attól, hogy egy tömegeknek szánt PC-s játékban alap rendszerkövetelmény legyen az 5GB/sec PCI-E 4.0 SSD.

  • #54625216

    törölt tag

    válasz PuMbA #104 üzenetére

    A Matrix-ot 35mm-re forgatták, de a teljes utómunkafolyamat digitális volt, azaz a negatívot még grade és vfx előtt scannelték, a filmből digitális master készült és csak utána írták vissza 35mm-re.
    Maga az utómunka ugyanakkor 2K-ban készült, és egészen biztos, hogy a 4K bluray kedvéért nem renderelték újra a CG-t és kompozitálták kb. 0-ról a filmet. Tehát a Matrix 4K verzió is alapvetően fake, csak a legtöbb hagyományos 35mm 2K scan-hez képest jobb minőségű digitális masterből készült, ezért a 4K upscale is jobban néz ki az átlagnál.

Új hozzászólás Aktív témák