Hirdetés

Új hozzászólás Aktív témák

  • Petykemano

    veterán

    DLSS3

    Amikor bejelentték, nekem az volt a meggyőződésem, ez jött le a leírásokból, hogy a CPU és GPU együttműködéséből renderelt két képkocka között a DLSS3 renderel egyet az előzőekből számolva, párhuzamosan, de gyorsabban, mint ahogy a CPU-GPU renderelt képkocka elkészülne.

    De úgy tűnik, hogy nemhogy csökkenti, hanem növeli a frame-time-ot. (a csak felskálázást alkalmazó DLSS2-höz képest)
    [link]


    [link]

    Ami arra utal, hogy tulajdonképpen nem úgy működik, hogy "megjegyzi" az utolsó két képkockát, amit már kiküldött a kijelzőre és amire a felhasználó megfelelő reakcióidő mellett reagálhat, hanem az utolsó egy-két képkockát tulajdonképpen visszatartja, elkészíti az AI generált 2.5-ik képkockát és csak utána engedi a kijelzőre.

    Én nem hiszem el, hogy az AI képgenerálás annyira hosszú ideig tartana, hogy tehát hogy tényleg hosszabb ideig tartana, mint a rendes frame generálás. Biztos, hogy sokkal kisebb erőforrás és időigénye kell, hogy legyen.
    Azt sem hiszem el, hogy a GPU ne tudná megjegyezni az utolsó két CPU-GPU által generált képkockát és a következő CPU-GPU által generált képkocka generálása közben annál sokkal gyorsabban legenerálni a 2.5-iket.

    Az egyetlen magyarázat, amire én gondolni tudok, hogy azért nő a frametime, azért kell visszatartani az utolsó CPU-GPU generált képkockát, mert ha az AI generált képkocka aközben készülne, miközben az utolsó CPU-GPU által generált képkocka már ki lett küldve a kijelzőre, akkor arra a user már reagálhat és nagyobb hibák keletkezhetnek a valóság és a AI generált képkocka között.
    De ez meg azért nem áll össze, mert ugyanaez a CPU-GPU generált képkockával is megtörténne.

    Szóval valaki el tudja magyarázni nekem, hogy miért nő a frametime DLSS3 használata mellett?

    Találgatunk, aztán majd úgyis kiderül..

Új hozzászólás Aktív témák