Keresés

Új hozzászólás Aktív témák

  • Kansas

    addikt

    válasz ribizly #26 üzenetére

    Aki rossz áron vett, az meg nem tud, mert nem tudja annyiért eladni, hogy megérje neki a váltás...

    @(#24) b.: nekem egyre inkább úgy tűnik, hogy azért kell csak DLSS, hogy legyen mit csinálni a Tensor magokkal, mert másra(consumer/gamer szempontból) nem jók, de a marketing épített rájuk(is). Nem rég még az volt a hír, hogy a DLSS halott, és az NVidia elindult egy, a RIS-hez hasonló irányba helyette... aztán alighanem rájöttek, hogy úgy nem lehet eladni, mennyire kúlak a Tensor magok, amik a HW támogatás ellenére is több fps-t buknak az eljáráson, pedig az eredmény gyakran így sem valami fényes...
    A DLSS2 valamivel jobbnak tűnik, de én azért megvárnám, míg 3rd party teszterek élesben(in-game) is ki tudják próbálni és írnak róla. Igaz, engem utána se fog érinteni, mert egyik videokártyám se támogatja(RX5700XT, GTX1650).

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz ribizly #28 üzenetére

    Én ezért megyek általában a bang-for-buck sweet spot-ra(ami az esetek 90%-ában közép- vagy felső közép kategóriában található az adott generáción belül) - bár mostanság nem foglalkozok sokat azzal hogy mennyiért lehet később eladni, mert az esetek nagy részében családon belül vagy a baráti körben adom tovább a levetett HW-eimet, nyilván a feltétlen szükségesnél nagyobb bukóval.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #31 üzenetére

    Az, hogy nem érted, miért a RIS-hez hasonlítják az eredeti DLSS-t a cikkben, téged minősít, ha rendesen végiggondolod, abszolút van értelme az összevetésnak, de, már megbocsáss, nem fogom a szádba rágni(segítségül azért: a kulcsszó a "big picture").

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz gV #33 üzenetére

    Mi a fenének említenék meg külön, hogy a Turing támogatja? Azzal, hogy a DXR-t említik, nyilvánvalónak kell legyen, hogy egyedüli RT HW-ként más per pillanat nem támogathatja, de Turingból is csak a 2xxx-széria, a 16xx széria nem...
    Az sem tiszta egyébként, hogy a Turing már most támogatja, vagy csak támogatni fogja egy későbbi driverben...

    A Bright Memory meg early access-ben van, talán nem hallottak róla... abban egyetértünk, hogy túl sokat foglalkoznak a Controllal, főleg azután, hogy az elején említik, hogy nem is a fullos implementációja van benne a DLSS2-nek.
    Ezért mondom, hogy bár nagyon ígéretes, én megvárnám, míg egy normális játékban láthatjuk a fullos implementációt.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #35 üzenetére

    OK, akkor megfejtem a talányodat: a RIS és a DLSS is használható arra, hogy alacsonyabb(és utána felskálázott) felbontás esetén javítsa a képminőséget.
    Ráadásul mindkettőnek köze van az antialiasing-hoz: a DLSS egy antialiasing metódus, a RIS pedig korrigálja a túl elmosott AA negatív hatását, ami tipikus a kisebb teljesítmény-igényű AA metódusok esetében(igaz, a túlzásba vitt SSAA-nál is, pedig az eszi a vasat).
    Végső soron mindkettő arról szól, hogyan hehet minél több képminőséget megőrizni miközben teljesítményt spórolunk. Jó minőségű képre a sharpeninget ráengedve csak ronthatunk a dolgon, ezt az esetet ezért nem veszem figyelembe.

    Így már világosabb a kapcsolat?

    Egyébként nem személyeskedtem, az ugyanis a személyes tulajdonságaidra alapozva támadta volna az érveid érvényességét, én azonban az érveid minőségét direktben támadtam, és abból vontam le minimális mennyiségű konzekvenciát a személyes kognitív képességeidre nézve(ezt hívják empirikus megfigyelésnek)... amit egyébként azóta sem cáfoltál meg, láthatólag továbbra sem érted, miről van szó. Vagy csak látszólag?

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz gV #36 üzenetére

    Az továbbra sem világos, hogy jelen állapotában a Turing RTX támogatja-e a DXR 1.1-et, vagy csak támogatni fogja.
    EA=open beta, innentől szvsz nem kvalifikált. Még a WoWs sincs EA-ban, pedig még messze nem érte el a v1.0-t...

    Szerk.: de, már tiszta a DXR 1.1 támogatottság:
    "NVIDIA will be ready on the day of Windows 10 20H1 release with full driver support for all the new and updated DirectX 12 Ultimate capabilities."

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #40 üzenetére

    Az jött át, hogy le vagy ragadva a low-level technikai részletekben, és nem érted, mit/hogy/mire(is) használnak.
    Ha mégis érted, akkor Oscart neked, jól adod az értetlent... :R

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #42 üzenetére

    "75 % render + RIS nem ugyan az mint a DLSS ." - nem, valóban nem ugyanaz, a végeredményt tekintve több fps-veszteségért rosszabb képminőséget nyújt a DLSS, és ez tovább romlik, ha még image sharpeninggel is nyakon öntöd, mert bár a képminőség javul, a teljesítményvesztés is vészesen közel kerül a natív 4K renderinghez.

    Pontosan tudom, hogy a DLSS hogy működik, de az összehasonlítás szempontjából ez lényegtelen - erre mondtam, hogy leragadsz a low-level részleteknél.
    Lényegét tekintve a DLSS egy NVidia-only AA metódus, tehát ha úgy nézed, hogy:
    - 75% render + DLSS + Freestyle image sharpening
    - 75% render + AA + RIS
    mindjárt teljesen almát az almával összehasonlítás lesz.

    És mielőtt a dedikált HW(Tensor) támogatással jönnél, megjegyzem, hogy az AMD is HW-ből támogatja az AA-t, csak ez a hardver nem fixfunkciós, hanem a normál shader magok.
    Az kétségtelen, hogy a Tensor magok másra is jók, csak épp nem játékos kontextusban.

    A DLSS2 minden szempontból jobb lesz, ráadásul nem lesz 4K-hoz kötve. Ahogy a TechSpot is írja, a DLSS2 tudja azt, amit a DLSS-nél ígértek.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #44 üzenetére

    Kihagynád az élsimítást? A DLSS(Deep Learning Super Sampling) az egy élsimítási metódus :W

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #46 üzenetére

    OK, adom, ez igaz.
    A trükk az, hogy egy leskálázott kép megjelenítésekor a monitorba épített interpolációs algoritmust használod a megjelenítéshez, ami a használt algoritmustól függően effektíve jelent egy AA-hoz hasonló elmosó hatást(ugye ezért jelent meg az Integer scaling minden gyártónál, hogy natív felbontásban küldjék ki a képet a monitorra az egész számú skálázást lehetővé tevő esetekben).
    Tehát a megspórolt teljesítményt gyakorlatilag átterheled a monitorra... érdekes lenne tudni, nem növeli-e meg ez az input lagot... illetve hogy az egyes monitortípusok között van-e jelentős képminőségbeli eltérés, vagy mind ugyanazt az algoritmust használja.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz laposonly11 #51 üzenetére

    Nem az RTX magokat használja, hanem a másik überspéci találmány Tensor magokat, amik elvileg a központban tanított mintákat alkalmazzák, ezért nyerhető sebesség, no meg azért, mert csak a felbontás 75%-án számolja azokat a frame-eket.
    Részletesebb leírás az eredeti metódusról.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

Új hozzászólás Aktív témák