Keresés

Új hozzászólás Aktív témák

  • Kansas

    addikt

    válasz 30z.Samu #25 üzenetére

    Majd patch-ben kapja meg az FSR-t.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz SindaNarmo #30 üzenetére

    "Bár az már most is látszik, hogy jelenleg alacsonyabb felbontáson rosszabb mint a DLSS2."
    És mégis ki használ DLSS2-t támogató kártyát 1080p-ben vagy 720p-ben DLSS-sel?
    A leggyengébb kártya ami támogatja a DLSS2-t az az RTX2060, ami bőven elég 1080p-ben is natívra... legalább is hirtelen nem jut eszembe DLSS-t támogató játék, amiben nem...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz SindaNarmo #35 üzenetére

    Miért, szerinted mire támaszkodik még a DLSS a képen kívül? Elárulom, semmire. A különbség az hogy az FSR csak az épp feldolgozott képkockából vesz információkat, a DLSS pedig korábbi/későbbiekből is - cserébe nehezebb implementálni épp emiatt.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arn #29 üzenetére

    Ez így ebben a formában nem igaz, maximum olyan tág értelemben, amilyenben értelmetlen használni.
    Annyiban van igazad, hogy technikailag nincs sok köze a DLSS-hez, de miért is kéne, hogy legyen?
    Más részről funkcionalitásban azonos a DLSS-sel, sima realtime upscale-nél jobb képet ad a HU teszt alapján.
    Csak azért, mert nem varázsol Tensor magokkal meg nem igényel központi tanítást, nem kéne lefitymálni, annyival nem rosszabb a DLSS2-nél sem, a DLSS1-nél pedig határozottan jobb.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #52 üzenetére

    A 2.2 milyen 2 éve van a piacon? Egy hete jött ki rá az első játék(illetve a R6 Siege-et felpatchelték hogy támogassa)... még a 2.0 is alig több, mint egy éves.

    Ez olyan, mint a FreeSync... az NVidis majd kijön a "compatibility DLSS"-sel, ami az FSR egy implementációja lesz. Az igazi DLSS nincs meg fixfunkciós egységek nélkül, amit jól jelez, hogy a GTX16xx kártyákon se megy.

    Őszintén szólva nem teljesen értem, hogy mi a jó abban hogy a DLSS-t vagy az FSR-t nyomják ahelyett hogy inkább az RT hatékonyabbá tételére használnák az erőforrásokat. RT nélkül eleve senkinek nem volt szüksége rá, különben hamarabb bevezetik.
    Régóta megvan a megoldás arra, ha nem bírja a VGA a gyűrődést: le kell venni a részletességet Ultra-ról High-ra, manapság azt se igazán venni észre a legtöbb játékban.

    Nekem a legjobb módszerem arra hogy az 5700XT-m bírja a játékot 4K-ban az hogy teljesen kikapcsolom az élsimítást, a sok vacak postprocess cuccot(a motion blur-t megoldja helyettük a TFT pixelválaszidő amúgy is :) ) és sose rakom ultrára az árnyékokat - teljesítményileg majdnem ugyanott tartok, mintha FHD-ban tolnám, csak szebb, élesebb a kép.

    Konzolon meg tökmindegy, hogy lesz-e, ott eddig is használtak sokféle skálázási trükköt, eggyel több nem fogja megváltani a világot...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz gbors #73 üzenetére

    A HardwareUnboxed tesztben megnézték.
    A Lanczos-t lehet realtime alkalmazni 3d játékban? Ha igen, milyen overhead-del?

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #77 üzenetére

    DLSS1 hány játékban van támogatva? 6-7? Mióta kijött a DLSS2, az eredeti verzió senkit se érdekel, ráadásul az FSR azt le is lépi rendesen...

    #78 b. GPU scaling-et elég régóta tudnak a Radeonok - bár azt nem tudom, milyen metódust használ, arra vonatkozó beállítási lehetőség nincs.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #80 üzenetére

    A DLSS1-nél valóban több szempontból a semmi is jobb. Azt konkrétan nem érdemes bekapcsolni RT nélkül, és nem is minden játékban lehet. Nekem soha nem jutna eszembe használni. ha RTX-em lenne se... mondjuk a DLSS2-t vagy FSR-t se, csak ha nagyon nem tud a VGA kitolni magából 48fps-t se... és akkor is először mással próbálkoznék(ld. #55, vagy 1080p+integer scaling).
    A Radeon Boost-ot se használom...

    "#Az kép( arány?)méretezés ( szerintem)" Nem, kb. ugyanaz, amit pl. TV-ken lehet bekapcsolni(zoom/stretch/preserve ratio), csak ez GPU-oldalon műxik.

    Mondjuk érdekes lenne összehasonlítani az FSR-t egy csökkentett felbontás+"Samsung Magic Upscale" kombóval is(bár gyanítom az nem csak upscale-t csinál)

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #82 üzenetére

    Ha az összes DLSS1-et támogató játékot összeadod, nálam együtt jó ha 1 óra játékidőt kitesznek...
    Most végignéztem a fentebb linkelt wikis DLSS-támogatási listán, és hát azt kell mondjam, egyik rajta szerteplő játékkal se játszok, de még wishlist-emen sincs egyik se.
    Kíváncsi vagyok, ez máshogy lesz-e az FSR-támogatott játékok esetében... az eddig bejelentettek közül kb az Anno 1800 az egyetlen, ami valamennyire érdekel, de ott meg bőven túlteljesítem az ajánlott sysreq-et.

    OK, engem a CP2077 mondjuk teljesen hidegen hagy...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz Create. #85 üzenetére

    A Control eleve nem különöserbben érdekel(bár megvan, ha már az Epic Store ingyen utánam dobta, ha nagyon unom a fejem, egyszer tán ki is próbálom), RTX kártyám pedig nincs és nem is volt, szóval nem, valóban.
    Azt meg eddig is tudta mindenki, hogy ha RT-t akarsz, nem 2060-at kell venni... Ennyi erővel a GTX1080Ti mennyit fog már profitálni az FSR-ből raytracing mellett...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz gghrtz #90 üzenetére

    Hja, kinek a pap, kinek a paplan... Nekem eszembe nem jutna 720p-n játszani, ha fizetnének érte se. Annyit semmilyen feature nem ér, hogy odáig butítsam a felbontást érte.
    A videók alapján Control-ban ráadásul indokolatlanul túl van tolva, minden csillog-villog tőle mint a Salamon töke... mint az AMD RT demóban... bazári...

    #90 gghrtz: hát, ha neked a DLSS/FSR selling feature, akkor vegyél NVidiát... Mi történt a G-Sync-kel mióta a GeForce-ok is meg tudják hajtani a Freesync-et? Na az fog a DLSS-sel is...
    A zárt szabványok tipikusan elsorvadnak, ha megjelenik egy nyílt szabvány ugyanarra a funkcióra, ha csak nem tudnak sokkal többet.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz PuMbA #93 üzenetére

    Konzolokon eleve van egy csomó felskálázós megoldás(checkerboard, stb) FSR nélkül is, oda tök felesleges...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz PuMbA #97 üzenetére

    Hát nemtom, pl. az Assassin's Creed Origins tudtommal használja mindkettőt - igaz, az nem next(current)-gen.
    Az FSR pedig nem csinál dinamikus skálázást, statikus szintek közül választhatsz.
    Ami dinamikus felbontás-skálázást csinál, az a Radeon Boost.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz PuMbA #99 üzenetére

    No de épp ezt mondom, a konzolok FSR nélkül is tudják ugyanezt... A PS5 ráadásul nem is használja a FidelityFX-et(ami ugye a DX12U egy kiterjesztése), hanem saját API-ja van.

    Az FSR(és igazából a DLSS is) arra jó, hogy PC-re is elhozza, amit a konzolok eddig is tudtak kénytelenségből.

    "Valamint konzolokon nem te határozod meg a felbontást, hanem a készítők":
    Eddig. De pl. az új Spiderman-ben(meg a Remastered régiben) három beállítás közül lehet választani:
    - Fidelity mód: 4K (DRS: 2160p - 1800p), RT, 30fps
    - Performance RT mód: DRS: 1440p - 1080p, RT, 60fps
    - Performance mód: 4K (DRS: 2160p - 1440p), no RT, 60fps
    Tán mondani se kellene, én Fidelity módban tolom...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz ricsi99 #100 üzenetére

    Sanszos, hogy alacsonyabb felbontáson renderelve VRAM se kell egészen annyi...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz gghrtz #105 üzenetére

    Az a 240p DLSS valami borzalom... bár gondolom egy hűtőgépen is elme...nne, ha lenne benne Tensor core és a gyártó megkenné az NVidiát hogy segítsenek implementálni...
    Tekintve hogy egy RTX2060 kell minimum ahhoz hogy DLSS-ed legyen, nekem indokolatlannak tűnik a 240p DLSS léte...

    Ezeknek szvsz akkor lenne értelme, ha egy GT1030-on is lenne DLSS támogatás...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz PuMbA #103 üzenetére

    Hát, gondolom azért kipróbálják... a helyükben én is azt tenném, írjon a franc saját scaling algoritmust, ha van szabványos, a gyártó által támogatott is.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz laposonly11 #167 üzenetére

    "Ebben az a vicces, hogy eddig mindig az AMD jött elő a legújabb fejlesztésekkel, erre először a történelemben, kihagyták ezt a lépést az Nvidia javára, furcsa!"
    Talán megelégelték, hogy az NVidia és a GF tulajok rajtuk röhögtek, hogy kifizették a tanulópénzt helyettük.
    Most az AMD szeretne röhögni, hogy az NV fölöslegesen beépített egy csomó fixfunkciós hardvert amit aztán a kutya se fog semmire használni, mert a nyílt megoldás kb ugyanazt tudja, kicsivel kevesebb artifacttal, sokkal szélesebb körű hardvertámogatással.
    Esélyes, hogy nem sokára azt fogják kívánni, hogy a tensor magok helyett is inkább CUDA magokat tettek volna a kártyáikba, akkor nem kapta volna el őket a 6 éve először high-enden is versenyképes kártyát kiadó AMD raszterizációban...
    Arra se fogadj még, hogy a next-gen konzolokjátékok elterjedtével nem az AMD-féle RT-megoldásra fognak PC-n is optimalizálni, és nem fognak ott is elmaradni az RTX-ek

    Szóval lassan csak azzal a Ferrari vs. kotyogós hasonlattal, még egyszer arra fogsz ébredni, hogy a kezed a bililbe lóg...

    "nekem kell a legújabb hollywoodi színvonal, és ezt jelenleg csak az RTX kártyák nyújtják"
    Ja, álmodban... "legújabb hollywoodi színvonal" - ne röhögtess ennyire, még sérvet kapok...!

    Az meg már mindennek a csúcsa, hogy az egyik top RT/DLSS techdemó, a Control(Linusék még 8K DLSS-t is toltak rajta) egyáltalán nem használja azt a sok menő extra hardvert ami a kotyogósodból Ferrarit csinál(szerinted legalább is)... mindent a CUDA magokon futtat...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz Pro!Petya #170 üzenetére

    Valahogy úgy... ;]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz laposonly11 #174 üzenetére

    Neked elgurult a gyógyszered, ha azt hiszed, hogy "natív 4K" látványt lapsz bármiben, amit nyakonöntöttek TAA-val... a TAA konkrétan csak elb@ssza a képminőséget és bevezet egy rakás mozgás közbeni artifactot.
    Nekem 28"-os 4K monitorom van, nem hogy TAA-ra de semmilyen AA-ra nincs szükségem rajta. Na az a "natív 4K", amit semmilyen DLSS nem fog soha megközelíteni, ami alacsonyabb felbontáson számol.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz laposonly11 #173 üzenetére

    Az AMD az RX6xxx szériában illetve a konzolokban hardveres raytracinget használ.
    Köszönettel, de a PS5-ömön amit én 4K+RT beállítással látok a Spiderman-ben, azt te soha nem fogod látni a GeForce-odon. Gyors és működik, köszike.

    A PhysX-szel se nagyon érdemes jönnöd, már régóta szoftveresen fut mindenhol... AMD és Intel GPU-kon is, az általad linkelt két játékban is(bár az AC tudja hardveresen gyorsítva is használni, de ugyanaz a látvány szoftveres PhysX-szel is, csak vesztesz pár fps-t).

    "lassan 2 éve aktuális a játékokban ez a grafikai opció!" ja, abból a 2 évből vagy 1,5 évben egy kézen meg tudtam számolni, hány játékban volt "aktuális"(techdemókat nem számolva). Történetesen az a 4-5 játék, amiben volt, engem rohadtul nem érdekelt, ezért meg sem fordult a fejemben, hogy RTX-et vegyek.
    Most kezd annyira elterjedni, hogy lassan meg fogja érni a vásárlási döntéseknél ezt is figyelembe venni.
    Eddig kétféle ember vett kifejezetten RTX miatt kártyát:
    1. a támogatott féltucat-tucat játék közül valamelyiknek a rajongója
    2. felvágós e-fasz méregető
    Na most én egyik se vagyok, tehát pont lesz@rtam.

    Emellett ha megnézed az Unreal Engine 5 demóját, amiben(bár az engine támogatja), semmiféle RT-t vagy DLSS nincs használva, egyből láthatod, hogy egy olyan kijelentés, miszerint RT nélkül nincs top szintű grafikai élmény, egész egyszerűen hazugság. Sőt, jó pár játék van, ami RT nélkül szebb, mint az RT-s játékok(Last of Us 1-2, RDR2 pl.)

    Szóval nyugodtan vegyél vissza magadból, a te 3060Ti-oddal egyenértékű RT teljesítményt simán tud az AMD is, ha csak azóta nem váltottál 3080-ra vagy 3090-re, nem nagyon van mire arcoskodnod. Mondjuk akkor se, ha váltottál...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz laposonly11 #181 üzenetére

    Játszottál te a Spidermannel vagy csak 720p-s videókat nézegettél YT-on? Amit a YT videókból látni, az alapján a Cyberpunk is kockaerdő meg sivatag... kurvára komplex...

    "Hát igen, Metro, Cyberpunk stb. ja, tényleg szar témák, mondjuk egy ilyen technokrata Cyberpunk is csak aktuális témát feszeget így 20-40 éven belül, de persze hogy nem érdekel,"
    Mi köze van a téma aktualitásának ahhoz, hogy bárkit érdekel-e? Talán csak nem kötelező lenne hogy érdekeljen? Azt majd én döntöm el, hogy mi érdekel, nem te és nem is az hogy van-e benne raytracing.
    A '90-es években én játszottam pár alkalommal Cyberpunk 2020-at(tudod, ami rendes szerepjáték, nem kell hozzá PC), de abbahagytam, mert már akkor se érdekelt a világa.

    Nem játszok multi FPS-t, baromira nem érdekel. Pont leszarom a "Battlefield V-öt ... teljesen rombolható környezettel 64 játékossal". Single playerben se tetszett, pedig megvettem(EA Play) és kipróbáltam.

    Metrótól kifeküdnének a konzolok? Hazudj még, plíz... hadd röhögjek!

    "Rohadtul kiváncsi vagyok hogyan fog ez futni pl. konzolokon"
    Az Unreal Engine 5 demója konkrétan egy PS5-ön futott mikor bemutatták, úgy fog futni... és azóta a konzolon és az engine-en is optimalizáltak már, úgyhogy alighanem annál még jobban.

    "Ugye ezt nem gondolod komolyan, hogy ha hülyeségeket írsz azt be is veszem?"
    A hülyeségeket már bevetted és itt böfögöd vissza. Én a valóságot írom...

    "Ezek a címek brutál jól néznek ki alapból, de ha sugárkövetést is kaptak volna akkor lennének csak nem semmik. " Ez így ebben a formában egyszerűen nem igaz. Ha fullos RT-vel öntöd nyakon azt a grafikát, nincs vas ami elvigye 10fps felett, ha részleges RT-t teszel rá, akkor meg nem lesz érdemben szebb.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

Új hozzászólás Aktív témák