- Kodi és kiegészítői magyar nyelvű online tartalmakhoz (Linux, Windows)
- Vodafone otthoni szolgáltatások (TV, internet, telefon)
- Aliexpress tapasztalatok
- AI-gyártású celebpornóval küzd a Facebook
- Linux kezdőknek
- Windows 10
- Kanada big tech-adót zúdít az amerikai cégek nyakába
- Otthoni hálózat és internet megosztás
- Amazon
- Debian GNU/Linux
-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
nubreed
veterán
Nekem 250 -et tuti nem érne meg egy 3070, de ez csak én vagyok. Az AMD -ből meg iszonyatosan kiábrándultam, pedig én nagyon sokáig AMD-s voltam, mielőtt elkezdtem nV kártyákat használni. És itt elég sok minden közre játszott: eléggé lemaradtak az nV mögött, jöttek az ígéretek meg a poor voltázás (hú az nálam nagyon betett) aztán láttuk mit dobtak a piacra, az nV meg fényévekkel elhúzott mellettük. Aztán a driver issue -k, na abból kijutott nekem is jó pár. Ezt még úgy ahogy lehetett orvosolni, pl másik driverrel, egyéb workarounddal, na de az, hogy a drivernek azt a részét ahol a video playbackhez állítod be a különböző dolgokat (pl brightness, contrast, edge enhancement, noise reduction, gamma, stb stb) teljesen kiherélték az adrenalin driverben és egy csúszkát kaptál összesen ahol kb a brigthnesst tudod csak állítani, nálam végleg betette a kaput. Nekem ezek a beállítási lehetőségek fontosak, nem játszok a videokártyával hanem mozizok is a géppel. Lehet hogy azóta ez már változott, még január legelején volt kb 3 napig egy 5700XT -m (megtévelyedtem egy gyenge pillanatomban, de hát egy 10 -essel olcsóbb volt ez, mint a 2060S) de elég durva gondjaim voltak vele, többek között a fent említett video lejátszási beállítások teljes kiherélése verte ki nálam a biztosítékot, de volt más is (hdmi-n keresztül egyáltalán nem jött hang, pedig vagy 5 driverrel kipróbáltam), így fogtam és visszavittem a boltba, elálltam a vásárlástól és így lett a 2060S aztán.
We are the first of cyber evolution. We are the first to program your future.
-
Mumee
őstag
Kísérleti RT? Az RT már csaknem 3 éve jelen van a Microsoft által. AMD pedig nem dedikált hardverrel oldja meg, mint az Nvidia. Tehát semmi olyat nem hoz be, ami kísérleti.
DLSS változat pedig lesz az AMD-ben is. Igazából annak egy silányabb változata a Sapphire Trixx szoftverben eleve elérhető. -
Abu85
HÁZIGAZDA
DLSS-hez hasonló megoldásban nem biztos, hogy gondolkodik az AMD. A Microsoft mondta, hogy dolgoznak ilyenen, de az aktuális technológiai háttér még nem elég jó. És ugyanez a baja az AMD-nek is. Maga a technológia még ha működik is, a minősége nem állandó. Tehát egy játékon belül mondjuk az első pályán jó eredményt ad, de a másodikon már rosszabb a minőség. Tehát jelen pillanatban a az aktuális eljárások minősége ingadozik a jelenettől és a tartalomtól függően. A DLSS 2.0/2.1 esetében csak annyit értek e, hogy többször van jó minőség, mint rosszabb, de ettől az utóbbi problémát nem küzdötték le, csak nem kell a bemutatókra annyira szelektálni a pályaszakaszokat, ahol a technológia éppenhogy működik. Viszont rengeteg pályaszakasz van, ahol olyan tartalom található, amit a neuronháló nem ismer fel, és azok nagyon rondák lesznek.
A Microsoft egy korábbi előadása szerint az egész problémát az adja, hogy a fejlesztők nem értékelik a lehetőséget. Két opció van, legyen egy általános neuronháló, amit a rendszer fejlesztője frissít, de ezzel elfogadnák, hogy a minőség mindig ingadozó marad, de egyik szobából a másikba átlépve van esély rá, hogy a minőségkülönbség elképesztően nagy lesz. kvázi az egyik szoba szép, a másikban pedig lehetnek olyan tartalmak, amelyek teljesen elmosottnak tűnnek. Emiatt bármennyire is erre ment el a DLSS a 2.0-val, a Microsoft nem ajánlja, mert sosem lehet belőle általánosan jó minőség. Az alapfeltevés viszont az, hogy ha egy neuronhálót specifikusan a tartalomra tréningelnek, akkor ott rendkívül jó lehet az eredmény. A Microsoft a 94%-os hatásfokot vállalhatónak tartja, ami azt jelenti, hogy ennek a költségei nem elképesztően magasak, és a játékban szereplő tartalmak 94%-át felismeri majd a neuronháló. Az aktuális DLSS ebből a szempontból 80% környéki, de ha általánosan tervezed, akkor a Microsoft szerint sem lehet ennél jobb hatásfokot elérni. Tehát effektíve a játékbeli tartalom ~20%-a kurvára szar minőségű lesz.
Hasonló a helyzet az AMD esetében is. Itt nem a technológiai alap a gond, hanem a tréningelt neuronháló. Alapvetően akkor működne ez jól, ha a fejlesztők pénzt áldoznának az egészre, de jelen pillanatban sokan azért építik be, mert reklámpénzt kapnak érte, és amíg ez nem fordul meg, addig a minőséggel is úgy vannak a fejlesztők, hogy szarnak rá, mert nem azért építik be, hogy használható legyen, hanem azért, hogy felkarolják a reklámpénzt. Ilyen közegbe behozni egy olyan technológiát, ami alapvetően fejlesztői babusgatást igényel, nem túl jó dolog. Reklámpénzt tudna az AMD is osztani, csak ugyanott lennének, mint az NV DLSS-sel, hogy a tartalom 20%-át nem tudnák leszűrni, mert azzal a modellel, amivel ez dolgozik, nem lehet olyan jó neuronhálót tréningelni. Nem véletlen, hogy az NV az első generációs DLSS-nél játékspecifikus neuronhálóval dolgozott, mert ugyanarra az eredményre jutottak, mint a Microsoft, hogy a játékbeli tartalomhoz a legjobb specifikus neuronhálót tréningelni, csak szembetalálkoztak azzal a gonddal, hogy a fejlesztők csak a reklámpénzt akarják, nem pedig a technológia működését. Ezért váltottak át általános neuronhálóra, ahol pedig esély sincs nagyon hatékonyat tréningelni, még akkor sem, ha van rá pénz, meg akarat.
A sugárkövetésre reagálva: [link] - itt leírtam, hogy miben különbözik az AMD és az NV hardveres implementációja. TL;DR alapvetően az AMD rendszerében a bejárás programozható. Ez a konzol miatt alakult így, mert egészen el lehet ám szállni a háromszögszámmal a mesh shading miatt, viszont a fixfunkciós BVH egységnek vannak limitjei, tehát nem tud ám akármennyi háromszöget megenni hatékonyan, ilyen szempontból a mesh shading, illetve a DXR ma még egymást akadályozó tényezők, de a konzolokat majd egy évtizedre tervezik, tehát muszáj arra is felkészíteni őket, hogy a háromszögszám durván el fog szállni, és akkor már csak a programozható bejárást tarthatja működő szinten a sugárkövetést, mert azzal nincsenek fixfunkciós limitek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Robi BALBOA
őstag
A konzoloknál millió éve van DLSS szerű alacsonyabb felbontáson renderelés.
Bármelyik mostani konzol elé leülsz, aztán pl egy BF5-ben belekeveredsz valami durvába, már látni is fogod, hogy a render felbontás csökken(néha a béka s@gge alá IS), vagyis nem kell ezt az NV féle grafikai butítást előadni úgy mint valami világmegváltó valamit.
És aki nekem azzal jön, hogy a mostani DLSS már jobb(lesz) mint a natív felbontáson renderelt kép az...Eddig amiket láttam DLSS által renderelt játékokat/demókat, kb 1millió kilométerről ki lehetett szúrni, hogy nem natív felbontáson renderel a cucc.
Tuning mindenek felett! Legjobb a Legrosszabb! by Karesz:) , Én: és mivel iszod a Vodkát Karesz? Karesz: Hát,Ö?!?> Haverokkal!:) , Nem az a lényeg honnan jössz, hanem, hogy mit ISZOL!!! by-Bekő Lacika- /Abit és Fatal1ty alaplapokat Keresek!/
-
Jacek
veterán
válasz Robi BALBOA #33719 üzenetére
Ezt úgy adjál elő egyesek hogy jobb mint a natív 4k, igaz valszeg nem is ült még előtte normális méretben...
-
Peace
nagyúr
válasz Robi BALBOA #33719 üzenetére
Én nem láttam még működés közben sajnos csak a videókat és képeket róla. Nekem csak jól hangzott, hogy a kártya 1080p-ben dolgozik, de felskálázza nekem 4K-ra. Értelem szerűen, ha nem megfelelően működik és durván szembántó hibákba futok, akkor kikapcsolom és ennyi. Nekem ez mind csak sci-fi egyelőre az RT meg a DLSS...
-
nagyúr
A DLSS azért kell, mert a konzoloknál is hasonló trükkök mennek. Pistike nem tudja a miértet, csak azt olvassa, hogy konzolon jól fut az aktuális AAA játék 4K felbontásban, az Ő 700 dolláros kártyáját meg nem. Pistike nem tud róla, hogy konzolon nem natív felbontású renderelésben kapja meg a képet, ha (most már zömmel dinamikusan felskálázott) chekkerbox renderinggel, de ha nem egymás mellett látja a kettőt, a büdös életben nem is fogja észrevenni...
Ezzel nem tudsz mit kezdeni, ha a konzolon gyárilag belőnek egy megoldást, PC-n meg nem foglalkoznak hasonló trükkökkel. A DLSS egy lehetséges válasz erre, és a 4K felbontáshoz valami hasonlóra szükség van, ha versenyezni akarsz a konzolokkal. A fejlesztők kapnak egy kis pénzt, a játékos meg kap egy lehetséges választ a problémára.
Ha az AMD nem ad valami megoldást erre (akár technikai, akár marketing szintén), akkor megint lépéshátrányba kerül az nVidiával szemben...
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Abu85
HÁZIGAZDA
A konzolokon közel sincsenek ilyen trükkök. Ott maximum checkboard rendering szintű dolog van. Az újabb konzoloknál viszont ez sincs, mert sok címnél natív 4K-t céloznak.
Ezt egyébként nem lehet összehasonlítani. Például a Gears 5 azért fog 120(multi)/60(single) fps-sel 4K-ban futni Xbox Series X-en, mert más kód fut a PC-s verzióhoz képest. [link] - ennek a hírnek a végén leírtam. Ha a PC-s verzióra is áthoznák ezt a kódot, akkor az is sokkal gyorsabban futna a megfelelő hardvereken.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem. Közel sem. Az, hogy alig látod a minőségkülönbséget leginkább azért van, mert okosan van csinálva a rendszer, de messze van ez az AI felskálázástól.
És valójában különbség van. Ezért is megy a Microsoft például natív 4K-ra, mert a hardverben megvan az erő hozzá 120 vagy 60 fps-re is, így nem kell most már trükközni.
A PC-n is sokkal gyorsabb lehetne minden, ha a kódokat át lehetne menteni, de a DirectX 12 Ultimate nem olyan jó, mint az Xbox Series S/X saját API-ja.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
"Ezért is megy a Microsoft például natív 4K-ra, mert a hardverben megvan az erő hozzá 120 vagy 60 fps-re is, így nem kell most már trükközni."
Jajj, mikor is hallottunk ilyet? Oh, az Xbox One és PS4 startjakor, hogy no, most aztán natív 1080p lesz minden. Emlékszem még a Call of Duty Extinction vagy a Quantum Break féle fogadalmakra és pofára esésre (ugye 720p-ben renderelt a játék). Miközben az MS továbbra is azt halandzsázta, hogy az XBone natívban tud 1080p-t nyújtani.
Szóval majd ha itt lesznek a konzolok, majd ha független tesztek bizonyítják, hogy tényleg ott lesznek trükkök nélkül a 4K@60/120 Fps-ek, akkor elhiszem majd....
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Jack@l
veterán
4k60fps-t kb a 3080 hoz üzembiztosan, az 500 dolláros konzolban meg lesz legjobb esetben egy 5700 szintu valami.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
A Gears 5-nél beszéltek erről részletesen a fejlesztők. Direkt leírtam a linkelt hírben, hogy mit csinálnak, hogy ennyire gyorsan fut. De a Dirt 5 is 4K 120 fps-re készül, bár ott is lesz 60 fps-es mód is a sugárkövetéshez. Alapvetően ott nyernek sokat, hogy használják a mesh shadinget, illetve az SFS-t. Ez a kettő olyan extrém mértékben boostolja a feldolgozást, rengeteg felesleges munkától megkímélik a futószalagot.
Ugye a mesh shadinget átmenthetik PC-be, függően attól, hogy miképp használják, mert némelyik eljárással annyira ez nem baráti a DXR-rel, ugye konzolon programozható a bejárás, míg PC-n ezzel nem lehet számolni, tehát nem mindegy, hogy mit csinálsz a mesh shading pipeline-on, könnyen ki tudsz futni a fixfunkciós blokk képességeiből.Az SFS-re sajnos nincs semmilyen megoldás még PC-n. A jó hír, hogy előreláthatólag 2022-ben lesz egy tesztspecifikáció, ami ezeket a képességeket átmenti PC-be. Ha azzal minden rendben lesz, akkor 2023-ban jöhet olyan Windows verzió, ami már végleges formában is képes a memóriamenedzsmentet a hardverekre bízni, így lehet majd a lapokat cserélgetni allokációk helyett. Konzolos megoldás egyébként azért nem jó PC-be, mert az a GPU multiprocesszorainak címfordítójával működik, ami magába a konzolban szuper, de PC-n nem lehet elvárni, hogy például az NVIDIA x86/AMD64 licencet szerezzen, tehát kell egy alternatív technológiai irány, ami függetleníti a rendszert a host CPU-tól. Erre létezik egy nagyon jó javaslat, viszont idő kell, amíg ezt szoftveresen és hardveresen implementálják. Egyébként önmagában PC-n a finomszemcsés adatmenedzsment nem akkora követelmény. Ha tudsz pakolni a gépbe 32+ GB rendszermemóriát és 16+ GB-os VGA-t, akkor simán nem probléma a szoftveres formája a menedzsmentnek. Ami miatt gond, hogy a szoftveres formát meg kell kézzel írni, míg a konzolos forma hardveres, vagyis alapvetően egy rövidke programkód az egész, ami kijelöli, hogy honnan lehet lapokat betölteni. Emiatt éri meg ezt PC-re áthozni, mert nem mindegy, hogy a probléma kezelése pár kódsor, vagy több ezer. Persze itt mondhatod, hogy ha valaki nem akar menedzsmentet írni, akkor majd használ D3D12MA-t vagy VMA-t. Ez is egy megoldás.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
Gondoltuk hogy megint ez lesz az AMD okosan csinálja és az egész piac okosan csinálja hogy nem lép a DLS 2.0 ra semmit,hogy nem azt csinálja amit Nvidia. Az Rt is remek lesz az Ampere már most nem lesz jó ,mert csak DXR 1.1 et támogat és az igazi az amit a Ps5 tud , de azt nem fogják szegény fejlesztők átportolni Dx 12 re mert meló, míg AMD re egy az egyben át tudják emelni azt és ezért nvidia besz..ta mert szar lesz, a Navi meg jó lesz, tehát amit AMD majd áthoz Pcre még ha nem is szabványos de persze reméljük egyszer az lesz mert az sokkal jobb.Imádkozzunk Microsofthoz hogy így legyen mert huh... Nvidia bármit csinál az még nem jó, nem fejlett , még fejlődnie kell, a z a jó ahogy a konzoloban van és az a jó amit és ahogy az AMD tesz. tehát igazából mindegy miről beszélünk ez az általános hozzáállás.
Gondolom ez lehet abban a hozzászólásban amit írtál, de inkább nem olvasom el elég volt beleolvasnom.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
gainwardgs
addikt
Még nem szoktad meg
Megjönnek első radeon tesztek, lebőgés, utánna meg jön a hosszas magyarázó komment, hogy még az új radeon képességei nincsenek kihasználva, meg majd csoda driver stb. Persze vmi technológiai űrnyelven
Utána meg ugyanez 2ev múlva
Csak szokásos forgatókönyv -
Robi BALBOA
őstag
Én láttam, hát egy natív 4k után ne legyél rá kíváncsi.
Az RT még rendben van, azt megéri fejleszteni, de már úgy nem éri meg, ha bekapcsolni csak úgy tudod, hogy közben a render felbontást csökkented(hogy legyen megfelelő sebesség is).
Tuning mindenek felett! Legjobb a Legrosszabb! by Karesz:) , Én: és mivel iszod a Vodkát Karesz? Karesz: Hát,Ö?!?> Haverokkal!:) , Nem az a lényeg honnan jössz, hanem, hogy mit ISZOL!!! by-Bekő Lacika- /Abit és Fatal1ty alaplapokat Keresek!/
-
Abu85
HÁZIGAZDA
Ha nem tudnak konzisztens minőséget generálni AI felskálázással, akkor felesleges erőltetni. Konzisztens minőséget pedig akkor lehetne elérni, ha a neuronhálót a játékfejlesztő tréningelné, ők pedig nem akarnak erre költeni. Kicsit patthelyzet most ez a dolog.
Az AMD-féle Radeon Rays 4.0 programozható bejárása lényegtelen az NV számára. Nem is igazán kell erre koncentrálniuk, mert ezek a kódok mindenképpen a konzolról lesznek csak áthozva. Az NV-nek csak a szabványos DXR 1.1 kódokra kell figyelni. Az, hogy az AMD a saját hardvereire miket hoz át a konzolról abszolút lényegtelen az NV számára, azok a kódok úgy sem futnak GeForce-on.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
Abu, ahogy korábban is leírtam, szakmai rálátásodat nem kérdőjelezem meg.
De továbbra sem arról beszélgetünk, hogy vajon miért döntött úgy az nVidia, hogy olyan fogyasztási értékekre lövi be az RTX 3080-at, hogy lelépi a Radeon VII-esét, holott anno azon is hüledeztünk keményen. Az RTX 3090 meg még erre rárak egy lapáttal, és így az RTX Titan meg a GTX 1080Ti moderált fogyasztású kártyának tűnik mellette.
Mert a teljesítmény / fogyasztás táblázatokban én azt látom, hogy az RTX 3080 és a 3090 még ilyen horror fogyasztások mellett is az élen van 4K és 1440p felbontásokban, míg FHD-ban nagyjából ott vannak, ahol az első RTX széria és az RX 5700 (XT) mozgott.
Ebből ugyanis érdekes(ebb) következtetéseket lehet(ne) levonni. Mert a meglátásom szerint az nV úgy döntött, hogy kisajtol minden létező teljesítményt az architektúrából, vagyis gőzerővel azon van, hogy az AMD-nek esélyt sem akar adni, hogy az RDNA2 akár csak megközelíthesse nyers teljesítményben.
Ja, és mindezt úgy, hogy ugye anno a Turing hasonló fogyasztás/teljesítmény eredményeket mutatott fel 12nm-en gyártva, mint az RDNA1 7nm-en gyárta, pedig ugye az volt a támadási felület, hogy az AMD mennyivel jobb helyzetben van azzal, hogy a Radeon VII-el kitaposta a gyártástechnológia rögös útjait. Illetve hogy az nVidia mennyire rossz helyzetbe kormányozta magát azzal, hogy a TSMC 7nm-es gyártókapacitását lefoglalta előtte az AMD, így csak a Samsung gyatrább 8nm-e jutott nekik.
Ami elgondolkoztató, mert azért a jelek szerint annyira mégse rossz az Ampere...
Ehelyett megint ott vagyunk, hogy a Gears 5 mennyire előremutató megoldásokat vonultat fel (várta, hogy behozod, hogy szemben a Control-al, ahol ugye minden élére vágott és egyszerű geometriát követett), és mennyivel jobb helyzetben van az AMD, illetve mennyire felesleges a DLSS 2.0, hiszen úgy is natívban fog menni minden.
Az, hogy a DLSS 2.0 segedelmével a középszintű kártyatulajdonosok is tudnak (AI által felskálázott) 4K felbontásban elfogadható FPS-el játszani, ami nagy általánosságban jobb, mint a natív FHD (vagy 1440p) képminősége, az az ellenreakció, hogy de 20%-ban rondább eredményt hoz. Igaz a dinamikusan skálázott chekkerboard is artifactol adott esetben, de az félre van hajítva?
Lehet köpködni miatta, de a DLSS 2.0 egyszerűen mindenkit levett a lábáról, ha a pro és kontra érveket nézi az ember. Ott van kismillió teszt és videó, és az általános vélemény, hogy igen, nem olyan részletes, mint a natív 4K mondjuk, de nagyon közel van hozzá (Quality módban). A chekkerboard rendering esetén is előferdülnek artifactot, tehát a konzolokon sincs ingyenebéd, ott is a képminőséggel fizetik meg azt, hogy több FPS legyen adott felbontáson.
Akárhogy nézzük, az nVidia a DLSS-el és az RT(X)-el szépen megint a piac elé vágott, és uralja tovább a dVGA piacot. Ezen nincs mit csodálkozni, az nVidia szinte csak erre koncentrál, az AMD pedig ugye félredobta a dVGA piacot, hogy a CPU piacon üssön, mint a buszkerék. Ott nyeregbe is kerültek. De továbbra se látjuk, hogy mivel fog az AMD az nVidia nyakára lépni (szép is lenne, hiszen az nVidia piaci értéke jelenleg kb. 3x akkora, mint az AMD-é). Pedig rákéne, hogy legyen már verseny...
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
nagyúr
válasz Robi BALBOA #33733 üzenetére
Persze, hogy nem éri el a natív 4K minőségét, mert itt sincs ingyen ebéd, de korántsem vészes.
Én a Death Stranding-ot játszom (játszottam, amíg az asszony el nem üldözött a nappaliban lévő TV elől ) 4K-ban egy RTX 2070 Superrel, és néhány artifactot leszámítva (kerítésrácson lehet nyakon csípni pl., ahol ugye általában minden felskálázás megbotlik) nem láttam különbséget a natív 4K és a DLSS 2.0 Quality között. Csak 4K-ban az FPS néha 40 alá is beesik amúgy, míg DLSS 2.0 esetén folyamatosan tartja a 60FPS-t (VSync-el játszom mindig, ez nálam beidegződés).
Szóval 4K natív tökéletes minőségben, de beeső FPS-ekkel vagy csaknem tökéletes minőség, de konstans 60 FPS.
A lényeg, hogy van választási lehetőséged. Kinek mi a fontosabb, tud választani, adva van a lehetőség.
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Abu85
HÁZIGAZDA
Az NVIDIA-nak sokkal több adat áll rendelkezésre az RDNA2-ről, mint nekünk, hiszen nekik a middleware-jeik miatt járnak a konzolok. Egy csomó dolgot ki tudnak próbálni rajtuk, és ezzel adatot kaptak arról, hogy ha nem is tudják, hogy milyen lesz az új generációs Radeon, azért az RDNA2 képességeiről sok információt szerezhettek. Ezek alapján hozhattak olyan döntéseket az Ampere-re nézve, amelyek alapvetően teljesen logikusak lehetnek, csak mi nem értjük, mert nekünk nincs PS5 vagy XSX.
Teljesen mindegy, hogy hova mennek. Az A100 sem erős perf/wattban, hiszen 400 wattal hoz 19,5 TFLOPS-ot. Az pedig 7 nm-en van a TSMC-nél. Sokszor leírtam, hogy a probléma az első generációs fejlesztés. Az AMD azért tud például az Xbox Series X-be 130 watton belül építeni olyan IGP-t, amilyet, mert ez előtt a fejlesztés előtt két generáción keresztül gyűjtötték a tapasztalatot a 7 nm-es node-ról. Az NV mind a 7, mind pedig a 8 nm esetében a Vega 20 tapasztalati szintjén tart, vagyis először kezdtek neki, el kell telnie két generációnak, mire ezeket a node-okat elkezdik jól használni. Alapvetően a tapasztalat hiányzik, nem a gyártástechnológia rossz, vagy az Ampere.
Gears 5 felújítása arra szolgál, hogy mutasson valamit az Xbox Series X képességeiből. De ezek a képességek nagyrészt szoftverből jönnek. Direkt leírtam a hírben, hogy jelentősen át van írva, azért tud gyorsan és jobb minőségben működne. Ha minden újítás le lenne fedve a PC-n az API-val, és arra áthoznák a kódot, akkor PC-n is így futnak, csak egyelőre még vannak hiányosságok, amikre viszont szintén leírtam, hogy érkeznek a megoldások, csak ezeket nem olyan könnyű szabványos szinten tálalni, mint egyszerűen egy konzolba, egy szem hardverdizájnra bevetni. Összehasonlíthatatlanul nagy a különbség, és sajnos a szabványosítás egy lassú folyamat, hiába lennénk képesek hardvereket tervezni rá, akkor is kell az API az egyes képességekre. Ez van. Viszont ez sosem volt másképp.
Én az AI felskálázást mindig is jó ötletnek tartottam. A megvalósításokkal vannak problémák, azok sajnos igen gyérek ahhoz képest, hogy mit lehetne ebből kihozni. És ez az ipar felelőssége. A legfontosabb az lenne, hogy a fejlesztők saját maguk meglássák a technológiában az értéket, mert akkor lehet belőle valami, de amíg "szarunk az egészre, a reklámpénz a lényeg" mentalitással megy, addig nem fogunk igazán jól működő megoldásokat látni. Ezt muszáj akarniuk a fejlesztőknek, hogy igazán működjön. Ez a fő oka annak, amiért a Microsoft eleve úgy áll hozzá ehhez, hogy natívan 4K-ra terveznek a Series X-szel. Ők se bíznak még az AI felskálázásban annyira, és őszintén szólva az eddigi gyakorlati eredményeket látva azt kell mondanom, hogy érthető a döntésük. Ez még változhat később, elvégre ez az egész problémakor szoftveres, tehát a problémák megoldása is szoftveres jellegű. Sőt, igazából csak pénz kellene hozzá.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Bandit79
aktív tag
Megvan az én vga-m [a kicsi 256-bit -es]
-
félisten
Értem én ezt de a DLSS 2.0 eddig nagyon jó visszajelzéseket kapott teszteken, szinte mindenki a natívhoz megközelítő vagy ránézésre nem lényegesen roszabb teszteredményeket hozott ki, miközben az FPS szám egy vagy másfél kategóriával feljebb poziciónálta az RTx 2060 kártyát vagy 2070 kártyát például.Most az mindegy hogy 10 játékban vagy 20 ban, lehet Nv címekben, de azokban jó ha van. A gyakorlati tapasztalat pont azt mutatja hogy eza ficsőr a legéletképesebb jelenleg ezért nem értem miről beszélsz mikor azt írod hogy a gyakorlati tapasztalat mást mutat.
Az RT-t meglátjuk majd ha itt lesz és fogható, tesztelhető lesz.
Az Ampere bika GPU rengeteg tartalékkal, úgy néz minél nagyobb terhelést kap annál inkább hozza ki magából a plusz teljesítményt. RT ben sokat fog számítani ez a nyers erő ami benne van, én azt gondlom.Az azért kicsit cikinek érzem, hogy a navi , azaz az 5700 semelyik ficsőrt nem tudja, a Dx 12 U ban is hiányt szenved és nekünk kell magyarázkodni milyen szar dolgok ezek, az a jó döntés ha nem támogatjuk nem foglalkozunk vele. érdekes hogy ez mellé nem teszed árhuzamba az 5700 kártyákatamik életcilusuk szerint messze lesznek a tartósságtól a jelek szerint.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Robi BALBOA
őstag
Ebben van igazság, hogy kisebb kártyáknál(amik csak 1080/1440p-re képesek normális sebességgel) is legyen esély 4k gameingre, alkalmazzák a DLSS-t.
Viszont amikor már a csúcs karijaikat is ezzel promózzák, hát álljon meg a gyászmenet.
A fejlesztők ne (csak)tréningeltessék azt a DLSS-t, hanem írják meg úgy a gamét(kat), hogy az azért az aktuális felső/csúcs karikon natív 4k felbontáson is rendesen fusson.Tuning mindenek felett! Legjobb a Legrosszabb! by Karesz:) , Én: és mivel iszod a Vodkát Karesz? Karesz: Hát,Ö?!?> Haverokkal!:) , Nem az a lényeg honnan jössz, hanem, hogy mit ISZOL!!! by-Bekő Lacika- /Abit és Fatal1ty alaplapokat Keresek!/
-
nagyúr
Egy csomó dolgot ki tudnak próbálni rajtuk, és ezzel adatot kaptak arról, hogy ha nem is tudják, hogy milyen lesz az új generációs Radeon, azért az RDNA2 képességeiről sok információt szerezhettek.
Nem úgy van, hogy a konzolokban lévő GPU-k nem felelnek meg egyik dVGA verziónak sem? Ahogy a korábbi esetekben sem voltak a konzolokba kerülő GPU-knak asztali változatai.
Itt is olyasmit olvasni, hogy a PS5 esetében egy átmenet lesz az RDNA1 és 2 között.Az NV mind a 7, mind pedig a 8 nm esetében a Vega 20 tapasztalati szintjén tart, vagyis először kezdtek neki, el kell telnie két generációnak, mire ezeket a node-okat elkezdik jól használni.
Ez alapján az RDNA2-nek hülyére kellene vernie az Ampere-t a gyártástechnológiai előnyből fakadóan.
Sőt, igazából csak pénz kellene hozzá.
Amiből az nVidia-nak azért akad egy kevés. BTW nagyságrendileg 25-30 ismert DLSS 2.0 támogatással bíró játék van az érkezők listáján ( persze ezek egy része utólagos támogatás, pl. Hitman 2 vagy Hellblade: Senua's Sacrifice ). Nekem úgy tűnik, hogy tolják rendesen a szekerét...Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Jack@l
veterán
válasz Robi BALBOA #33741 üzenetére
Toljál le egy AAA-s játékot 4k-ban fullos raytracing-el (nem csak néhány effektel belőle, ami most megy) és rájössz mire kell a dlss. Választhatsz a 20 fps natív és 50fps kicsit csunyabb kep között. De senki nem tart a fejedhez pisztolyt, hogy használd.
[link][ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Locutus
veterán
Én biztos vagyok benne, hogy lesz olyan játék konzolon, ami tud majd natív 4K-ban 60fps-t. És akkor mondhatják, hogy tessék tudja, akármilyen kis prüntyi tetris jellegű lesz. Mint ahogy most az nvidia is csinálta a 2x performancet, hát ja, egyedül quake rtx-ben tudja, de akkor is tudja.
A konzolosok előbb utóbb bármit játszhatnak majd 4K-ban meg 120 fps-el is. Nincs más dolguk csak venni egy jó PC-t[ Szerkesztve ]
Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
nagyúr
válasz Robi BALBOA #33741 üzenetére
Viszont amikor már a csúcs karijaikat is ezzel promózzák, hát álljon meg a gyászmenet.
Igen, azzal promózzák, hogy 8K felbontásban is tudsz velük játszani. Ami eddig kb. sci-fi volt...
Hogy mikre nem vetemednek?A fejlesztők ne (csak)tréningeltessék azt a DLSS-t, hanem írják meg úgy a gamét(kat), hogy az azért az aktuális felső/csúcs karikon natív 4k felbontáson is rendesen fusson.
Jajj, ezt már annyiszor kifejtettem... Crysis (RDR2, stb.) effekt.
Attól, hogy csúcs karid van, még nincs kötelező érvényű törvényre emelve, hogy neked minden játék a létező legnagyobb részletességben, a létező legnagyobb felbontásban 240 FPS-el fusson.Anno a Crysis esetén is ment a sírás, ami mára ugye etalon lett. Csak mint minden, ez is nézőpont kérdése. A Crysis megjelenésekor kb. etalon lett a grafikai képminőség terén is, a legszebb játék volt. Még medium szinten, átlagos hardware-el is lenyűgöző volt a maga idejében. De volt még felette pár beállítási lehetőség, a fejlesztők megmutatták, hogy mire lehet képes a játékengine, ha mindent bekapcsolsz. Csak cserébe az akkori kor csúcs hardware-jei is letérdelve esdekeltek könyörületért.
Mit kellett volna csinálniuk? Kivehették volna a magasabb beállítási lehetőségeket, és kész. Csak akkor mi lett volna a Crysis? Nem egy etalon, "csak" egy szép kis lövölde.Ez pedig nem a Crysis-al kezdődött, hanem mindig megvoltak ezek a pluszok, amik a maguk idejében a hardware-t két térdre kényszerítették. Nekem a kedvenc példám a talán 2001-ben kijött Operation Flashpoint volt, amelyben akár 3km-es látótávolságot is be lehetett állítani, ami akkoriban egészen félelmetes dolgokat jelentett. Cserébe nem volt hardware, ami játszható sebességgel elbírta volna (ha jól rémlik valami 700-900m volt az, ahol 30 FPS körüli átlagot el lehetett érni). De olyan dolgokat tudott, mint például a hang terjedési sebességének szimulálása (ha 600 méterre felrobbant valami, először láttad a robbanást, majd kb. 2 másodperc múlva hallottad a dörejt).
Az ilyen dolgok előre mutatóak.
Ez persze nem azt jelenti, hogy a játékok nagy részénél nem lenne mozgástér a jobb optimalizáltságra, de ez nem úgy működik, hogy a programozó leül, 2 percig üti a billentyűzetet, majd utána egy kávédarálón is elfut a Crysis...
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Robi BALBOA
őstag
válasz Jack@l #33743 üzenetére
Bizonyos esetekben lehet értelme a DLSS-nek, csak ne állítsuk már be világ megváltó dolognak, meg úgy mintha ezzel az NV valami hatalmasat gurított volna.
Lassan már dícsérni fogjuk a régi Fx karikat is, hogy majdnem tudták hozni az akkori Ati karik sebességét, mert ügyesen! alacsonyabb minőségű shaderrel számoltak.
Tuning mindenek felett! Legjobb a Legrosszabb! by Karesz:) , Én: és mivel iszod a Vodkát Karesz? Karesz: Hát,Ö?!?> Haverokkal!:) , Nem az a lényeg honnan jössz, hanem, hogy mit ISZOL!!! by-Bekő Lacika- /Abit és Fatal1ty alaplapokat Keresek!/
-
Jack@l
veterán
válasz Robi BALBOA #33749 üzenetére
Mikor először láttam filmnél MI alapú felskálázást a mezei algoritmusok helyett, én annak gondoltam. Jóval az nv dlss előtt volt.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Parfüm topik
- Autós topik
- Kecskemét és környéke adok-veszek-beszélgetek
- Politika
- Építő/felújító topik
- Projektor topic
- Kompakt vízhűtés
- Kodi és kiegészítői magyar nyelvű online tartalmakhoz (Linux, Windows)
- Telekom mobilszolgáltatások
- Autós topik látogatók beszélgetős, offolós topikja
- További aktív témák...