-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Petykemano
veterán
azt gondolnám, hogy igen.
a 3dcenter.org vezeti az árakat: [link]
Persze csak a kurrens generációét.
A 6600/XT "csak" 60-70%-kal van MSRP ár felett, ami kevesebb, mint amennyivel a nagyobb kártyák.
Mivel a 6500XT csak 4GB-tal jön, ezért ethereum bányászására nem vagy csak valami trükközéssel lehet alkalmas, ezért azt gondolnám, hogy a bányászok támasztotta kereslettel nem, csak a kiéhezett budget gamerek keresletével kell számolni.
De persze nyilván függ a kínálattól is. Ha az AMD csak bemutatóra szánta a kártyát és valójában mobilba és OEM-be szándja, akkor ennek az ára is lehet lényegesen magasabb.Jó, elismerem a $250 valóban elég álomszerű.
Valójában a kártyák se $199-os áron jönnek majd, hanem $219-239 és akkor erre kell még rászámolni a legjobb esetben 50%-os keresleti felárat. Úgyhogy inkább $299-349 piaci ár lenne reális.Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Optimista vagyok - milyen értelemben?
Hogy azt várom, hogy a névleges árhoz képest a "semmire sem használható ipari hulladék" jellege miatt kisebb lesz a felár?Ha igen, akkor igen.
De amikor azt mondom, hogy $299-349 a reálisan várható piaci ár, akkor nem azt mondom, hogy ez reális a kártyáért, "megéri"Úgy tűnik, az általános drágulás ellenére a szintezettség a kártyák terén nem szűnt meg. Nem nyert el a entry level olyan képessékeget (feature),.amiket korábban nem csak mert drágábban el lehet adni. Ez ugyamaz a szint, mint ami régebben a belépőszint, volt. Csak már nem $79-139 árcédulával.
Mondom, én nem vagyok a feature-ök nagy szakértője, itt veszem fel mások véleménye vagy tesztealapján ítélve,.hogy egy kártya 4GB-tal, 8x pcie csatlakozással, hardveres enkóder vagy dekóder nélkül, stb elfogadható-e, vagy milyen kedvezményt kéne ezeknek jelentenie.
És itt citálnám vissza a korábbi mondandómat a médiáról. Attól kellene majd zengnie, hogy ez milyen alávaló megoldás, s persze piaci helyzet meg hiény, de "ilyen hiányosságok mellett ennyiért inkább ne vedd meg". Ehelyett majd biztos azzal lesz tele, hogy $300-ért végre egy olcsó kártya, Isten áldja a cégvezérasszonyt.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
köszi a felvilágosítást.
Szerintem régebben erre se hoztak létre külön sku-t, dobozt, driverbejegyzést, stb, hanem megvették a 18gbps ramot és downclockolták 16gpbs-re. Mintha a polarisnál lett volna ilyen, de lehet, hogy nem a sebességgel, hanem a kapacitással játszottak.Találgatunk, aztán majd úgyis kiderül..
-
Alogonomus
őstag
Én humbugoltam, amikor a "vagyis a komolyabb RDNA2 kártyák az Infinity Cache ellenére is memóriaéhségtől szenvednek" állításomat egyebek mellett egy 6600 XT kártya eredményével próbáltad volna megcáfolni? Tisztában vagy a komolyabb szó jelentésével?
Valamint a kedvenc Igor-od tesztjében is szereped a 6800 XT esetén, hogy 10-20% plusz teljesítmény volt elérhető játéktól függően a 6800 XT, vagyis egy komolyabb RDNA2 kártya tuningolásával.
Ráadásul az általam preferált HU is egy szimpla automatikára bízott tuninggal 9-12 % gyorsulást ért el a 6800 XT - komolyabb - kártyák esetén.Érthető okokból bagatelizálni "A memória Pár százalék, ha egyáltalán,( tippre 2% )a 16-18 Gbps upgrade" szeretnéd a gyorsabb memóriák hatását.
-
Alogonomus
őstag
Ha a GPU frekvenciáját feltekeri 2700-2800 közé, ami 20-24% gyorsítás, valamint a memória frekvenciáját is feltekeri 2000-ről 2150-re, ami 7,5% gyorsítás, és ezzel a teljes kártya nagyjából 10%-ot gyorsult, akkor szerinted melyik elem jelenti a korlátot?
Szerintem a memória, ami az OC hatására 7,5%-kal tud többet teljesíteni, míg a GPU az Infinity Cache segítségével hozzá tudott még tenni a végső eredményhez nagyjából 3 %-ot, mert amit az Infinity Cache ki tudott szolgálni a GPU-n belül, az a munkafázis 20 %-ot gyorsult.
Vagyis a memória gyorsításának a 100 %-a hasznosult, a GPU gyorsításának pedig jó esetben az 50 %-a. A GPU valószínűleg bőven kihasznált volna egy 18 Gbps sebességű memóriát is, és még úgy is a memória lett volna a szűk keresztmetszet. -
Abu85
HÁZIGAZDA
Azért nincs hír róla nálunk, mert megkérdeztem az AMD-t, és ők ezt a linket adták nekem: [link] - láthatod, hogy működik. Az, hogy a Kitgurunak nem működik... ne haragudj, de ez nem hír. Mindenki más rá tud kattintani, el tudja olvasni. Nekem biztosan bejön az a link, amit az AMD adott.
Az AMD azt mondta, hogy mindkét processzor az elérhető legjobb hatékonyságkarakterisztikával lett működtetve. Ez pedig igaz, mert az 5800U esetében 15 watt jelenti a hatékonysági maximumot, míg a 6800U-nál a 28 watt. Ez külön jelezve is van a PDF-ben.
Ez az eltérés azért van a két lapka között, mert az 5800U-t 25 wattig tudtad elskálázni, de valójában nem skálázódott, mert hiába állítottad be a 25 wattot, csak a lapka hatékonysági karakterisztikáját rontottad, az órajel nem nőtt tőle. Egyszerűen a CPU-rész és az IGP már 15 wattot is bele tudott ütközni az órajellimitekbe, és tette ezt elég sokszor. A +10 wattal nem tudott mit kezdeni, alig tudott nagyobb órajeleket beállítani, sokszor erre képtelen is volt. Ezért van az, hogy a Cezanne-U-t sosem működtették a gyártók 15 watton túl, mert az teljesítményelőnyt nem adott, csak az üzemidőt rontotta. Például a Barcelo esetében, ami egy új Cezanne stepping már nincs is konfigurálható TDP, mert semmi haszna, ha nem változik tőle a teljesítmény, és a Cezanne dizájn olyan, hogy az nem tud értelmesen skálázódni kis fogyasztási tartományon. Legalább +30 wattot kell adni neki, hogy érezhető előnyt szedj ki a dizájnból, de az már 45 watt, és nem fér bele az ultramobil cuccokba.Az egész azért szomorú, mert erről egy csomó infót adott az AMD, hogy a Rembrandt egy sokkal jobban skálázódó dizájn, így a 15 watt és a 28 watt között érezhető teljesítménykülönbség van, ellentétben az előddel, ahol ez lényegében teljesen hiányzott. És a Rembrandt hatékonysági maximumát 28 watton éri el, emiatt vissza is hozták tartományokat. Érdemes lenne jobban odafigyelni ezeken a briefingeken.
Mindezek mellett van egy slide, ahol külön jelezve van, hogy 15 watton méri össze az előrelépést. [kép]
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ezek konferenciák, mindenki hallja a kérdésre a választ.
Az általam linkelt dia az egy külön mérés, amiben az AMD összehasonlítja a két dizájnt 15 watton is.
Többféle mérés van a pdf-ből. Egy 15 wattos összesítéssel, egy 28 wattos összesítéssel, és pár hatékonyságmaximumon (ez a 15 vs. 28 watt). Mindenki válogathatott kedvére.
A performance mód az ASUS saját profilja. Ez nem egyezik meg az AMD saját módjával, mert a CPU felé tolja el a fogyasztási határokat. Ezáltal az IGP nem igazán működik jobban a +9 watt ellenére sem, ezért van az, hogy GPU-limites beállításokkal csak hibahatáron belüli a játékokban a szerzett sebesség. Az AMD saját módja azért nem működik, mert náluk az IGP-re megy az extra fogyasztás nagy része. Viszont a Vega annyira régi dizájn, hogy hiába adsz neki +8 wattot, amennyit ad az AMD-féle 25 wattos cTDP, az mindössze 3%-os előnyt jelent a gyakorlatban, ami alig van a hibahatár felett. A CPU az extra 10 wattból 2-t kap meg, ami kevés ahhoz, hogy bármi lényegi gyorsulást jelentsen. Amiért az AMD nem a CPU-ra rakja a wattok zömét az a Zen 3 sajátossága, a turbó kitartása tekintetében. A növekvő fogyasztás miatt a hőtrékép elérhet egy olyan problémás szintet, amit a hardver egy fallback órajellel kezel. Ez nagyjából tíz percnyi turbó után jön elő, és utána némi ideig a hardver beállíthat magának alapórajel alatti órajelet, akár 1 GHz-et is. Ezzel visszahűl, majd újrakezdődhet a ciklus. Az ASUS beállításai ezt csinálják, és amiért ez nem szúr szemet, hogy senki sem tesztel tíz percnél tovább, tehát az utána előjövő limitek nem láthatók, viszont ha 15 perces teljesítményt nézel, akkor bizony a 24 wattos performance mód lassabb, mint az alap 15 wattos mód, mert 5 perc után már 1 GHz-re is visszavághatja az órajelet. Emiatt nem alkalmazza ezt a megoldást az AMD, és csupán 2 wattot adnak a CPU-nak a saját 25 wattos cTDP-jükkel, mert úgy nem ütköznek bele a hőtérképnél megszabott limitekbe. Csak ilyen formában meg mérhetetlenül kicsit gyorsulnak. A Rembrandt ez specifikusan kezeli, és itt már valóban komoly előnye van a 28 wattos cTDP-nek a 15 wattos alappal szemben.
Az más kérdés, hogy a notebookgyártóknak alapvetően van némi szabadságuk a működési mód megválasztásnál, és ha egy gyártó úgy dönt, hogy 10 percnyi királyságért megéri beáldozni a 15 perces átlagteljesítményt, akkor megtehetik, de ilyenkor kötelező a default módként egy AMD által specifikált profilt megadni, mert ugye az gyorsabb hosszabb távon, hiába kap a másik mód +9 wattot.
Pont ugyanez történik egyébként a ClockTuner for Ryzen esetben (plusz még a leggyorsabb mag hazugságának feloldása), ami egy third party segédprogram, és azt állítja a fejlesztője, hogy gyorsabban működteti a Ryzeneket, mint az AMD saját profilja. Csak nem teszi hozzá, hogy ezt milyen tartományban érti, mert a Ryzennél ez a kulcskérdés. Az AMD a saját beállításait úgy alakította ki, hogy a boost hosszabb távon életben tartható legyen. Ennek az oka az, hogy a legtöbb játékos nem úgy játszik a játékot, hogy három percet játszik, ment, kilép, belép, újra játszik három percet... Sehol sem látsz ilyet. Emiatt nem az az optimális, ha mindenben ellövöd a rendszer tartalékait, mert CineBenchben talán több pontot kapsz, talán nagyobb lesz a beállított órajel is, de huzamosabb terhelés mellett ennek megvan az ára, tíz perccel később már kisebb lesz emiatt a teljesítmény. Az AMD saját dizájnja arra dolgozik, hogy a teljesítmény a lehető legjobb mértékben megőrizhető legyen, aminek az ára, hogy az első pár percben lesz kisebb a teljesítmény, de ha belegondolsz, akkor azt úgyis elvesztenéd pár perccel később. A ClockTuner for Ryzen ezt megfordítja, és pont bevezeti azt, hogy az első percekben adja ki magát a proci, majd utána belassul.
Ha csak tesztekben akarsz villogni, akkor az a jó, ha pár percig gyors, és fasza leszel, de valós felhasználásban sokkal hasznosabb, amit az AMD profiloz le. Erre szokták azt mondani, amikor valaki mondja, hogy a ClockTuner for Ryzennel nőtt a teljesítményük, hogy "10 perc múlva is igaz ez?" Pontosan tudják, hogy nem az, sőt, 10 perc múlva elképzelhető, hogy lassulni fog a processzor a megszokott tempóhoz viszonyítva, de persze a benchmark idejére odarakta magát, és hát a pontszám a lényeg ugye.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Én nem tudom, hogy ők honnan veszik ezt, de a PDF iszonyat világos, abban minden bele van írva. Még, ha félre is értették azt, amit az AMD mondott, a PDF-ben világosan le van írva a jegyzeteknél, hogy amit néztek, az 15 vs. 28 watt. Az, hogy innen sem értik meg... ezzel tényleg nehéz mit tenni. És kiemelem, hogy a PDF nem egy olyan dolog, amihez később jutnak hozzá, hanem azonnal odaadja az AMD, még a briefing előtt. Csak meg kell keresni bennem az RMB-13-17-as jegyzeteket, ahhoz voltak csillagozva a szóban forgó oldalak. Ez azonnal ellenőrizhető, bárki-bármit ért félre a szóban elhangzottakból. Én például minden gyártónál a jegyzeteknél kezdem, hogy tudjam mik vannak a diákon.
Az AMD 25 wattot úgy ad gyárilag, hogy 2 wattot adnak belőle a CPU-nak és 8-at az IGP-nek. Az notebookgyártók ezt módosíthatják addig, amíg default egy AMD gyári módot kínálnak, legyen az 15 vagy 25 watt. Nyilván mindenki a 15 wattos defaultot választja, mert a 25 watt az AMD elosztásával alig gyorsabb, viszont +10 watt az sok. Viszont az AMD módjai tartósan adnak teljesítményt, míg a notebookgyártók módjai löketekben, és a löketek leszálló ága a teljesítmény romlását eredményezi.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Alogonomus
őstag
H.U. is kicsit ráment mostanában a kattintásszám növelésére.
Ma reggeli videójában MLiD Tom kicsit oda is szólt a 6500 XT tesztek kapcsán, hogy direkt HD textúrával és friss(ebb) játékokkal tesztelve nyilván garantáltak a nagyon rossz eredmények, és lehet szörnyülködni a grafikonokon, a dráma pedig hozza a kattintásokat. -
Yutani
nagyúr
190-200k most a HA-n a 3050, a 6600 is akörül van. Hiába erősebb a 6600, ha valakinek az RTX és a DLSS fontos, akkor az NV-t választja.
A 3060 vs 6600XT esetén az NV kártya jellemzően drágább itt a HA-n. Ott megint csak az RTX és a DLSS a döntő, hiába gyengébb raszterben a 3060.
#tarcsad
-
Alogonomus
őstag
A "sima" 6600 a 215k, a legolcsóbb 6600 XT itthon látszólag 245k, míg a legolcsóbb 3060 a nálad is szereplő 240k.
Newegg-en a legolcsóbb 6600 XT $620, a legolcsóbb 3060 pedig használtan is $760, újként pedig $830. Mindfactory-n a legolcsóbb 6600 XT €600, a legolcsóbb 3060 pedig €680. A nyugati piacok árai alapján a 3060 ára itthon a helyén van, a 6600 XT ára viszont még komolyat csökkenni fog, ha a kereskedők is úgy akarják. Mindeközben a 6600 XT még teljesítményben is a 3060 előtt van. -
Abu85
HÁZIGAZDA
A TSR nagyon sokban különbözik az FSR-től. Egyáltalán nem az AMD fejlesztése. Az Epic saját maga csinálta meg, lényegében egyedül.
A PC-s kód nem a konzolos kódot használja. Azért nem tudja azt használni, mert a konzolon nem a DirectX 12-n keresztül fut az UE5, hanem az Xboxnak a mono hozzáférésén, ugyanis a szabványos DirectX 12-n egy csomó dolog nem érhető el az Xbox Series S/X gépeken. Ugyanígy a PS5-nél is van egy saját API, saját kódokkal. A PS5-ön az UE5 azért megy jobban, mert ott egy kész API-ja van a Sony-nak a programozható bejárásra, erre az Xbox Series X még nem készült fel, de később majd ez is meg lesz oldva. Jelenleg a Microsoft egy kísérleti módot kínál programozható bejárásra az AMD-féle Radeon Rays 4.0-n keresztül, amivel tudnak a fejlesztők kísérletezni, de nem ez lesz a szabványos felület. Ez tényleg csak arra van, hogy próbálgassák a fejlesztők a lehetőségeket.
Ebből igazából talán idén lesz valami, de nem biztos. Annyit viszont most tudni, hogy az UE5-nek a jelenlegi DXR specifikációk nem jók, nem illenek a Nanite-hoz. Kell egy olyan, aminél programozható a bejárás, amin nyilván dolgozik a Microsoft, és valószínűleg az Xbox-ra idén azért kiadják, PC-re pedig ha szerencsénk van idén, ha nincs szerencsénk, akkor majd valamikor jövőre.
Maga a traversal shader, és ezzel együtt jó eséllyel a Microsoft sem követeli majd meg azt, hogy ne rakj a hardverbe dedikált egységet a bejárásra. Csupán annyi fog történni, hogy ezt a szilíciumterületet nem tudja majd használni, mert programozhatóvá válik a futószalaglépcső. Ettől még be lehet építve a hardverbe, de traversal shaderre írt kód mellett csak dísz lesz.
A másik tényező az, hogy az UE5-ben a Lument simán meg lehetne írni DXR-re. A gond az, hogy jelenleg DXR specifikációk esetében nem lenne gyorsabb annál a szoftveres, shadereken futó sugárkövetésnél, amire most meg van írva. És itt jön elő az, hogy a programozhatóság időnként sokkal többet ér, mint a nyers erő. Konkrétan teljesítményt nyersz vele, de ez csak abból ered, hogy az UE5 geometriai terhelése egészen extrém, amire a jelenlegi DXR specifikációk egyszerűen nincsenek rászabva.Megosztottam a Lazy Build of Acceleration Structures with Traversal Shaders előadást. [link] - Ez konkrétan erről a problémáról beszél, és fel is vázolja, hogy mi rá a megoldás: egy új, általánosabban tervezett futószalag, ami több programozhatóságot tesz lehetővé.
Valójában sokkal több változás kell majd a DXR-be, hogy működőképes legyen. A DXR 1.0 egy nulladik generációs kezdés volt, aminek megvoltak a maga súlyos problémái, így a Microsoft hozta a ray query-t a DXR 1.1-ben. Ez a DXR 1.0 problémáit megoldotta, de annak az árán, hogy új problémákat generált. Szóval annyi történt, hogy a jobb kezünk helyet most a balba harapunk nagyokat. Ezeket is megoldják majd, csak újabb specifikációra van szükség, nyilván ezen a Microsoft már dolgozik. Talán lemásolják a Sony koncepcióját, ami bitang jól működik. A hardverük az Xboxban megvan hozzá, és arra építve lehet készíteni egy PC-s DXR frissítést, amit majd a gyártók le tudnak követni a hardvereikkel. Sajnos a nulladik generációs lavírozások ilyenek. Nem biztos, hogy elsőre vagy másodjára bejön a specifikáció. Ezen lehetne szomorkodni, de ezek cégek. Probléma van, megoldást kínálnak rá, a user pedig majd veszi hozzá a kompatibilis hardvert.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Alogonomus
őstag
Természetesen a felskálázás csak akkor nem csökkenti a végeredmény értékét, ha a DLSS volt az elkövető?
A Metro, Control, ilyesmik a közelmúltat jelöli, ahonnan indult az RT, és ami - hogy a szavaiddal élve válaszoljak - egy Nvidia kollaboráció eredménye és elsősorban az RTX GPU jához készült. Az UE5 a közeljövőt mutatja, amerre az RT valószínűleg folytatni fogja az útját. Biztosan sokat kell még rajta csiszolni, de egyértelműen szakított az Nvidia-féle dedikált RT core követelményekkel. -
Abu85
HÁZIGAZDA
Az Epic Games alapvetően Threadrippert és Radeont tartalmazó PC-ken fejleszt. Ez azóta van így, amióta az AMD elkészítette az RGP-t, és súlyos, 10%-os általános lassulást okozó hibát tárt fel az UE4-ben, amit más profilozó korábban nem vett észre. Mivel ez jelentős probléma volt, így áttértek Intel+NV-ről full AMD-re, hogy ezeket a jövőben észrevegyék. És ezzel semmi gond nincs.
Viszont a fentiek nem jelentik azt, hogy az NV nem kap optimalizálást. A Radeon arra kell, hogy a hibákat felfedezzék, utána könnyen lehet optimalizálni a GeForce-okra, mert az Epicnek vannak ilyen gépei is, csak nem ezeken írják meg a motort, ugyanakkor utólag leoptimalizálják rá, és le is optimalizálták már az UE5 Early Access esetében is. Az NV is írt ugyanazon a napon egy blogot az UE5-ről: [link]
Amit teljesítményt most látunk a motorban, az lényegében az, amit látni fogunk általánosan, mert az NV és az AMD is hozzáfért a kódhoz, már hozzáfértek 2020-ban is, és specifikusan a hardvereikre tudták optimalizálni a javaslataikkal, amiket nyilván az Epic beépített, nincs okuk arra, hogy a gyorsabb kódot visszautasítsák.
Ha lenne ilyen, akkor minden játékhoz külön VGA-t kellene vásárolnod. Nem véletlenül vannak olyan API-k PC-n, amilyenek. Persze lassabban fejlődnek, mert sok hardvert fednek le, de akinek gyorsabb fejlődés kell, vehet egy konzolt.
#57146 morgyi : Akkor még lassabban fejlődne. A DirectX-et a Microsoft tartja olyan szinten, ahol van, és látható, hogy a Vulkan sokszor lemaradva hozza be az újításokat.
#57147 Alogonomus : Az UE5 használni tudja a dedikált RT célhardvereket a lapkákban, csak abban a formában nem jó neki, ahogy most elérhetők. De egy későbbi formában rendkívül hasznos lesz számára. Ehhez nem kell a hardverek jó részétől búcsút inteni, mert sok RT-vel kapcsolatos problémára hasznosabb a fixfunkciós egység, viszont a bejárás pont olyan lépcső, ahol a programozhatóság hiány inkább hátrány. Ez van. Nyilván nem véletlen, hogy a Microsoft már most a traversal shaderről ír a DXR specifikációs felületén. Ők is látják ezt a problémát.
#57148 b. : A Microsoft tudja mit akar, csak akarni valamit a legkönnyebb. Megvalósítani azt már nehéz. És nyilván a Microsoftnál az is ott van, hogy a következő DXR-t most már nem ártana olyanra tervezni, ami a különféle előnyök mellé nem ad egy rakás limitet, mint a DXR 1.0 és 1.1.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Már rég van optimalizálás rá. Akkor volt, amikor az Early Access megjelent. Az AMD és az NV figyelt erre, még drivert is adtak ki hozzá.
Ott a Gears 5, az eléggé az a szint, és az Unreal Engine 4, igaz a Microsoft eléggé átírta.
Az Unreal Engine 5-ben most is van teljes értékű DXR támogatás, csak a jelenleg módszer nem működik jól a Nanite-tal, így ez a két rendszer sok szempontból kizárja egymást. Ha tehát a Nanite működik, akkor a DXR nagyon korlátozottan használható csak.
#57153 gejala : Aki akar. Azért jönnek az új tápcsatik, hogy lehetőség legyen ezekre a 450-600 wattos VGA-kra.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Nem szeretnéd te azt, mert akkor nem DX lenne, hanem a domináns gyártó szabványa... volt már ilyen a 3dfx időkben, a glide... én nem kívánom azt vissza.
Legyen "közös szabványos" csak minden, az a jó a piacnak, és akkor minden gyártó majd leköveti.
Max lehetne opensource, és akkor minden gyártó beleszólhatna mi lesz végül.[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
Petykemano
veterán
Állítólag a 18gbps miatt ez a refresh nem is nekünk készül, hanem a bányászoknak.
Mindenesetre az sajnálatos, hogy a navi22 és navi23 sem újul meg N6-on, miközben A navi21 nyilván kivonódik a forgalomból a navi33 miatt. Vagy lehetne egy navi34.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Szerintem nem nőnek égig a fák.
Az elmúlt 1-1.5 évben ha valaki nem kifejezetten és csakis ipari célú bányászatra vett egy kártyát, hanem egy gamer, szerintem az is annak biztos és megnyugtató tudatában fizette ki a 2-3x felárat, hogy az a kártya majd napi $2-4 (havi $50-100, évi $500-1000) profitot fog termelni, vagyis egy év alatt elég biztosan ledolgozza a felárat, 2 év alatt ingyen volt.Ha a bányászatból való vastag profitabilitás megszűnik (kriptovaluta áresés, ETH2.0, PoW bányászat, ad absurdum PoW alapú kriptovaluták betiltása, stb) , szerintem jelentősen megcsappan majd azok száma, akik eddig hajlandóak voltak kifizetni az emelkedő árakat.
Ez persze nem azt jelenti, hogy ne lenne majd $2000-os kártya, mert mindig lesz pártízezer vásárló, akiknek a pénz nem számít, vagy másként termel a jó gpu.
És azt se, hogy minden visszaáll a "régibe"Találgatunk, aztán majd úgyis kiderül..
-
Alogonomus
őstag
Anno a Navi 21 november közepén jött ki, a Navi 23 viszont csak 9 hónappal később, hiszen arra a szintre már ott volt az 5700 XT.
A 6950 XT állítólag már áprilisban kijön, a Navi 31 pedig valószínűleg november közepe felé érkezhet, viszont a Navi 33 várhatóan megint csak a generáció vége felé érkezhet, hiszen ott van még előtte a Navi 32 is, ami új teljesítményszintet hoz. Így a 6950 XT még egy bő évig lehet majd a legerősebb Navi 2x kártya, és lefedheti a Navi 33 teljesítményszintjét, csak még nagyobb fogyasztásból. Majd a Navi 31 és 32-es modellek piacra dobása és a haszon bezsebelése után elég lesz ráfordulniuk a Navi 21 csúcsmodelljének takarékosabbra váltására. -
Abu85
HÁZIGAZDA
Talán. Akármikor hozható, mert ez fullon kész hardver. Ugyanígy az új GeForce is hozható akármikor. Az jött is volna már, ha a tesztelés nem tár fel problémát, így azt ki kell javítani kiadás előtt. Nyilván az egyetlen akadály a tesztelés, amit el kell végezni, de amúgy ezek könnyen piacra dobható hardverek.
Stratégiai jelentőségük egyébként lehet. Az új csúcs hozzászoktathatja a felhasználókat a nagyobb fogyasztási szintekhez. A mostani 300-350 wattról túl nagy ugrás lenne a 450-600 watt. Szóval jön egy köztes állapot, hogy végül a next-gen étvágyának extrémmé válása tűnjön. Ha így nézed, akkor van értelme a fingreszelésnek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Elég, ha a Microsoftot kérdezik. Ők már régóta mondják, hogy a root signature nem arra való, hogy erőforráspuffert rakjanak bele. Erre a leíróhalmazok vannak a DirectX 12-ben. Eleinte oké, hogy ebbe belefutnak, de lassan minden évben többször elmondja ezt a Microsoft, így 2022-ben már kínos.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Alogonomus
őstag
Hol is olvastad, hogy egyedül az MSI "tudott" szállítani nekik 3090 és 3080 Ti kártyákat?
Egyébként elég lenne csak felmenned a webshopba, és látnád, hogy nem csak MSI kártyákat árulnak 3090 és 3080 Ti verziókból.Szerk: Látom a válaszom hatására legalább kiegészítetted a hozzászólásodat a többi gyártó megemlítésével és a "múlt héten" magyarázkodással.
[ Szerkesztve ]
-
Alogonomus
őstag
Azért számít, mert a DLSS elterjedését leginkább az akadályozta, hogy az adott játék teljes játékteréről és az opcionális felszerelésekről is el kell készíteni a neuronhálót, ami:
- egyik oldalról a driver méretét is nagyon megemeli (Adrenalin 22.2.3 466 MB, míg Game Ready 511.79 786 MB), pedig csak a játékok töredékére készült el a neuronháló,
- másik oldalról eleve csak a megjelenő játékok kis hányadára lehet elkészíteni a neuronhálót, mert egy játék hosszú időre lefoglalja az Nvidia egyik céleszközét,
- harmadrészt pedig az Nvidia a jelentős számítási igény miatt állítólag szép összeget is kér a neuronháló elkészítéséért, vagyis a nagy kiadók csúcscímein kívül nem sok játék költségvetésébe fér bele a neuronháló legeneráltatásának a költsége.Az FSR ezzel szemben simán a kiadó programozói által beemelhető akármelyik játékba, mert nem igényel sem speciális hardverelemet a kártyában, sem külön driver-oldali támogatást a kártyagyártó részéről.
-
Televan74
nagyúr
Ott van a linkelt cikk végén!
AMD Radeon Super Resolution on March 17th
Furthermore, AMD confirms it will finally launch RSR on March 17th, this is the official date for the new driver to launch. The RSR is basically FSR but working on a driver-level for all games. There are two things to consider though, it only works on Radeon RX 5000+ GPUs, and it will offer lower quality than FSR because the algorithm upscales the whole frame (including user interface and menus).Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
gejala
őstag
Itt az elterjedés lesz a kérdés. Még mindig nincs túl sok játékban FSR, ha meg kivesszük azokat, amiben nincs DLSS, csak FSR, akkor pláne kevés.
Merthogy előbb-utóbb mindenki lecseréli a kártyáját, ha PC-n akar játszani és a statisztika szerint 80% GeForce-t vesz. Tehát a nagy többségnél menni fog a DLSS, csak azok a játékok érdekesek, amiben nem lesz. -
Alogonomus
őstag
Speciel te nem értetted meg a cikk több megállapítását.
A DLSS 2.3 szintjét biztosítja egy 3 nap és egy hónap közötti szoftveres munka eredményeként. Ráadásul még ősrégi grafikus motort használó játékokhoz is igazodik. A DLSS ezzel szemben egy hosszú/drága és Nvidia szerverfarmokat igénylő feltanítási fázis után áll rendelkezésre.
A másik figyelmetlenséged pedig, hogy az FSR 1.0-val szemben az FSR 2.0 azért komolyabb kártyát igényel, így a GTX 1060-on már 1080p esetén sem ígérnek optimális működést.
Persze a 720p még ott lehet majd a GTX 1060 kártyákhoz.A DLSS 2018-as kezdeti szárnypróbálgatásai csak kényszer szülte opciók voltak, hogy legalább valamire használhassák a Turing kártyák RT magjait. Nem is készült belőle a 2 játékcímnél többhöz megvalósítás. Az FSR 1.0 a DLSS 2.0 ellenfele volt, és a könnyű integrálhatósága mellett is minimális mértékben volt csak gyengébb az Nvidia technológiájánál. Az FSR 2.0 pedig továbbra is könnyen integrálható technológiaként már valószínűleg minimum felért a DLSS 2.3 szintjére.
-
Alogonomus
őstag
Pont úgy értelmezem, ahogy írtam is fentebb.
A temporális adatokat magától nem biztosító játékmotorok esetén az FSR 2.0 rendelkezhet eszközökkel a temporális adatokat saját maga számára előállítani. Ez persze jelentősen megbonyolítja az FSR 2.0 implementálását, ezért nem a 3 napos véglethez lesz közel az időszükséglet, hanem heteket, vagy esetleg hónapokat is igényel majd. -
Abu85
HÁZIGAZDA
Az Unreal Engine-nél is implementálni kell, illetve eleve implementálva van. De ugye ott az a gond, hogy az Unreal Engine 4 alkalmaz olyan pipeline-okat, amik nem kompatibilisek vele, így amikor a TAAU-t vagy DLSS-t kérsz, akkor a motor automatikusan letiltja a nem kompatibilis effekteket, mint például a DoF. Ahhoz, hogy ezek működjenek, a nem kompatibilis pipeline-okat ki kell cserélned, mert a TAAU és a DLSS ezt nem teszi meg helyetted. Ez ugyanúgy igaz lesz az FSR 2.0-ra és XeSS-re is. Egyedül az FSR 1.0, ami minden UE4 pipeline-nal kompatibilis.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
huskydog17
addikt
Unity-nél nem kell beépülő, mert natívan támogatja a DLSS-t.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Abu85
HÁZIGAZDA
Unity-hez már van DLSS és FSR is. De a DLSS-nek ott is van pár limitje, amit csak a készülő motorverzió üt ki. Nyilván ezek a limitek az FSR 2-re is vonatkoznak, meg az XeSS-re is. De ezek az év későbbi részében már nem számítanak, mert reagálnak rá.
A néhai Frostbite Team az ma már Embark Studios, ha érted mire gondolok. Nagy volt a lelépési hullám.
Nem tudom, hogy a Frostbite-tal mi lesz. Abban sem vagyok biztos, hogy az EA nem dönti be a picsába a motort. Akkora lekváros bukta volt az új Battlefield, hogy a lekvár is odaégett.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
Azzal magyarázzál az elvi teljesítmény dacára a midrange kialakítást, hogy az UE5 a 6900XT típusú kártyákat beküldi a közepes teljesítménykategóriába. Vagyis nem fog menni 4K@60 ultra, csak 1440p. Annak meg nem kell 8GB-nál több.
Nem tudom, hogy ez így ebben a formában igaz lesz-e.
Abból a szempontból valóban kétséges, hogy ha a navi31 a legkisebb és az alatt lefelé csúsztatot RDNA2-vel kívánják kiszolgálni az igényeket, akkor az első ilyen a 12GB-os navi22.
És hát minél lejjebb megyünk, annál olcsóbb a.termék, annál kevésbé fér bele, hogy nem használt részeket gyártsanak le. Tehát a navi22-ből praktikus lenne navi34-et készíteni.Találgatunk, aztán majd úgyis kiderül..
-
Televan74
nagyúr
Tippre a két legkisebb lesz 8GB -os. A 7700 12GB, 7800 -as modellek 16GB, a 7900 24GB, és a 7970XT 32GB de annak meg lesz az ára. Nem tudom hogy jön ki a memóriabuszra a matek. Nem számoltam utána.
Szerintem a többinek is meg lesz az ára. 7600 -as kártyánál 200.000 Ft fölött számítok.
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
Devid_81
nagyúr
Egyre tobb es egyre gyanusabb nekem ez a sok leak.
Sztem leakereken keresztul a konkurencia megvezetese zajlik, amin mi userek jokat ragodunk es agyalunk, hogy akkor most mi merre hogy lesz itt a next gen?!Lesz itt meglepi mindket oldalon, ha masnem az arak lesznek olyanok amitol s3ggre ulunk
...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.