- Hálózati / IP kamera
- Milyen routert?
- Már nem hisz a nagy európai EV-forradalomban a Ford
- Bocsánatot kért az Apple, mert nagyon mellélőtt a legutóbbi reklámjával
- Mobilinternet
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Linux - haladóknak
- Visszavonta az Intel és a Qualcomm Huawei-hez kiadott exportlicencét az USA
- Kodi és kiegészítői magyar nyelvű online tartalmakhoz (Linux, Windows)
- ArchiCAD és Artlantis topik
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Durva lenne, ha megtenné, mivel az új driver célja az, hogy a hardverek ne tudják beállítani a 2025 MHz-et, akkor sem, ha elméletben lehetséges lenne. Ez a profil tuningra is működik.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Csavez™ #5241 üzenetére
Nincs levédve az ID-je a kártyádnak. Amelyik problémás modell, arra más boost tulajdonságok vonatkoznak. Ettől nem fagynak le. [link]
(#5246) boogie84: A legújabb driverrel nem hibás. Némelyik modell az első driverrel instabil, de ezt megoldották úgy, hogy a problémás modellek ID-jét begyűjtötték, és visszafogják a Boostot. Némileg ennek lehet hatása a nem problémás modellekre is, de megéri beavatkozni, mert mindössze 1-2%-ot veszítesz a teljesítményből, miközben a teljes szériát stabillá teszed. Ez nem igazán hiba, hanem túl gyorsan kellet kiadni a termékeket, és nem tesztelték őket eléggé a startra tervezett specifikációval. Az újabb driverrel olyan Boost specifikációt szabtak meg, amivel elég stabilnak tűnnek. Lehet persze, hogy nem teljesen, ezt majd letesztelik a következő hetekben, és ha módosítani kell, akkor megint módosítanak, de ez már nem okoz majd észrevehető lassulást, maximum kimérhetőt. Ezeket az -1-2%-okat visszahozzák majd a fordító fejlődésével.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Csavez™ #5248 üzenetére
2025 MHz tilosba rakott határ. A 2010-et elviselik ezek a dizájnok is. Ettől maga a Boost algoritmus visszafogottabb lett a teljes szériára, de időnként be tudja állítani a rendszer a korábban problémás VGA-kra is a 2010 MHz-et.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz AsakuraDave #5250 üzenetére
A problémás modellek esetében nem, mert ezeknél eleve az volt a probléma, hogy a gyárilag kapott órajelekkel sem voltak stabilak. Ezt hiába húzod, úgy is instabil lenne. Az új driverrel stabilak lettek, de ettől maga az instabilitást okozó határ megmaradt, tehát nem jó, ha kikényszeríted ezt a manuális OC-vel, mert ugyanúgy megnyekken.
A Boost változása természetesen szintén hatással van a nem problémás modelleken a manuális OC-re, de ezeknél elérhető a 2025 MHz-es órajel is, vagy fölé is lehet menni, de alapvetően a Boost algoritmus dönt, hogy mennyi ideig tartja meg az órajelet, és az új profil valamivel visszafogottabb, tehát igyekszik nem sokáig tartani a magas órajelszinteket. Inkább jellemző rá, hogy ugrálgat az órajelek között. Ez valamivel stabilabb működést eredményez minden hardverre vonatkozóan.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Csavez™ #5252 üzenetére
2010 MHz fölé, legyünk pontosak. De igazából nem látom nagyon a gondot ennél, ha gyári beállításokkal fagy a 2025 MHz, akkor olyan mindegy, hiszen tuninggal is fagyni fog.
Emellett maga a Boost annyiban változott általánosan, hogy nem tartja meg sokáig a magas órajelet. Inkább levált majd vissza, tehát csinál egy órajelugrást. Ezért vették észre a tesztekben, hogy az új driverrel inkább 2000 MHz alatti órajelek jellemzők. De ez nem teljesen igaz, mert valójában a hardver el tud érni velük 2000 MHz-nél nagyobb órajelet is, főleg 2010-et, csak az történik, hogy az NVIDIA hardvere nem tud átlagos órajelszintet visszajelezni, csak aktuálisat. Viszont a driver mintavételi gyakoriságánál sokkal gyorsabban vált órajelet a hardver, tehát a driver mondjuk visszajelez két mintavételben egyszer 1965, majd 1980 MHz-et, az nem azt jelenti, hogy ezeken az órajelen futott a rendszer, mert elképzelhető, hogy a sűrűbb ugrások miatt a két mintavételi pont között beállított egy 2010 MHz-et. Csak annyira gyorsan visszaugrik, hogy a mintavétel maga nem szúrta ki. Ez a változás minden hardverre vonatkozik, és nem feltétlenül teszi kiértékelhetővé az órajelek változását, mert túl gyorsan vannak órajelugrások. Régen ez nem volt gond, de az Ampere-nek már nem kötelező megtartani az órajeleket beállítás után, sokkal szabadabban vezérelhető. Kb. annyira szabadon, mint mondjuk az AMD-nek a Polarisa. Csak az NV nem gondolt arra, hogy ilyen gyors ugrálásoknál nem jó az aktuális mintavétel, hanem inkább átlagot kellene számolni a hardveren belül, és az átlagot kellene kiolvastatni a driverrel. Ez persze a működést tekintve gondot nem okoz, a hardver belül szuperül működik, csak pontatlan adatokat kapsz vissza. Az is megoldás lehet egyébként, hogy a mintavétel gyakoriságát növelik, de az nem túl jó ötlet, mert annak azért van többletterhelése. A legtöbb felhasználó ezt az adatot információként használja, tehát érdemes olyan mintavételi gyakoriságot használni, ahol a többletterhelés kicsi.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz elite.cs11 #5795 üzenetére
Gyártó válogatja. A legjobb, ha a B-vel számolsz, akkor nem ér meglepi.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz gabor0928 #6541 üzenetére
A fejlesztők zömében VMA/D3D12MA-t használnak. Ezekkel megoldható már az, hogy a textúra felbontásáról dinamikusan döntsön a rendszer, vagyis ha nem fér bele a memóriába a high részletesség, akkor betöltik a mediumot, vagy a lowot. Az eredménye ennek tökéletes futás a 8-10 GB-os VGA-kon is. A juzer egy apró röccenést sem fog érezni, hála az új memóriamenedzsmenteknek. Viszont a részletességből a maximumot csak beállítani tudja, de ha nincs kellő VRAM, akkor nem kapja meg minden textúrára a high szintet. Szóval önmagában a kevés VRAM-mal már nem fog a juzer akadásokat tapasztalni, mint régen, annál már jóval modernebbek a mai streaming rendszerek. A többletmemória ma és a jövőben nem sebességbeli, hanem csak képminőségbeli előnyt jelent.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #6544 üzenetére
Az a megírt kódtól függ. Ha csak bemásolják az AMD-nek a VMA/D3D12MA headerjeit, akkor nincs beleszólás, a rendszer automatikusan működik ebben a módban. De ezek nyílt forráskódúak, tehát módosíthatók is, ugyanakkor egy fejlesztő számára a legfontosabb, hogy a programja jól fusson akármilyen VGA-n, tehát nem valószínű, hogy ezt a modellt módosítanák, mert azzal csak akadásokat hoznának be. Az meg ugye a user oldaláról több support ticketet jelent, amiket ki kell vizsgálni. Ezekre pénzt költ a support egy játéknál, még akkor is, ha végül visszaírják a usernek, hogy kevés a VRAM-ja.
A benchmark azért nem jelent gondot, mert high és low részletesség mellett is ugyanannyi mintavétel történik a GPU-n belül, tehát alapvetően mindegy, hogy high vagy low textúrákat tölt be. Ezek az fps-t nem igazán módosítják, a számítás mennyisége mindkét esetben hajszálpontosan ugyanannyi. Képminőségben lehet különbség.
Az újabb Resident Evil címek jó példák erre. Ennek a modellje van általánosítva. Ott ha megnézed, akkor egy 16 GB-os VGA-n elmegy a VRAM lefoglalása 14 GB-ig is. Tehát alapvetően 14 GB szükséges ahhoz, hogy mindenből tuti a max részletesség legyen betöltve. Mivel vannak már 16-24 GB-os kártyák, így az ellenőrizhető, hogy használna-e többet a program 8-10 GB-nál, ha lenne rá esélye.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #6547 üzenetére
Még az RE3 előtt is használták. Ezt alapvetően a Capcom találta ki, és annyira tetszett a piacnak, hogy egyre többen átveszik, mert rendkívül felhasználóbarát. Az a lényege neki, hogy gond nélkül működjön akkor is, ha a VRAM-od nem elég.
Az is tipikus gond szokott amúgy lenni, hogy a memóriahasználat jelenetfüggő, tehát például egy régi rendszerrel lehet, hogy volt elég VRAM-od egy pályán, de egy másik területen már nem. Ezt a Capcom megoldása automatikusan kezeli.Ha csinálnánk egy rakás képet biztos lehetne elemezgetni a különbséget, de mondjuk kevés VRAM eltéréssel azért sokat kellene valszeg kutatni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Erre a problémára van az NVIDIA saját shopja, ahol mehet a cucc normál áron. Ja, hogy hirtelen rájöttek, hogy nem jó experience-t ad a webshop, miután megérkezett az Ampere?
Érdemes feltennetek a kérdést, hogy mi van ha nem tudják olyan olcsón gyártani a 3080-akat, hogy MSRP szinten adják?
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz elite.cs11 #7083 üzenetére
Az RTX I/O az egy DirectStorage implementáció, tehát meg kell várni a DirectStorage API-t, utána lehet használni, természetesen játékspecifikus formában. De ehhez combos kártyák is kellenek, mert a DirectStorage elég jelentősen növeli a VRAM használatát, hiszen amit eddig elég volt a rendszermemóriában tárolni, azt a DirectStorage mellett már kötelező a VRAM-ba rakni.
- - -
A VRAM témára reagálva. Az valóban nem jelent még semmit, hogy az Afterburner 10 GB közelében méri a VRAM használatot. Ez a mérés lehet pontatlan is. De Cshaveznek igaza van abban, hogy ha időszakosan lát egy-egy hosszan számolt frame-et, akkor azok nagyrészt abból erednek, hogy bizonyos allokációkat törölni kellett a VRAM-ból, vagy explicit menedzsmenttől függően ütemen kívüli defragmentációt kellett beiktatni. Ez a valóságban azt jelenti, hogy a szükséges allokáció bemásolásához nincs elég egybefüggő szabad memóriaterület. Ilyenkor maga a törlés vagy a defragmentáció művelete egy hosszan számolt frame-et eredményezhet, ami akadásként észlelhető lehet, főleg DX11-es programokban. Ott ezek borzasztóan kellemetlen jelenségek.
Ezeket viszont komolyabban meg kellene vizsgálni egy tényleges memóriaelemzővel, mert az Afterburner erre borzasztóan kevés.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A DirectStorage a párja, vagyis az SFS nélkül eléggé nehezen életképes. Tehát annyira nem érdemes sietni a PCIe 4.0-s SSD vásárlásával. Majd, ha a Microsoft úgy dönt, hogy PC-re is áthozza az SFS-t. Egy szimplább NVMe SSD egyébként jól jöhet már a közeljövőben is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz edward2 #8074 üzenetére
December végére már üzemelni fognak a Micron új gyártósorai, szóval lassan lesz elég memória.
3070-ből egyébként sokkal több készül. A teljes 3080 és 3090 kínálat az összes legyártandó 3070 12%-a csak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A DIY az problémás a 3070-ből. Az OEM-eknek vannak hatalmas rendeléseik rá, mert ez a hardver sok meglévő konfigurációba beépíthető, ellenben a 3080-nal és a 3090-nel, ami azért rengeteg gépbe nem jó, mert túlságosan fűtenek, és eszik az áramot.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Dare2Live #8226 üzenetére
A 3070-re szükségük van. Egyrészt az az első 30-as VGA, amin nem GDDR6X van, másrészt egy csomó OEM arra vár, hiszen egy rakás konfigba a 3080 és a 3090 nem jó, túl nagyok, túl sokat fogyasztanak, és túlságosan melegednek. A 3070 lehet hogy nem annyira gyors, de az OEM konfigok jelentős részébe bedobható. Lehet, hogy itt ezt nem tekintjük fontosnak, de az ünnepek miatt az OEM-ek ellátása eléggé kritikus.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Persze, mert FreeSync-re van kalibrálva. Attól, hogy utólag beleraknak egy meghajtóba egy támogatást, még nem tudja az NV azt a több évnyi munkát belerakni a monitorba, amit az AMD csinált a gyártókkal. Szabvány ide vagy oda, ehhez ott kell lenni a kijelzőt tervezésénél.
Nem volt véletlen, hogy az 503 tesztelt monitorból csak 28-at sikerült átmenni a kezdeti tesztjeiken. [link] - azóta az 503 kijelző egy része már átment, mert azt csinálják, hogy driverből próbálják hozzáigazítani az implementációikat az alapvetően FreeSync-re írt firmware-ekhez. Ezek a kijelzők sose láttam GeForce hardvert, nem várható el, hogy működjenek velük. Azt kell nézni, hogy az NV az egyes kijelzőket utólag kezeli a meghajtóból, mivel az AMD-re szabott firmware módosítására nem számíthatnak. De számos kijelzőnél akármit csinálnak, ez a feladat lehetetlen.
Igazából én eleve csak azt ajánlom, hogy 2019 vége óta kiadott G-Sync Compatible kijelzőt vegyen valaki, mert az már látott GeForce-ot a teszten.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz edward2 #8269 üzenetére
A G-Sync Compatible egy külön hitelesítési rendszer, mert az AMD a FreeSync-et csak a saját hardvereire minősíti. Ergo egy FreeSync-re minősített kijelző esetében azért van esély arra, hogy a G-Sync Compatible ellenére is lesz egy rakás bug GeForce-szal. Ezért az NVIDIA minősíti ezeket a saját rendszerére is.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz ForRedGlory #9312 üzenetére
Az egy külön promóció, és nem maga a doboz.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz -=RelakS=- #9520 üzenetére
Jobb lenne, ha nem adna hozzá kulcsot és úgy nem lenne raktáron?
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Rage mód az egy döntés kérdése. Kérdés, hogy mit akartok a tesztben látni: a gyári beállítást, vagy a teljesítményre optimalizáltat. A Rage mód alapvetően emeli a teljesítményt, de annál többel emelkedik a GPU fogyasztása. A gyári beállítás mellett az órajelgörbe finomabb, sokkal inkább az optimumra van állítva, így ez adja a legjobb perf/wattot.
A Rage mód alapvetően azért került bele a fejlesztésbe, mert az NVIDIA elküldte az Ampere a frekvenciaskála végébe, de az AMD ezt nem akarta gyárilag beállítani, mert azzal a hatékonyság jelentősen romlik. Azt nem nagyon mondták el a tegnapi PDF-en, de a gyakorlatban számottevően kevesebbet fogyaszt egy 6900 XT is, mint egy RTX 3080. De Rage móddal már közelednek hozzá, mert ugyanazt megcsinálták a hardverrel, mint az NV. Elküldi a frekvenciaskála végébe, ami már nem annyira hatékony, mint az alapértelmezett szint.
Lehet mindkettővel tesztelni. Az AMD a gyárit ajánlja, mert abban tud sokat alázni perf/watt szintjén az új cucc. A Rage mód alapvetően 10%-ot minimum ront a hatékonyságon.
A SAM nem igazán számít a mai játékokban, mert ma még viszonylag kevés host coherent adatot használnak. Vannak kivételek, mint a Forza Horizon 4 vagy a Horizon Zero Dawn, a legtöbb játék nem ilyen. Ennek jövőre lesz értelme, amikor nem butítani fogják a PC-s portot a next-gen konzolról, hanem áthozzák a SAM-re a funkciókat. De annyit már tudni, hogy lesznek majd a játékokban olyan beállítások, amiket kikapcsolva a host coherent adatok használata szintén minimális lesz, így természetesen jól fog futni a játék SAM nélküli gépeken is. Amúgy a SAM kvázi közvetlenül használt formában +20-25%-ot tud hozni. Annál többet most még nem igazán, mert vigyázni kell a PCI Express 4.0 limitjeire is, tehát nem lehet elmenni vele a falig.
Az AMD ezt azért rakta bele, mert ha egy játék mondjuk next-gen konzolok marha nagy vertex puffert használ, vagy komoly geometriával dolgozik CPU fallbackre, akkor azt ne limitálják PC-re, hanem rakják bele a portban opcionálisan bekapcsolható formában, majd a SAM megoldja. Így nem lesz az, hogy némelyik része a játékoknak konzolokon jobban néz ki, mint PC-n, ami elég kellemetlen lenne figyelembe véve a PC-s CPU-k és GPU-k árazását.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz bulikavagyok #9706 üzenetére
Nagy kár, hogy a DLSS ebben a játékban nem működik tökéletesen. Ezt magyaráztam korábban, hogy a neuronhálón sok múlik, és hiába működik jól egy kevés tartalmas Death Strandingben, itt azért van tartalom rendesen, ami megfekszi ám a rendszer gyomrát. Ezen a képen például az omladozó téglafalnál nem vágta a neuronháló, hogy mit kellene vele csinálni.
Ennyi erővel a 20 GB-os textúrapackot is felesleges volt kiadni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Rison77 #9731 üzenetére
Mert azokban a beeséseknél a GPU-nak el kell mennie a rendszermemóriáig az adatért. Nem tudsz vele mit csinálni, mert az NVIDIA nem a VRAM-ban definiálja a host koherens memóriatípust. A nagyobb adatmásolások így eléggé fájnak, és ez bizonyos időközönként bezakóztatja a sebességet. Próbáld visszavenni a beállításokat, hogy kisebb adatmennyiséget kelljen másolni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Egy szóval sem írtam semmit az AMD-ről. Te kevered ide. A probléma pedig létezik a Horizon Zero Dawn alatt, hiszen ha nem menne viszonylag sokat a RAM-ba adatért, akkor nem nyerne 7-8%-ot átlagban a PCI Express 4.0-tól a 3.0-hoz képest. Ennek az előnynek része az is, hogy ezek a nagyobb adatmásolások is hatékonyabbá válnak, így a visszaesések mértéke csökken. Ettől persze még nem tűnnek el teljesen. Alapvetően tehát a játék dizájnjával van a baj, az használja eléggé speciálisan a gépeket.
#9744 Zorel : Attól, hogy 256 MB-ot az AMD definiál a VRAM-ban, adatmásolása még ugyanúgy lesz, mert így meg a CPU megy a VRAM-ig, és nem a GPU a system RAM-ig. Ez nem olyan dolog, hogy ultimate szinten valami jobb rosszabb, hanem az a probléma, hogy PC-n nincs egységes memória, és vagy a CPU-nak, vagy a GPU-nak át kell mennie a PCI Express buszon az adatért. A probléma pedig ez, nem az, hogy hova rakod a host koherens adatokat. Valamelyik részegység mindenképpen nagyobban utazik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Watch Dogs Legion. Arról lövésem sincs, hogy melyik DLSS-t használja.
#9769 KillerKollar : A heapek kezelésének logikai felépítése számít a PCI Express sávszél hatékony kihasználásában.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Dare2Live #10108 üzenetére
Állítólag minden játékban azt az API-t használták, amit a játékstatisztikák alapján többen használnak a játékosok közül. Egyébként nem lenne lényeges különbség, ha DX12-re váltanának.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Locutus #10123 üzenetére
A SAM egy mikrokódba épített funkció. Akkor működik, ha az AGESA része az adott processzorra. Ha az X470-hez szánt AGESA-ba beépítik, akkor működhet úgy is. A PCI Express sávszélesség nem akadály funkcionálisan nézve, sebességben azért lassíthat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #11070 üzenetére
Az AMD-féle Super Resolution nem igazán olyan, mint a DLSS. Mondjuk úgy, hogy egy keretet ad az AMD a FidelityFX csomagon belül, de nem kötelező ám az AMD neuronhalóját használni. Elfogad mást is. Ez egy konecpció volt, mert a rendszert közösen fejlesztették a Microsofttal, így az AMD megcsinálta azt, amitől a kliens oldalon működik, a Microsoft pedig sok stúdiónak adja azt, ami működteti. De korábban már írtam, hogy a Microsoft Azure számítási kapacitást is ad a stúdióknak a saját neuronháló tréningelésére, ehhez csak ki kell adni a játékot Xboxra. Mindemellett van még egy külön szerződés a Sony-val, hogy csinálhatnak belőle a PlayStation 5-re portot.
Ilyen formában az Super Resolution egyáltalán nem olyan, mint a DLSS. Ugyanarra szolgál, de nem köti meg a fejlesztők kezét. Tudniillik, ahol a DLSS nem működik megfelelően, ott nem a fejlesztők miatt van ez, hanem azért, mert egy kész csomagként jön, ha nem működik, akkor a fejlesztők nem tudnak vele semmit sem csinálni. Elfogadják, vagy sem, de módosítani nem tudják, hogy működjön. Az AMD és a Microsoft megoldása pont ezen a ponton újít. Ha nem működik, mert lesz ilyen is, akkor a fejlesztő képes lesz módosítani, hogy működjön. Ez egy kritikus szempont volt a fejlesztésnél, minden nyílt forráskódú, minden dokumentált, minden átalakítható benne.A Reflexre az AMD-nek felesleges válaszolnia. Nekik ott a driverben az Anti-Lag, ami akármelyik alkalmazásban működik, nem kell direkt támogatás. Az NV-nek azért volt szükséges a Reflexre, mert az ULLM nem működött a driverükben. Erről volt egy tesztünk is: [link]
Hozhatna az AMD egy specifikus SDK-t a késleltetés csökkentésére, de nem teszik meg, mert maga a technológia, amit használnak az Anti-Laghoz, azt nem akarják mással megosztani. Ha ezt elkészítenék játékokba beépíthető formában, akkor az NV-n is működhetne, de ha ezt akarnák, akkor már rég licencelték volna nekik a szabadalmat. Viszont mivel nem licencelték, így az NV nem tudja beépíteni a driverbe, muszáj volt egy saját megoldással előállniuk, de ennek a hátránya, hogy direkt támogatás szükséges hozzá, tehát per játék szinten kell beépíteni, és nem olyan, mint az AMD megoldása, hogy bekapcsolod a driverben, és akármelyik modern API-t használó játékon működik. Érthető, hogy az AMD miért nem válik meg a HiAlgo licencektől, ezek által képes átfogó, fejlesztői beavatkozás nélkül is működő funkciókat tervezni a driverbe. Szóval a Reflexet nem fogják SDK szintjén lereagálni, mert nekik fejlesztői támogatásra nincs szükségük, hogy működjön az alacsony késleltetés, azt meg nem akarják, hogy más is hozzájusson ehhez a technológiához. Ha valaki alacsony késleltetésre vágyik, akkor egyértelműen Radeont választ, mert az Anti-Lag működik bárhol, míg a Reflex még csak pár játékban. Ez az AMD számára egy előny, és nem egy hátrány.A réjtrészintre is írhatnék már dolgokat, de sajnos arra NDA van. Annyit elárulok, hogy ha úgy áll hozzá mindenki, hogy az AMD esélytelen, ahogy az RDNA2 esélytelen volt az Ampere ellen október 28-ig, akkor megint lesz nem kicsi meglepi.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz warcat #11316 üzenetére
Valójában 2017 óta létezik ez a fícsőr: [link] - senki sem írt rá implementációt, még az AMD sem, a saját SAM nem teljesen erre épít, hanem egy mikrokód szintű funkció, ezért kell az alaplapok BIOS-ában aktiválni, nem pedig a driverben.
Az a gond, hogy 2017 óta a gyártók addig jutottak, hogy az AMD feladta ezt a fajta implementációt, és elvitték az egészet egy saját megoldás irányába, míg az NV bedobta a GamersNexusnak, hogy dolgoznak egy ilyenek, de NO ETA ugye, a jó ég tudja, hogy mikor jön. És hangsúlyozom, hogy ez nem újdonság. 2017 óta létezik, azaz három teljes éve ott van a WDDM-ben kihasználatlanul.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az 1080p előny nem állandó, de észrevehető, hogy az Infinity Cache bizonyos játékokban nagyon nagy előnyt ad Full HD-ben. Gyakorlatilag a sima 6800-at a 3080/3090 szintje fölé lövi. De ez nagyon játékfüggő. 1440p-ben ez kevésbé jellemző, 4K-ban pedig alig.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz rewtenator #37221 üzenetére
A problémád maga a DP->HDMI átalakítás. Erre nagyon haknisak a hardverek, és hivatalosan vagy működik, vagy nem, nem lehet garantálni. A legjobb lenne, ha az egyik kijelzőt olyan DP-re kötnéd, amin megy a 4K120Hz, a másikat pedig a HDMI-re, amin natívan átmegy a jel átalakítás nélkül.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz rewtenator #37226 üzenetére
Nem csak te küzdesz ezzel. Alapvetően a jelátalakítás nem egy megbízható módszer. Elvben képes lenne a hardver átvinni, de ha nem tudja jól visszakapni az átalakítás miatt a kijelző paramétereit a rendszer, akkor nem is tudod kiválasztani a beállítást. Ilyenkor egy fail-safe default paramétert kapsz, ami 30 Hz, mert azt biztos viszi.
Ezért lenne jobb az egyik kijelzőt tisztán HDMI-re kötni, és a másikat DP->HDMI-re. Alternatív opció lehet, hogy felülbírálod a meghajtóban a beolvasott értékeket, de nem biztos, hogy a meghajtó képes lesz pont jó jelet küldeni 120 Hz-en, ha nem ismeri pontosan a kijelzőadatokat. Ezeket tisztán DP-vel vagy HDMI-vel megoldja, de átalakítással hakni az egész. Viszont, ha az egyik kijelződ HDMI-n, van akkor onnan ki tudod olvastatni a pont jó adatokat, ami kell a 4K/120 Hz-hez. Azt már nem tudom, hogy a GeForce driver mennyire engedi szabadon az esetlegesen hibásan kiolvasott specifikáción túli paraméterek beállítását.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen