-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Teasüti
nagyúr
válasz Raymond #45665 üzenetére
Köszi!
Ugyan csak átfutottam, de nem tesz említést a fényforrások számáról. Nem esik szó róla, hogy miként vesznek mintát közel 1000 fényforrásból.
Ahogy én látom a felvázolt ábrákon, ez a ReSTIR nem sokban különbözik alapelvében a hagyományos sugárkövetéstől, csupán a tér- és időbeni resample új benne.
Szóval 1000 fényforrás (egy pixelen) az még mindig 1000 sugár minimum.
Persze kicsit kifordítottam, hisz sehol nincs szó 1000 fényforrásról egyetlen területen, hanem a teljes jelenetben szerepel ennyi és a lokalizált területeken még mindig "csak" néhány átfedő fény van hatással egy pixelre, de azokat továbbra is egyesével kell lekövetni. Az előadásban meg elhangzott egy állítás, hogy nem kell egyesével lekövetni őket.[ Szerkesztve ]
-
Teasüti
nagyúr
Azt érti vki hogy működik a ReSTIR vagy Megalight algoritmus a szokásos egyesével lekövetjük a fényforrásokat megközelítéshez képest?
Annyit levettem az előadásból, hogy valós idejű path tracing esetén 1024 sugár helyett csak 1-6 sugarat lőnek pixelenként és átlagolnak a környező pixelekből térben és időben.
Ez eddig oké. De hogy megy a sugárkövetés úgy, hogy nincs szignifikáns komplikáció a fényforrások számának drasztikus megnövelésével? Nem kell ugyanúgy visszakövetni egyesével mindegyiket? Ha 1000 fényforrást papírra vetünk, akkor ugyanúgy vonalat kell húzni mindegyikhez, nem? Annyi, hogy definiálva van nekik egy hatósugár, ami felett felteszem figyelmen kívül lehet hagyni. De ami körzeten belül van, oda vonalat kell húzni ugyanúgy, mint offline path tracing esetén. Nem?
Az egészből annyi világos csak, hogy közel ray tracing teljesítményben átlagolnak közel path tracing minőségben. Ez így oké, de ezt el lehetett volna mondani 10 perces előadásban is.
Az meg külön vicces, hogy lehet ivós játékot játszani a "you know" beszúrásokra. Előadás végére mindenki be lenne állva, mint a gerej.[ Szerkesztve ]
-
Teasüti
nagyúr
Ezeket mind hardverből tudják egy az egyben??
Én mindig úgy képzeltem, hogy a hardver épp csak annyit tud tranzisztorból megoldani, ami a legalapvetőbb műveletekhez szükségesek, aztán a többit részfeladatokra bontják matematikailag, mint régen az Assembly esetén, hogy trükközni kellett pl. az osztással (bit shift és kivonás). -
Teasüti
nagyúr
CUDA magok azok csak szoroznak és összeadnak a videó alapján, nem?
Nincs publikus infó az RT magok számításáról?
Gondolom akkor az RT se sokkal bonyolultabb egy közönséges pixel shader-nél miután azonosítottuk a fényforrás(oka)t és a textúrá(ka)t. Onnantól meg talán csak iterálják ezeknek a száma alapján, hogy mi lesz a végső RGB érték. -
Teasüti
nagyúr
válasz M@trixfan #45605 üzenetére
Amíg nem lesz 100% RT egy játékban, addig sajnos a fejlesztők kénytelenek lesznek kétszer elkészíteni ugyanazt. Vagy lebutítani annyira az RT-t, mintha ott se lenne. Ha utólag húzzák rá a játékra, akkor ahogy a remaster-ek esetén látható olykor hagy némi kívánnivalót maga után az új világítás ha nem igazítják hozzá a játékot. De még "sima RT" és Path Tracing közti váltásnál is változhat a jelenet dinamikája, ha változatlanul hagyják a játékot.
A vizuálisan szétesik az egész játék az azért kicsit erős.
Ha meg eljutunk majd egyszer odáig, h full RT lesz a trendi és elvetik a raszter világítást, akkor meg pláne nem lesz ez igaz.
RTX remaster esetén látható, hogy az eredeti hangulata az viszont elvész.
Élethű fény-árnyékokkal nehéz visszaadni egy eleve fizikailag hibás képi világot ami önkényes művészi döntések alapján készült.[ Szerkesztve ]
-
Teasüti
nagyúr
Ezekből a számításokból mennyit tudnak hardverből megoldani az RT magok jelenleg?
Kíváncsi lennék konkrétan milyen képlettel számolnak és az a képlet mire elég.
Annyi derült csak ki a videóból, hogy BVH és poligon metszés zajlik az RT magokban, de a jelenet bevilágítása az már szoftveres?
Itt most nem arra gondolok, hogy mit tudunk szimulálni a pro szoftverekben, hanem hol tart a játékipar és a hardver hozzá. Esetleg mennyire tudják befogni az RT magokat a pro szoftverek?[ Szerkesztve ]
-
Teasüti
nagyúr
válasz -=RelakS=- #44918 üzenetére
Sose értettem a sample&hold miért nem ad éles képet. Attól, hogy nem a képterület 100% kerül kirajzolásra minden ciklusban hanem csak egy része és nincs BFI, attól még a kirajzolás semmivel se tart tovább, mint egy CRT-n.
A kamerán meg remélem azért van annyi esze a tesztelőnek, hogy a záridőt azt leveszi minimumra. Elvégre nem lehet 1 ms körüli válaszidőket fényképezni ennél lassúbb záridővel. -
Teasüti
nagyúr
Mit értünk CRT szint alatt? OLED tud instant képet megjeleníteni, erre ilyen képet lőnek rajta a teszten 120 Hz-en. Miért nem tűéles a kép mozgás közben?
Ez remélem mesterséges motion blur, mert egy OLED-től azt várom el, hogy jelenítsen meg 120 tűéles képet egymás után másodpercenként. Mint mikor a MILC gépen 1/3200s záridővel videózol. -
Teasüti
nagyúr
Natív 4K-ban mértek, vagy skálázva vannak?
X2N
Ha így állunk hozzá hogy raytrécing kell akkor kb semmi se jó csak a 4090 de az csak 1080p-re maximum szódával elmegy kategória...
Az a baj, ha már láttál realisztikus RT árnyékot, akkor minden régi technika piszok hamar ki fog tűnni és elrontja a grafikát. RT reflection-ről hajlandó lennék lemondani, azt elég jól tudjuk hamisítani. De realisztikus árnyékot nem tudunk vetni hamis technikával. RT ambient occlusion, nap vetette hard light, fényforrások vetette soft light. Ezek mind szódával elmegy kategória, de egy RT global illumination mellett nagyon hamar kilóg a lóláb.[ Szerkesztve ]
-
Teasüti
nagyúr
E grafikon alapján csak a szereplők 68%-ánál van meg az átlag 60 fps.
Ahol nincs meg ott meg ilyen xbox360 szinten vagyunk teljesítményben.
Régen volt már. Annyira régen volt már a 30 fps sztenderd, hogy nekem újabban a 30 fps átvezető videók is kellemetlenek a szememnek (jó, ez mondjuk videós szemszögből minősíti a stúdió balfaszságát). Teljesen felesleges erőltetni a 4K-t, ha a mozgás felbontás meg beesik 480p szintre a 30 fps melletti 50% motion blur miatt. Vagy ha kikapcsolom a motion blur-t, akkor meg stop motion és kifolyik a szemem.[ Szerkesztve ]
-
Teasüti
nagyúr
4070 Ti S - cirka 360k... Frame Gen nélkül nem megy a 60 fps tavalyi címekkel nem hogy 4K-ban, de DLSS Performance módban is alig-alig. A FG 60 fps meg elég szaggatós élmény, szóval 20-30 fps-ről interpolálni egy katasztrófa.
Persze ez AAA Ultra grafikán. Nyilván min-med grafikával potato PC is elég sok mindenre.
Erős kompromisszumokkal emeberek elvannak még az 1060 GTX-en is, illetve a 3060 12GB se véletlen népkártya. Valamint indie-hez se szokott kelleni a high end. De a megállapítás az a kurrens AAA játékokra vonatkozott. A te érved szerint 200e-ért megy a 4K60 idei AAA játékban.
Amennyire én látom 4090 kell elég sok helyre natív 4K-ban a teljes* játékélményhez.* Leginkább Ultra, de High-nál semmi se legyen lejjebb. Illetve ahol van RT, ott RT bekapcsolva.
[ Szerkesztve ]
-
Teasüti
nagyúr
válasz S_x96x_S #44892 üzenetére
Ezzel nem is lenne baj, ha a gépigény is maradna a tíz évvel ezelőtti szinten.
Az dollár/fps (AAA játék) mutató reálisabb képet fest szerintem.
Mennyibe került a stabil 60 fps az aktuális gen AAA játékokban 2013-ban és mennyibe kerül ma? Ideértve a jellemző képernyő technológiákat is a jellemző felbontásban.
Pl. 2010 környékén még gyakori volt a 720p monitor is. Ma meg már ha nem megy a 4K60 a 4090-esen mennyi pénzért is, akkor megy a hőbörgés.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz MasterDeeJay #44852 üzenetére
De ezek a kártyák önálló hűtés nélkül jönnek, nem?
Amit eddig láttam szerver kártyákat, azok mind blower típusú passzív hűtéssel jöttek és kellett mellé a lombfújó. Vagy eleve vizes blokk volt rajta.[ Szerkesztve ]
-
Teasüti
nagyúr
Elolvastam a cikket amit linkeltél Avatar kapcsán.
Ahol Compute Shader-t említik a ray tracing-gel egy mondatban, ott az előbbi csak egy fall back magoldás, ha nincs hardveres RT támogatás. Szóval DXR 1.1 van a motorban és a Compute Shader a szoftveres megoldás, ami lassúbb.
Vmit félreértettem feljebb.BVH miatt van az előnye a motornak? Avatar-nál azt írják, hogy az alacsony szinten előre kiszámolt bejárást alkalmaznak.
DXR esetén ez AI szerint dinamikusan frissíthető futás közben, ami persze lassúbb is. De nekem ebből nem az következik logikusan, hogy a DXR limitált az előkészített verzióhoz képest. A dinamikus a flexibilisnek hangzik.
Vagy onnan erednek a minőségbeli különbségek, hogy az előkészített verzió már eleve jobb minőségű?[ Szerkesztve ]
-
Teasüti
nagyúr
Ennyire gyerekcipőben járunk még csak? Pedig Nvidia már elég régóta kutatja a témát. Már 2010 körül voltak tanulmányok áttörésekről valós idejű RT kapcsán. A Microsoft malma őröl ennyire csiga lassan? Olyan benyomásom van, hogy hardvert gyorsabban fejlesztenek mint API-t.
-
Teasüti
nagyúr
Nem egészen értem ezt a két legyet egy csapásra.
Felteszem a képi RT az fényforrásokra optimalizál.
Viszont hangforrásból sokkal több szokott lenni, mint fényforrásból.
Illetve elnézve egy-két techdemót a bounce is olyan 8 körül optimális.
Azt hinném a kép és hang RT kettő teljesen eltérő rétegen lenne.Illetve Zsolnay Károly videóiból arra következtetek, hogy itt is aztán úgy el lehet rugaszkodni gépigényben, hogy elférne a második GPU a gépben.
[ Szerkesztve ]
-
Teasüti
nagyúr
RT hang, huh. Ez új. Szóval lassan megint utolérjük az Aureal 3D-t úgy 30 év után?
#44807atok666
Mert nincs is a játékra hatással lévő fizika benne egy libikóka egyensúlyozásán kívül. Minden más csak eyecandy. Legalább egy kis ellenállást tanúsítana a törmelék, de nem. A karakter úgy hatol keresztül mindenen, mint egy hótoló vonat.
Little Big Planet videót elnézve ott kreatívabban bántak a fizikával.
Konkrétan küzdeni kellett az akadályokkal a továbbjutáshoz.[ Szerkesztve ]
-
Teasüti
nagyúr
Kár hogy eddig hangra a RT nem igazán volt használva, kíváncsi lennék, amúgy is mindig fejhallgatóval játszom, a hang része is kritikán aluli a legtöbb játéknak.
Pont ezen botránkoztam Hogwarts alatt, h mennyire gagyi a hangok térbeli megjelenítése. Én is fejhallgatóval játszok és Dolby Atmos keveri a hangot sztereóban. Anno meg a 3D-CMSS vagy mi volt a Creative X-fi idejében mielőtt elkaszálták. Már 3D hang kapcsán is megéltünk legalább két forradalmat, aztán mégis csak elölről kezdjük az fejlődést újra és újra. VR kapcsán voltak megint nagy reményeim, hogy a binaural lesz a sztenderd mindenhol. De a qrva életbe nem akar terjedni ez se...
Legalább a tejfölös dobozokon túlléptünk és már spatial audio van a Windows-ban is gyárilag mellékelve...[ Szerkesztve ]
-
Teasüti
nagyúr
válasz KRoy19 #44794 üzenetére
Arra reagáltam, hogy "kihal a raszter". Nem fog kihalni a raszter amíg nem tudunk global RT-vel renderelni. Az meg szuperszámítógép kategória. Pl. aki itt gaytracing-el, annak halvány lila gőze sincs arról mi az a ray tracing számítástechnikai oldalról.
Már az egy kisebb csoda, hogy egy Portal RTX nem fossa össze magát egy jobb gépen, pedig egy 15 éves játék van alatta vagy mennyi. Valamint a komplexitás ott is még csak a butított algoritmusokat tükrözi. Ez akár csak 10 évvel ezelőtt még elképzelhetetlen lett volna. 20 éve még csak tanulmány szintjén pedzegették ezt. 30 éve még arról beszéltek, hogy kérdéses még az ő életükben megvalósítható lesz-e.#44796PuMbA
Eeegen, az a játék is rajta volt a radaromon. Sony tudja jól, hogy mit nem szabad kiadni Playstation PC-re. Pedig első napos vétel lenne nálam Steam-en az eredeti LBP és az Astrobot is.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz KRoy19 #44792 üzenetére
Pár évtized talán. De global ray tracing az egyelőre még szuperszámítógép kategória. Persze ha nem olyan képkocka sebességgel szeretnéd futtatni, mint a Cinebench-et.
Amit mi itt most ma ray tracing-nek hívunk, az egy nagyon-nagyon lebutított és ronggyá optimalizált algoritmus.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz Teasüti #44788 üzenetére
Lehet Red Redemption 2 esetén hallottam ezt, hogy ott pl. a Benchmark-ra nem annyira szeretnek alapozni a tesztelők vmilyen aspektusból. Oka, hogy nem megismételhető a benchmark, mert a fizikai számítások minden futtatáskor más eredményt adnak és így a komplexitás is kicsit eltérő.
-
Teasüti
nagyúr
válasz KRoy19 #44787 üzenetére
Látványos mennyiség, nekem tetszik. De itt is csak egy-egy konkrét esetben része a játékmechanikának.
Ahol a vízzel kellett egyensúlyozni egy libikókát, egyedül ott volt szükség némi fizikára. Mindenhol máshol ha simán eltünteted a játékból, egyáltalán nem változna a játék.
Én ott vártam az innovációt, ahol a fizikai szimuláció maga a játék. Nem csak eyecandy.
Persze ez hagyományos értelemben általában kimerül a jármű szimulációban vagy vmilyen rombolós játékban. Egyszer olvastam egy fejlesztővel készült interjút a fizika használatáról. Nem emlékszem milyen alkotás kapcsán, de arra az elvre emlékszem, hogy nem annyira hangzott jól tisztán fizikára alapozni a játékmenetet, mert nem lenne kiszámítható eredménye és a továbbjutásra nincs garantálható recept. Túl nagy a szerencse faktor, hogy ledől-e az összes elem, aminek le kell dőlnie, stb.[ Szerkesztve ]
-
Teasüti
nagyúr
Van vmi nyilvánosan hozzáférhető szoftver, amiben PhysX-szel modelleznek?
Gondolok itt akár csak egy CAD vagy hasonló kaliberű megoldásra, ami konkrétan ipari PhysX-et használ? Egyáltalán fut az Geforce-on, vagy ide már Quadro kell? Robotikát említetted. Itt mit kell elképzelni? Boston Dynamic új masinája PhysX-szel végzi a fekvőtámaszokat és a hátra szaltót? Mert a közönséges robotkaros megoldásoknál nem rémlik, hogy fizikát kellene számolni. Hacsak nem röptében adogatják át egymásnak a karok a munkadarabot.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz T.Peter #44742 üzenetére
Én hegyeket szeretnék látni megmozgatni, folyadékot szeretnék látni szimulálni, és BeamNG szintű soft body-t szeretnék látni. Ehhez kell azért a vas még mai viszonylatban is.
Három fellibbenő újságpapír és egy ledőlő polc már nem nyűgöz le. Ahogy a ruha és haj is már szinte alapvetés. Ageia demókban több száz egymással kölcsönhatásban lévő elem volt szimulálva, most meg minden részecske eltűnik 5 másodperc után. Maradjon képernyőn a törmelék és bokáig szeretnék járni benne.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz Busterftw #44736 üzenetére
Több száz használ PhysX SDK-t az igaz. Ezek közül mennyi használ hardveres PhysX-et a CPU helyett? Illetve mutass egy olyan húzó címet, ahol a játékmenet szerves része a fizika!
Kizárólag Havok-ra jött olyan cím, ahol a fizika megkerülhetetlen része volt a játéknak.
Nekem így friss elmegy a Control, ahol nagy számú effektek voltak jelen és elég látványos volt. De az se hardveresen gyorsított már és nem része a játékmenetnek sem.
[ Szerkesztve ]
-
Teasüti
nagyúr
válasz FLATRONW #44729 üzenetére
Egyetlen játékban sincs már hardveres PhysX, mert az exkluzív fícsőr. Amiben volt, ott sem volt meghatározó a játék mechanika szempontjából. Én vártam a fizikára épülő játékmenetet, mint a Messiást. Nvidia ledegradálta* közönséges eyecandy-re, pedig forradalmi lehetett volna.
*Vagyis mivel bezárta, ezért inkább nem terjedt el.
Egy maréknyi játékba került csak bele a hardveres PhysX, ott is csak eyecandy gyanánt.Nekem volt anno egy 9600 GTX kizárólag PhysX-re, annyira bele voltam invesztálva a koncepcióba.
Aztán arra a sorsra jutott, mint a Creative hardveresen gyorsított hangja, ami konkrétan két játékba került bele, aztán viszlát. De azért benne volt a gépben a Auzentech kártya is.[ Szerkesztve ]
-
Teasüti
nagyúr
Akkor most kezdjem el faragni a játékot a fejlesztők helyett?
Én épp amellett érvelek, hogy hátradőlve kényelmes távolságban teljesen mindegy, hogy 4K vagy DLSS 1080p. De régebbi játékoknál - amik 1080p felbontásra váltják a képernyőt - sincs kifogásom a nem natív felbontásra adott nézési távolságból. Ahogy a Windows asztal is 150%-ban van skálázva és böngészőben a PH fóruma is 150% nagyításban működik, mert nem vagyok sasszemű.
De a bányász időszakban játszottam 720p-ben is a 4K monitoron - pixel helyesen skálázódik a kép. Ha a játék nem tud megfeledkeztetni a képi beállításokról, akkor inkább keresek vmi jobb időtöltést. Eyecandy az kb az első egy órában el tudja adni a játékot. Utána már azért kérem a tartalmat is. Aztán ha arról van szó, hogy natív 4K TAA-val vagy anélkül, de 30 fps VAGY dlss és frame gen 90 fps és még az effektek is masszírozhatják az egomat ultrán, akkor én a hét minden napján az utóbbit választom, köszönöm.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz KRoy19 #44713 üzenetére
Igen, fotós/videós szemmel is látszik, hogy van némi élesítésnek tűnő hatás rajta. Bár a játékban ez le van véve nullára. Nekem speciel bejön. Igazi részletben sincs elveszve semmi. Ami van, az csak ki van emelve kicsit és sokkal meggyőzőbben, mint egy közönséges Sharpening. Kolléga fentebb arról írt, hogy a padlón szereti látni az apró repedéseket. Nem gondolom, hogy 1080p render mellett ne látszana a textúra teljes egésze és elvenne bármit is az élményből. Főleg kényelembe helyezve magamat és hátradőlve játék közben.
Ezt most a "4K játék" kapcsán írom. Szerintem felesleges ráerőltetni ezt a videókártyára. Szvsz nincs igazi hozzáadott értéke. Ha bármi érdemi összehasonlításhoz 400%-os nagyításra van szükség, akkor ott már nincs értelme hasonlítgatni semmit.
Aki meg olyan sasszemű, hogy neki b.ssza a szemét egészséges nézési távolságból, hát akkor ő balszerencsés videofil. Audiofilek és videofilek meg úgyis örömmel fogják kinyitni a pénztárcát, illetve nekik úgyse lesz elég jó soha semmi se.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz Teasüti #44707 üzenetére
Én most így teljes képernyőn váltogattam képnézegetőben a folyosó jelenetben a 4K és a DLSS Performance (1080p) között oda-vissza. DLSS képe nekem jobban tetszik, mint a natív. A kontúrok jobban ki vannak húzva, részletvesztést sehol sem látok az RT effekten kívül. Pedig ezt most nagyítóval kerestem.
Szerintem AI skálázás a jövő. Nekem nincs kifogásom ellene. Hagyományos AA-nak lejárt az ideje. AI kontúrosabb képet készít, mint a natív render. FPS nyeresége is van. Artifact egyre kevesebb, ami akció közben úgyse szúr szemet. Én nem értem miért kardoskodik ellene a nép. Igaz hosszú utat járt be és döcögős volt, de ha a Control volt az utolsó összehasonlítási alap, akkor azóta kijött két fő verzió.[ Szerkesztve ]
-
Teasüti
nagyúr
Tessék.
Két jelenet a Hogwarts Legacy-ból.
Egyik a padlón lévő tükröződést demonstrálja, másik meg egy RT tükör előtt állva demonstrálja a részleteket.
A képernyő felbontása 4K minden képen, de a DLLS szintje változik.
A "4K" fájloknál a DLSS ki volt kapcsolva. A Quality az 1440p-ben renderel, a Performance az 1080p, az Ultra Performance az 720p.
Ha az RT-t kivonom a képletből, akkor a textúra részletességére nem hiszem, hogy sok panasz lehet DLSS szinttől függetlenül, vagy igen?
RT effekteket tegyük félre egy percre és fókuszálj csupán a textúrákra! Natív 4K és a DLSS Performance (én ezt szoktam használni) között van annyi különbség ami miatt megéri kínlódni a 4K-val? Főleg ha még játszani is szeretnék, nem csak fotózni a játékban.[ Szerkesztve ]
-
Teasüti
nagyúr
Control az még vmi 1.x-et használ és saját implementációt. Nem tudom ki lehet-e cserélni alatta a fájlokat vagy az egyedi verzió miatti függőségbe belefagy-e, de én nem piszkáltam. De hozzá kell tennem, hogy nekem nulla panaszom volt a Control alatti DLSS-re. Inkább 2.0-3.0 közötti játékoknál voltak panaszaim a szellemképre.
Pl. Pacific Drive mikor kijött, az akkori DLSS verzióval a játékbéli képernyőkön durva artifact-ok voltak a temporális felskálázás miatt. Bár mondhatni korhűen szimulálta a CRT monitorokon a pixel "gerjedés" lecsengését.Illetve rémlik ez a beszélgetés CP2077-ről kicsit feljebb, de tegyük hozzá, hogy ez egy screenshot és mindenki pixel peep-el rajta. Ha belemerülsz a játékba, akkor nem fogsz pixel peep-elni. Persze az első fél órában megnéz az ember minden fűszálat, de ha utána nem tud beszippantani a játék akkor azzal nem is érdemes játszani.
[ Szerkesztve ]
-
Teasüti
nagyúr
Láttál már DLLS 3.5-öt élőben?
A tévés szappanopera képinterpoláció egy muzeális technika ehhez képest.
Nézegettem összehasonlító videókat DLSS, FSR kapcsán, szóval nagyjából képben vagyok miféle artifact-ok szoktak előfordulni. DLSS 2-nél nekem még panaszom volt a temporális skálázás miatti szellemkép. Illetve 3.0-nál szar implementáció esetén az UI is szellemképesedett. De a mostani verziókkal én élő képen vesszek meg, de nem látok semmi nem oda illőt. Én nem tudom megmondani neked ABX teszten, hogy melyik a valós és melyik az FG render.4x részletesebb kép? Ez semmi?
Nézési távolságtól függ. Egy méterről a 32-es monitor nem tölti ki annyira a látómezőmet, mint mondjuk a 130"-os vászon 3 méterről. 1080p pixel helyesen kerül megjelenítésre rajta. Nem igazán tesz hozzá nekem az élményhez olyan hangyafasznyi részlet, amihez már nagyító kell. Persze ha pixel peep-elni szeret az ember 50 centiről, ahol már forgatni kell a fejemet a monitor egyik szélétől a másikig, az más dolog.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz -=RelakS=- #44690 üzenetére
Fura érvelési gyakorlat rögtön átesni a ló másik oldalára.
1080p és 4K közt nem látok eget verő különbséget 1 méterről.[ Szerkesztve ]
-
Teasüti
nagyúr
Mi értelme van 4K-ban játszani? Ezt kérdem úgy, hogy itt van előttem a 32-es 4K monitor.
Asztali munkánál, böngészésnél egy áldás. De mozgóképnél legyen az film vagy játék szerintem sokadlagos szempont a natív felbontás. A "mozgás felbontás" úgyis bezuhan olyan 480p szintre egy akciódúsabb jelenetnél. Persze ha statikus képre gerjed vki, akkor még talán megértem.Valamint mi a probléma a felskálázással és az FG-vel? Anélkül van 30 fps-em 4K* Ultrán, ezekkel meg van 90-100 fps-em és folyamatos játékélményem. Aztán a friss verziójú DLSS-nél meg már zavaró artifact sincsen. Mi az amit ne szeressek benne?
*Natív felbontást én speciel a fent leírtak ellenében azért használok mégis, mert az elmúlt pár évben megjelent játékok furán kezelik a teljes képernyős módot nem natív felbontáson. Sokan nem is hajlandók felbontást váltani a monitoron, csak a render felbontást veszik le. Akkor meg már inkább DLSS, mint TAA.
[ Szerkesztve ]
-
-
Teasüti
nagyúr
válasz szkutyi #44613 üzenetére
Ezek ilyenek. 4070-esen is van kb 16 fok eltérés hotspot-ra vízhűtéssel...
Háromszor lett összerakva, kétszer variáltam át a pad-okat és garantáltan érintkezik a GPU a blokkal. Friss paszta, friss build. Előtte 3060-ason is volt kb ennyi eltérés hotspot-ra gyári léggel. El kell engedni. Amíg nincs thermal throttling, addig nem probléma.
Mondjuk 104 közelében már feltehetőleg lesz fojtás. Ezt mondjuk egy HWinfo64 meg tudja mondani, hogy volt-e fojtás játék közben.
Furmark-kal meg nem kell foglalkozni - ha esetleg ezt azzal sikerült -, olyat játéktól sose fogsz látni még 99%-on sem.[ Szerkesztve ]
-
Teasüti
nagyúr
Uhm, nem kéne itt lennie egy RTX HDR opciónak?
-
Teasüti
nagyúr
válasz hahakocka #44590 üzenetére
Attól függ mik az elképzelések. DLSS Performance nélkül szeretnél 4K-t? Ha AA játékkal játszol, olyan nem mostanában lesz, de talán még nem is ebben az évtizedben (vagy ebben az életben). Az újabb és újabb játékok úgyis előrébb fognak járni, mint az éppen aktuális VGA generáció.
De a jó hír, hogy a 4K felbontásnak nincs túl sok hozzáadott értéke mozgás közben.
Statikus jelenetekben fasza, de amint motion blur és társai képbe kerülnek, onnantól teljesen mindegy, hogy 4K, 1080p, vagy 720p. Én amúgy váltanék rá gép nélkül is.
Mikor VGA-m még nem is volt - a bányászláz idején - csak egy Vega 8 egy 5700g-ben, már akkor 4K monitoron voltam és 720p-ben játszottam. A skálázás pixel perfekt 720p-re és 1080p-re, így a render mindig is ezen felbontásokon ment. Most 4070 TiS mellett is csak DLSS Performance módban megy a 4K, vagyis a render továbbra is 1080p. Ezt akkor is így hagynám, ha 4090 lenne a gépben. Eleve a 32-es monitortól 1 méterre már nem igazán látom a különbséget a natív és az 1080p közt. Kivéve persze indie és régi játékok, ahol erőből megvan a 4K.
Viszont Windows asztalon a 4K egy áldás. Igaz 150%-ra van skálázva minden, de még így is több területem van, mint 1080p-ben 100%-on.
HDR gaming eddig nekem csalódás. Mindegy, hogy a monitor fényereje mekkora, maga a szoftveres támogatás hiánya, valamint a gyér implementáció és bug-ok elveszik a kedvemet tőle. Arról nem is beszélve, hogy ha SDR-ben készül egy játék és a HDR csak egy tone mapping, akkor egyenesen szarabbul néz ki a játék, mint nélküle.
Viszont érdekesség, hogy RTX HDR-t ráhúzva pl. Hogwarts Legacy-ra szebb képet lehet kapni Steam kommentek szerint, mint a natív HDR opcióval.
Filmek azok mások azért. Ott minden egyes jelenetet külön colour grade-elnek.
Az nyilván pöpecül fog kinézni egy valamire való képernyőn.
De Windows-on még rendes wide colour gamut támogatás sincsen, nem hogy épkézláb HDR. Mondjuk ez nem az MS hibája egyedül. Apple-n kívül konkrétan a teljes IT ipar magasról tojik a wcg-re és mind a mai napig az sRGB az etalon és alapértelmezett választás.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz hahakocka #44586 üzenetére
Mass Effect Legendary Edition-ben a HDR egész kellemes, de ott sincs jól kiegyensúlyozva a sötét pálya a világos pályával. Monitor állítás kellett a sötét területekhez (Light/Shadow Enhance, stb), mert részletvesztés volt. Egy maréknyi játékban próbáltam csak eddig, de általában több gondot okozott, mint amennyi haszna volt. Hitman 3-ban pl. határozottan nem ajánlják bekapcsolni, mert elqrja a képet.
Hogwarts Legacy-ban is kimossa a feketéket. A fekete szintet és így a kontrasztot teljesen tönkre vágja. A highlight és a szín szaturáció az kellemes, de sajnos kimossa a feketét.
(Nem, in-game kalibráció sem segít rajta.)Filmek kapcsán passz, HDR400-as monitorom van (tudom, bakfitty) így én elég késői beszálló vagyok. Nemigen foglalkoztam HDR-el eddig. Szerintem már Windows szinten egy vicc, kalibrálhatatlan vacak (DisplayCal fórumából kiindulva).
De ahogy elnézem OLED-en sincs még 1000 nit. De még csak a közelében sincsenek, szóval szerintem még jó pár évig nem kell ezzel foglalkoznom.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz hahakocka #44584 üzenetére
Közben meglett a ludas Steam fórumot böngészgetve: a HDR bekapcsolása után jönnek az artifact-ok és a szellemkép.
Nem értem miért olyan nehéz HDR-t implementálni, de a Frame Gen és a natív HDR - ebben a játékban - nem tud működni együtt. Vmi köze van a DLSS-hez, mert 3.1 után lett hirtelen szar. Na meg a játékban a ray tracing is az idei nyári patch után lett hirtelen szar.
A játékfejlesztőket lehet hibáztatni. 2023-as kommentek alapján. Tehát javítás már nem várható.
Hiába vártam két évet egy Steam akcióra, ez a játék nem tudta kiforrni magát hibátlanra.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz csaba951 #44582 üzenetére
Köszi!
E program szerint 3.7.0.0-val jött a játék (Steam-ről).
Amúgy ha már játékokról esik itt szó, azt nem tudja vki hol a szűk keresztmetszet, ha nincs egyértelmű GPU és CPU kihasználtság és a memóriák sincsenek tele?
De jóval a monitor frissítési frekvenciája alatt fut a játék (Hogwarts Legacy) helyenként és olyankor a GPU is csak 60-70%-on jár. Nem értem miért nem 100%-on van kihajtva a gép.
CPU szálak egyenként ki vannak listázva Afterburner-ben és egyik sem szaturál, ami megmagyarázná, hogy miért nincs kihajtva a GPU. A legelfoglaltabb szál is csak 70% körül mozog.
Vram 10/16GB, Ram 20/32 GB.
A játék nvme ssd-n van.
Ötlet?[ Szerkesztve ]
-
Teasüti
nagyúr
válasz Drizzt #44578 üzenetére
Nemtom, most üzemeltem be nem rég a 4070-et és Hogwarts Legacy a második alany. Hitman 3-ban nem vettem észre durva artifact-ot, de Hogwarts Legacy Ultra grafikán és FG-vel egy katasztrófa. Tele van artifact-tal, grafikai bug-gal és az UI-t se választották le az FG-ről. Vagyis szellemképes az UI a kamera forgatásakor. Csodálatos alkotás.
Amúgy a folyamatossággal nincs gond. Egy élmény 100+ fps-el játszani. De cserébe meg lett erőszakolva a grafika.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz gainwardgs #44575 üzenetére
RT nélkül nem lenne szükséged FG-re sem. Pláne nem egy 4090-en, ami raszterben mit nem tud futtatni csillió fps-el?
Nem, szerintem jól értelmeztem: "az meg hogy nélküle nincs elfogadható fps, hát gyönyörű".
Szóval, hogy megfelelő kontextusba helyezzem neked: már az egy csoda, hogy egyáltalán tudunk bármilyen ray tracing-et számolni valós időben. 73 fps az egy csoda egy konzumer számítógéptől.
Hadd érzékeltessem ezt a példát kicsit másképp: az első Avatar filmnek minden egyes képkockája 50-100 óra volt egy vmekkora render farmon.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz gainwardgs #44555 üzenetére
Ha van némi rálátásod mi is az a ray tracing és milyen története van, akkor talán rájöhetsz, hogy nem parasztvakításról van szó, hanem technológiai ugrásról. Az, hogy bármilyen hardveren ma valós időben tudják számolni, az már önmagában egy kisebb technikai csoda. Ennek fényében javaslom átértékelni az elvárásokat. Nem egy kétezer dolláros kártya kapcsán, hanem bármi kapcsán ami nem szuperszámítógép.
-
Teasüti
nagyúr
Ez jó kérdés. Gondolom eleinte megcsinálják így is úgy is.
Aztán később majd csak így lesz. Na meg ez talán megdobja majd a minőségét az indie játékoknak is.
Az egésznek az lenne a lényege, hogy ne kelljen szkriptelni, meg ne kelljen szöveget írni és szinkront készíteni. Tiszta haszon a stúdiónak, amit persze velünk fizettetnek ki majd az extra hardver árában, amit önként és dalolva újítunk be majd.[ Szerkesztve ]
-
Teasüti
nagyúr
Azt nem merték leírni mennyi gép kell alá.
Fentebb már épp temetik a 10 gigás kártyákat, erre a játék motoron felül még LLM-et is futtatni kéne.
Azt esetleg el tudnám képzelni, hogy kiszervezik egy második kártyára, ha már Nvidia. De iGPU befogása lenne a tökéletes, hisz az sok gépben csak parlagon hever - ram-ot meg egyszerűbb venni. Vagy úgyis jönnek a Copilot+ processzorok, adja magát a dolog pár év múlva. De ha már ilyen befektetést igényelnek, akkor már megvárom, amíg a komplett csomag helyileg kerül számításra. Ne kelljen már felhőre várni, legkevésbé előfizetni rá.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz KRoy19 #44496 üzenetére
Nem lenne motion blur, akkor ahogy mindenki OLED-re vált úgy lesz hirtelen nem folyamatos a 240 Hz se...
Régen a 60 fps PC Master Race korszakban az LCD-k utánhúzása is átlag 14 ms g2g idővel bírt, ami eleve összemosta a képet. Mai monitorok 1 ms g2g idővel bírnak és hirtelen a 60 fps is röcögős lett. OLED-nél már igencsak zavaró a VRR flicker, ami LCD-nél még nem okoz látható problémát. Szóval vagy megbarátkozol a motion blur egyik formájával, vagy vehetsz atomerőművet a leendő OLED panel mellé pár év múlva a stabil 480 Hz-re.#44498X2N
Mennyi embernek van otthon 16:9-nél szélesebb tévéje?[ Szerkesztve ]
-
Teasüti
nagyúr
válasz huskydog17 #44490 üzenetére
Mondjuk az, hogy külön kiemelik egy PC portnál, hogy lesz lehetőség 16:9-es képaránnyal játszani, hát ez azért elég gáz, ez kb. olyan, mint azt reklámoznák, hogy hé lehet majd felbontást állítani benne.
Előzetes alapján itt inkább csak arról van szó, hogy a mozis élményre tervezték a játékot.
Természetesen a többség úgyis 16:9-es megjelenítőn fog játszani, viszont gondolom a fekete csíkokkal lenne hű az alkotói szándékhoz, mint a moziban. -
Teasüti
nagyúr
Elmondták a videóban: állítólag natív HDR játékokkal tréningeztek. Ott ugye az alkotói szándéknak megfelelő tartalom kerül renderelésre (jelentsen ez akármit is Windows esetén, ahol a HDR támogatás külön vicc).
SDR-HDR-t hogyan konvertálsz? Bedobod Davinci-be grade-elni vagy vmi pár kattintásos trükköd van?[ Szerkesztve ]
-
Teasüti
nagyúr
Ha csak a videós tapasztalatokból indulok ki, hogy mennyi munka van egy jó grade-ben, akkor azért nem lehet annyival elintézni, hogy ráhúzunk egy tone mapping-get és kész.
Komoly meló még grading során is elkülöníteni a kiégést a valódi highlight-tól.
Meg aztán highlight és highlight között is van különbség a készítő szándéka szerint.
Pl egy napos ég az mehet max nit-re, meg úgy általában a nap okozta csillanások és fényforrások. De pl. animében a karakterek szeme fehérje (ami közel van a fehérhez, de azért még nem highlight) ne világítson már... Játékban meg ugye a relatív fényes területek se verjék ki az ember szemét, csak az az 1-5% highlight.
Mivel profi grader nem fog ott ülni az ember mellett, aki valós időben tologatja a csúszkákat és maszkol, ezért marad vmilyen AI becslés. Nincs ezzel baj. -
Teasüti
nagyúr
válasz hahakocka #44400 üzenetére
4070 Ti S
Userbenchmark szerint 32%-al tud többet a Ti S. Szóval fps-ben kb egy liga.
Hitman 3: Ultra, full RT, 4K DLSS Performance 120 fps és 90 1% low. Bocsi, frame gen is aktív az igaz. Hogwarts Legacy bőven 100 felett kimaxolva.
Csak úgy hirtelen ami van a gépemen RT-s játék.
Persze próbálgattam az RTX remix-eket is, mint a Portal RTX és Portal Prelude RTX global RT-vel.
Ezeknél keményebb RT jelenleg csak benchmark-ban van. Olyan 40-60 fps körül futnak 4K DLSS Performance módban (persze a csúszkák ésszerű határok között, pl. a fényvisszaverődés csak 2x-es).FHD-vel mi a probléma? 2021 óta 4K monitoron vagyok és pixel helyesen jeleníti meg az FHD-t. Bányász láz alatt egy 5700g Vega 8 hajtotta és volt, hogy nem hogy 1080p-n, de 720p-n játszottam és még az is pixel helyes képet adott. Másfél kartávolságból játszok a 32-es monitoron és nincs igazi hozzáadott értéke a 4K-nak egy mozgalmasabb jelenetnél. Csak a DLSS miatt megy 4K-ban - meg mert a Windows 10 bután kezeli a nem natív felbontásokat és a játékok nem mindig akarnak teljes képernyőre váltani alacsonyabb felbontáson. Főleg a régebbi címek. De a render felbontást továbbra is 1080p-n fogom hagyni. 4K az inkább asztali munkára kiváló. Böngészni, stb.
[ Szerkesztve ]
-
Teasüti
nagyúr
válasz Quadgame94 #44390 üzenetére
Nekem pl a 12 Gb Vram miatt volt 3060. Meg ugye Nv a videós képességek miatt. Cuda, Nvenc, Tensor magok. RTX csak hab a tortán. RT ezen a szinten csak mutatóban van. Max az olyan régi címeken alkalmazható értelmezhető teljesítmény mellett, mint mondjuk a Control.
-
Teasüti
nagyúr
Még csak béta. RTX HDR-en kívül semmi újítás nincs benne első blikkre, amit ne kapnánk meg a Geforce Experience-től. Persze nem kívánom lealacsonyítani ezt, hisz RTX Video HDR-t próbálgatva elég meggyőző és AMD-nek ilyen sincsen tudtommal. Én spec nem érzem át miért fáj az embereknek a régi UI dizájn az Nv Control Panel-ben. Bár én a Vezérlőpultot is gyászolom, szóval gondolom ez a korral jár már.
[ Szerkesztve ]
-
Teasüti
nagyúr
válasz hahakocka #44376 üzenetére
Mi köze a haszonnak a teljesítményhez? Ha többet adnak el belőle, ugyanúgy 15%-ot fölöznek le ezek szerint. Darabszámot úgyis a belépőszinten generál mindkét cég. Felső kategória az alig pár darab a belépőhöz képest. Na ott adjanak közepes teljesítményt alsó kategóriában. Másnak nem is nagyon lesz értelme az APU-k mellett. 4060 árban ha adnának 4070-nek megfelelő teljesítményt, a játékosok rácuppannának, mint tyúk a takonyra. Csak azt látnád YouTube szerte, hogy AMD best buy.
De amúgy ki állítja be az MSRP árakat? A chip gyártók vagy a vga gyártók? Mutogathatunk mi AMD-re meg Nv-re, ha igazából Asus, Gigabyte, MSI, stb. a felelős az árversenyért.Miért kell az Nv driver-nek megújulnia? Mi az, amit hiányolsz belőle? Egy dolga van: testre szabni a beállításokat. Az eye candy-t azt hagyjuk meg a TikTok generációnak!
[ Szerkesztve ]
-
Teasüti
nagyúr
válasz M@trixfan #44371 üzenetére
Eh, nem törik amíg 40 Hz felett tudom tartani. De azért abban a tartományban már érezni a lassúbb sebességet. Azért nem mennék vissza a 30 fps Xbox korszakba, na. Mondjuk annyi előnye lenne egy AMD kártyának Nv-vel szemben, hogy a legtöbb monitor az Freesync-es és nálam 20 Hz-ig le tudna menni, míg egy G-sync Compatible módban 40 Hz-nél megáll működni a VRR. De az a nagy helyzet, hogy igazából ez is mindegy mert se 40 fps-sel, de 20-szal meg végképp nem akarnék játszani. Nálam olyan 80 felett van a sweet spot a 144-es monitoron, ahol meg nem mondom a mozgásból, hogy nincs elég szufla.
De minél kisebb az fps, annál marginálisabb az a 15-20%. Mindkettő gyenge lesz, ez van.
Adjon 50%-al többet, az azért már látványos különbség![ Szerkesztve ]
-
Teasüti
nagyúr
válasz hahakocka #44360 üzenetére
15-20% előny fps-ben az nem elég ok számomra, hogy lemondjak az Nv ökoszisztémáról. Nekem teljesen mindegy, hogy 100 fps vagy 115 fps. Nem is látni a különbséget egy VRR monitoron. Ha meg 60 fps alatt vagyunk, akkor meg mindegy, hogy 50 vagy 60 fps, vagy 30 vs 35. Vicc. Egyik se lesz elég.
Hol van az Nvidia Broadcast AMD-s megfelelője? Videóhívásokat, video stream-et szűrök vele - de még videóvágáshoz is bevetettem - és jelentősen megdobja a felhasználói élményemet még a gagyi audióval rendelkező tartalomkészítőknél is. Többet "tévézek", mint játszok. Video Super Resolution is kafa.
Cuda is jobb támogatást élvez világszerte, mint az OpenCL.
Új AI láz is egész izgalmas, kíváncsian várom mi csöppen le asztali felhasználóknak.
Kép- és videószerkesztők már aktívan használják a Tensor magokat. AMD hogy áll e téren? Aztán ott a Raytracing. Alakul lassan de szinte biztosra vehető, hogy mire AMD felzárkózna, addigra Nv megint elhúz. Ahhoz hogy megfontoljam egy AMD kártya vásárlását, ahhoz vmi olyan előnyt kellene adnia, mint processzor szinten a 3D V-cache, ami máshol nincs és jelentős előnyt biztosít a konkuranciával szemben. Most jelenleg Intel vs AMD kapcsán aki nem AMD-t vesz, arra furán nézünk. VGA kapcsán viszont nincs semmi hozzáadott értéke egy AMD kártyának. Ha kizárólag játék a cél, még akkor is kevésnek érzek 15% különbséget. Annyit OC-vel be lehet hozni. Kínáljon olyan ajánlatot, amit nem lehet elutasítani és akkor tárgyalhatunk AMD-re váltásról. Olyan 50%-al több fps-t már nem utasítanék el ugyanazért a pénzért. Mindegy, hogy nincs hatékony RT, se Cuda, se Tensor mag.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz KRoy19 #44308 üzenetére
Épp most néztem Linus Tech Tips-en a 13900-ről egy videót. Direct die blokkal végre nem throttling-olt az első 5 másodperctől.
-
Teasüti
nagyúr
válasz huskydog17 #44295 üzenetére
AV1 dekóder már volt a 30-asokon is. Az enkóder került bele a 40-esekbe.
Ha használsz videó felskálázást, akkor vígan elfűtenek 100+ wattot is. -
Teasüti
nagyúr
válasz KAMELOT #44258 üzenetére
4070 Ti S már így is több VGA, mint amire szükségem van mind teljesítményben, mind árban. 4060-nál kicsivel többet szeretnék, de 16 GB-nál kevesebbet meg nem. Ha az 50-es széria nem tesz le vmi olyat az asztalra, ami a 40-es szériát okafogyottá teszi (mint anno a DLSS frame gen), akkor nincs mire várnom.
Közép kat. meg ha rá egy évre jön csak, akkor tulajdonképpen holnapután hozza a futár a 4070-et.
Sima teljesítmény skálázásra nem igazán figyelek. Sajnos patika mérlegen vannak kimérve az FPS-ek. Úgyis úgy áraznak majd biztos leszek benne, hogy nem lesz árelőnye a felső kategóriának ha csak a nyers erőt nézzük.#44256huskydog17
Jöhetne rá új DisplayPort is. Kicsit le vannak maradva a zöldek e téren. Igaz még elvagyunk az 1.4-el, de csak tömörítve megy ki rajta a 4K magas freki mellett.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz Alogonomus #44253 üzenetére
Ez így megy? Akkor felesleges várni. Köszi!
-
Teasüti
nagyúr
válasz hahakocka #44209 üzenetére
4K monitoron pixel perfect 1080p render felbontás ideálisnak tekinthető. De még a 720p-t is szépen rajzolja, ha muszáj neki. 1440p monitor az ahol nem adja ki a matek az alacsonyabb render felbontást. Évek óta 32"-os 4K-n vagyok és 1080p-ben játszok.
Olyan másfél kartávolságból nem látok igazi különbséget. Asztal az fasza 4K-ban, de egy játék/film, ahol van motion blur és a mozgásfelbontás az a béka feneke alatt van, nincs igazi hozzáadott értéke a 4K-nak szerintem. Persze ha szeretsz pixel peep-elni statikus képeken, akkor oké. De azt is megunja az ember a tutorial után.[ Szerkesztve ]
-
Teasüti
nagyúr
Hali!
Lehet már tudni vmit a következő generációról, hogy milyen újításokat hoz?
Hoz vmi egyedit, amit a mostani gen nem fog támogatni?
Szemezek egy 4070 S Ti egyeddel és 2025 elég messze van még.
De ha megint kimarad a mostani gen vmi szaftos fícsörből (akár RTX, akár AI, akár NVENC, akár játék), akkor mégis csak meg kéne várni az újat.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.