-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
X2N
őstag
válasz Teasüti #45623 üzenetére
Cuda magok:
Alapvető aritmetikai műveletek
A CUDA magok képesek végrehajtani a legegyszerűbb aritmetikai műveleteket, mint az összeadás, kivonás, szorzás, osztás, maradékképzés stb., mind integer, mind lebegőpontos (float) formátumban.
Lebegőpontos számítások
A CUDA magok támogatják az IEEE 754 szabvány szerinti lebegőpontos számításokat (32-bit single-precision, 64-bit double-precision), így kiválóan alkalmasak például fizikai szimulációk és tudományos számítások elvégzésére, ahol nagy pontosságú lebegőpontos számításokra van szükség.Vektor- és mátrixműveletek
Bár a mátrixműveletek gyorsítására a tensor magok jobban optimalizáltak, a CUDA magok szintén képesek vektor- és mátrixműveletekre, amelyek hasznosak grafikai feldolgozásban, képfeldolgozásban és gépi tanulásban.Logikai és bitekkel végzett műveletek
A CUDA magok támogatják a logikai műveleteket (AND, OR, NOT, XOR stb.), valamint a bitekkel végzett műveleteket (pl. shiftelés), amelyek gyakoriak kriptográfiai számításokban és adatmanipulációs feladatokban.Komplex számítások és trigonometrikus műveletek
Speciális funkciók, például trigonometrikus, exponenciális, logaritmikus és gyök-számítások is végrehajthatók CUDA magokkal, ami különösen hasznos a számítógépes grafikában és a jelfeldolgozásban.Memóriakezelés és adatmozgatás
A CUDA magok optimalizáltak a memóriaműveletekhez, például adatmásolásra a GPU memóriáján belül, illetve a GPU és CPU közötti adatforgalom kezelésére is. Emellett különleges struktúrák segítik őket az adatcserében, például a shared memory és register-ek.Párhuzamosítás és szálkezelés
A CUDA magok képesek nagyszámú párhuzamos szál (thread) kezelésére, így egyszerre több ezer szál futtatható, és hatékonyan tudják kezelni a párhuzamosítást. Ez különösen fontos például kép- és videofeldolgozás, valamint deep learning feladatok esetében.RT Magok:
Sugár-háromszög metszéspont-számítás: Ez a művelet magában foglalja a fénysugarak és háromszögek közötti metszéspont-számítást, ami vektoros műveletekre, pont-vektor szorzatokra és geometriai összefüggésekre épül, nem pedig tipikus mátrixszorzásokra. A cél itt az, hogy gyorsan meghatározzák, hol találkozik a fénysugár a 3D-s objektumokkal.Bounding Volume Hierarchy (BVH): A BVH egy adatstruktúra, amely hierarchikus „dobozokat” használ (általában axis-aligned bounding boxes – AABB), hogy gyorsan kizárja azokat a tárgyakat, amelyek nincsenek a sugár útjában. Ez inkább keresési és összehasonlítási műveletekre épít, és nem igényel klasszikus mátrixszorzásokat.
Optimalizált párhuzamosítás: Az RT magok rendkívül párhuzamosított feldolgozást végeznek, hiszen minden egyes sugár és metszéspont-számítás önállóan is feldolgozható. Bár a gyors párhuzamos feldolgozás a mátrixműveletekhez is hasonló architektúrát igényel, az RT magok feladatai nem redukálhatóak a hagyományos mátrixszorzásokra.
Kössz Chatgpt. -
X2N
őstag
válasz Teasüti #45619 üzenetére
Cuda magon megy a nagy része de az RT magok is segítenek, főleg a komplexebb jeleneteknél. Ez az amit én is tudni szeretnék csak nem fog kiderülni soha mert nem lehet lemérni. Linkeltem régebbről tesztet, Blender-ben az kb 1.9X gyorsabb minden újabb generáció az előzőhöz képest(persze nem azonos Cuda szám mellett), ezt a 20-30-40-es generáció váltásnál is hozták. Ha engem kérdezel ez kevés. 10X-ezni kellene minden évben az előző generáció teljesítményét, akkor lehetne 10-20 éven belül minden játékot raytracelni ahogy jelenleg csináljuk. Kicsit korán van még ehhez, nem tartanak itt a hardverek. Persze most már van értelme hogy csak pl. a tükröződéseket számoltassuk RT-vel amit raszterben amúgy sem lehet normálisan megcsinálni és baromi teljesítményigényes.
Persze ettől jobban nem fog kinézni mert ahogy írod is eddig raszterben a művészek készítették el a bevilágítást, RT-nél meg a valóságot fogjuk szimulálni ami sokszor nem lesz olyan eyecandy...hacsak nem lesz ugyanúgy plusz munkával művészivé alakítva ahogy egy portréfotós bevilágít egy személyt.[ Szerkesztve ]
-
-=RelakS=-
veterán
válasz Teasüti #44921 üzenetére
Azért, mert a kép áll, a szemed viszont mozog.
Nyisd meg az UFO teszt weboldalt, és kövesd a szemeddel a 15fps ufót. Elég randán ugrál, és elég nagyokat, igaz? Na, 120Hz-en ugyanez történik, csak nem 15-ször, hanem 120-szor ugrik az ufó, és 8-ad akkorát. Ezt a szemed már elmosódásként fogja feldolgozni.Amit beraktál tesztképet, ott pont az lenne a lényeg, hogy megmutassák, hogy mozgás közben mennyire mosódik el a kép, így hosszú záridőt fognak használni, egyszerre több képfrissítés is a képre kerül. A kamera együtt mozog a képpel. Minél magasabb a kijelző frissítése, annál élesebb lesz a kép. Minél tovább van egy képkocka megjelenítve, annál szélesebb téglalap fog egy szürke masszává összeolvadni (a képen a 8-as, ami 120Hz-es képfrissítésre enged következtetni, de mintha ezt is írtad volna) Ha van BFI, akkor természetesen rövidebb ideig jelenik meg a kép, keskenyebb téglalapok fognak összeolvadni (pl a képen ez lehetne 60Hz-es kijelző is, 1:1 BFI-vel)
RTIGS pursuit photo olvasnivaló
X2N
próbáltam backlight strobingot, tényleg jó éles, de a panelemen nem kompenzálják a fényerőt, szóval maradok a 240Hz-nél[ Szerkesztve ]
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
-
PuMbA
titán
válasz Teasüti #44916 üzenetére
Az OLED pont ugyanúgy viselkedik ebből a szempontból, mint az LCD. Igaz hogy insant jelenít meg képet, tehát nem csinál valamennyi plusz utánhúzást, mint az LCD, de ugyanúgy sample and hold megjelenítő, mint az LCD, tehát két kép között nem kapsz feketeséget, ami alaphelyzetbe állítaná a retinát, mint a CRT. Ezért az OLED-nél is szükséges a magasabb frissítési ráta, hogy CRT-vel vetekedjen. Nem véletlenül vannak 480Hz-es OLED-ek. Ezek már szinte CRT szintet hoznak.
[ Szerkesztve ]
-
PuMbA
titán
válasz Teasüti #44904 üzenetére
Azt se felejtsük el, hogy a grafikonon szereplő játékok nagy része ősrégi Witcher 3? RDR2? Battlefield V? 5+ éves játékok, jó hogy futnak 4K 60fps-sel egy olcsó VGA-n. Ez a grafikon teljesen értelmetlen 2024-ben. Ha teleraknánk csak tavalyi és ebben az évben megjelent játékokkal, akkor teljesen más eredményt kapnánk.
Másrészt amit mondasz....4K 60fps jó, ha főleg állóképet nézel, de mozgás közben egy 1440p 165Hz sokkal tisztább képet ad az LCD és az OLED mozgás
[ Szerkesztve ]
-
X2N
őstag
válasz Teasüti #44908 üzenetére
Napi szinten raytracelt 3D renderelt képeket generálok úgyhogy van róla némi fogalmam . Ezért vettem 16 magos procit, meg 24GB vramos vga-t, mert csomó ideig nem lehetett több vram-al nvidia kártyát venni...Amit ma játékokba látsz az meg se közelíti azt a minőséget amit raytracingelni lehetne, ha lenne elég erős hardver rá. Mert ez a cél nem? CGI film minőségű render...4k felbontáson(pedig filmre is csak 1080p-be renderelnek a pénz/idő miatt... Én pont a tükröződéseket szeretem jobban mint az árnyékokat. Legtöbben szerintem le se sz.rják milyenek az árnyékok, mert alapvetően senki nem szokta nézegetni hétköznap hogy vet árnyákot a nap egyes tárgyakra, ezért nem is tudja a legtöbb ember hogy kellene kinéznie játékban. Míg a tükröződést mindenki tudja hogy kellene kinéznie, messze nem úgy ahogy raszterbe alacsony felbontással trükközve megoldva és nem csak tükrök vannak a játékokban hanem rengeteg vizes felület a karakterek bőrén/szemén is kell tükröződést számolni, ...a GI persze alap, azt össze se lehet hasonlítani a raszterizációval.
[ Szerkesztve ]
-
félisten
válasz Teasüti #44908 üzenetére
Hu tesztre gondolsz? ha jól tudom itt lehet kikeresgetni őket : [link]
A HU tesztnél problémás volt az MSI kártyájuk,de ezt el is mondják ha jól tudom a 4080 super tesztben korrigálták a 4007 Ti super eredményeket, itt : [link][ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
X2N
őstag
válasz Teasüti #44902 üzenetére
Alig gyorsabb 4070Ti super nem ér meg +160ezret szerintem a 7800 XT-hez képest. Nem kell 4090 4K-ra a teljes játékélményhez. Itt is 70 az átlag, úgy hogy mindent feltettek maximális beállításra, abból meg lehet még visszavenni...jellemzően 1-2 grafikai opciót kell visszább venni, cyperpunknál is 1-2 grafikai opciót visszaveszel high-ra és stabil 60fps-ed van. Ha így állunk hozzá hogy raytrécing kell akkor kb semmi se jó csak a 4090 de az csak 1080p-re maximum szódával elmegy kategória...4K-t raytracingel el lehet felejteni még 15-20 évig... erre a jelenlegi kártyák is teljesen alkalmatlanok.
[ Szerkesztve ]
-
X2N
őstag
válasz Teasüti #44894 üzenetére
200eFt-ért kapsz olyan vga-t amivel 4K-n 60-al tudsz játszani kb mindennel. A többség mégse akar váltani 1060-2060-3060-ról mert még ennyi teljesítmény se kell neki ilyen áron/nem kell neki az alacsonyabb felbontás miatt. Olcsóbb kártyát meg nem érdemes venni mert nem jelentős előrelépés. Pedig azt gondolnád ha elterjedtek a 4K TV-k akkor majd PC-n is váltanak nagyobb felbontásra, nem így lett. Most Steam statisztikából látszik hogy jobban terjed már a 4K kijelző mint a 1440p-s, pedig az utóbbiból van 4x annyi mint 4K-s kijelzőből.
[ Szerkesztve ]
-
válasz Teasüti #44853 üzenetére
Igen, kell neki átfújás. Nem egy nagy dolog. A cmp100hx-et is arányaiban könnyű volt hűteni. Sok ilyen kártyám volt.
Pl tesla m40 simán halkra építhető volt több ventivel.
Alacsonyabb órajelen mennek és bazi nagy a felületük, meg szokott lenni front és backplate is, jobb minőségű mint az átlag asztali kártyák.
HBM eleve kevésbé melegszik mint a kályha GDDR6X.
A gond az hogy sok hely kell a hűtésnek, normál házba nem is biztos hogy elfér.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz Teasüti #44844 üzenetére
A Snowdrop 2 DXR 1.1-et használ metszésvizsgálatra, de szoftveres compute shadert bejárásra. Emiatt olyan nagyon gyors rajta az RT, hogy ki se kell kapcsolni. Ettől még hardveres a rendszer, csak azt a részegységet nem használja, amitől a DXR jellemzően nagyon lassú. A DXR-nek a hasznos és gyorsan futó részeit használják.
Az SWO annyiban más, hogy abban van egy külön effekt, ami nem szoftveres bejárást használ, viszont az teljesen különálló gyorsítóstruktúrát generál, mert nem kompatibilis a többi effekt a DXR gyorsítóstruktúrájával. Ez azért van, mert az RTXDI zárt effekt, annak nincs meg a forráskódja az Ubisoftnak, így nem tudják begyorsítani a saját módszerükkel. És ezt ki is lehet próbálni, hogy RTXDI-ra erősen esik a sebesség, mert rá vannak kényszerítve a DXR lassan működő részére. A többi, saját effektnél nincsenek, így azokat nagyon-nagyon gyorsan tudják futtatni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
PuMbA
titán
válasz Teasüti #44839 üzenetére
A #44823-es hozzászólásban lévő cikkben elmondja a fejlesztő, hogy az Avatar-ban:
"Digital Foundry: On PC with the DXR ray tracing API, you've got 1.0 and 1.1 inline variants. How are you doing it on PC?
Oleksandr Koshlo: We're using 1.1 inline. This was really crucial for us, as we decided early on that ray tracing is going to work for us and we can ship with it by avoiding all the shading divergence. So DXR 1.1 allows us to do it in a very similar fashion to how we're doing it on the consoles. It's basically just changing instructions. With the average materials, that is definitely enough for us."
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz Teasüti #44818 üzenetére
Igazából a gond az, hogy a hardverhez igazodik az API, és az nem jelent túl jó programozhatóságot. Enélkül meg megette a fene, egy csomó dolog megvalósíthatatlan.
A dolog sokban hasonlít a T&L-re. Ott is jó volt az újítás, de annyira limitált volt a programozhatóság hiánya, hogy gyorsan ment is a T&L, ki is került a fixfunkciós hardver a GPU-kból a következő körben. Nagyjából ugyanez lesz most is, a programozhatósággal a fixfunkciós hardver egy része megy, mert nem hasznos.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
PuMbA
titán
-
HookR
addikt
válasz Teasüti #44797 üzenetére
"Eeegen, az a játék is rajta volt a radaromon. Sony tudja jól, hogy mit nem szabad kiadni Playstation PC-re. Pedig első napos vétel lenne nálam Steam-en az eredeti LBP"
Sackboy™: A Big Adventure▌www.thunderbolts.info | youtube.com/ThunderboltsProject ▌16personalities.com▐
-
X2N
őstag
válasz Teasüti #44799 üzenetére
Most éppen a openMorrowind-et tolom HRTF audio-val, de a Skyrimhez is létezik hasonló mod. Sokat hozzád az élményhez Pedig ez még fapad egy RT-s térhang szimulációhoz képest. Hogwarts-os fejlesztők mentségére legyen az hogy az első komolyabb játékuk csak.
[ Szerkesztve ]
-
PuMbA
titán
válasz Teasüti #44788 üzenetére
Little Big Planet volt ilyen a jó öreg PS3-ra. Itt gondolom nem az NVIDIA GPU-n ment a fizika, hanem a Cell procin.
[ Szerkesztve ]
-
KRoy19
őstag
válasz Teasüti #44793 üzenetére
Ma is létezik játszható formában, lásd CP2077. Nem kell hogy 100%-osan realisztikusan legyen szimulálva a fény, mert egy ponton alig látni különbséget. Volt egy Vidi erről egy CP mód segítségével, hogy kb. 4ray és 2 bounce a sweetspot, mert hiába adsz hozzá több rayt-t vagy bounce-ot, a képminőség szinte alig változik, a teljesítmény viszont drasztikusan csökken.
-
KRoy19
őstag
válasz Teasüti #44788 üzenetére
"Ahol a vízzel kellett egyensúlyozni egy libikókát, egyedül ott volt szükség némi fizikára. Mindenhol máshol ha simán eltünteted a játékból, egyáltalán nem változna a játék."
Na ezzel én nagyon nem értek egyet. Igenis marha sokat változna a játék, mert számomra sokkal érdekesebb, ha ennyire interakcióba lehet lépni a környezettel, még akkor is, ha nincs kimondott funkciója. Rohadt gagyi érzés a mai játékokban, hogy szinte minden statikus és a nullához közeli a környezettel való interakció lehetősége.
[ Szerkesztve ]
-
Teasüti
nagyúr
válasz Teasüti #44788 üzenetére
Lehet Red Redemption 2 esetén hallottam ezt, hogy ott pl. a Benchmark-ra nem annyira szeretnek alapozni a tesztelők vmilyen aspektusból. Oka, hogy nem megismételhető a benchmark, mert a fizikai számítások minden futtatáskor más eredményt adnak és így a komplexitás is kicsit eltérő.
-
Abu85
HÁZIGAZDA
válasz Teasüti #44769 üzenetére
Nincs. Meg nem is ez a PhysX 4-5 fő célterülete, hanem azok az egyedi igények, amik az ipar 4.0-ból erednek.
Ezt amúgy jól látta az NVIDIA. Azért ők sem voltak vakok abból a szempontból, hogy a compute shader átveszi majd az uralmat a GPU-s fizikai effekteknél. Tehát akármit is kínálnak később, az versenyképtelen lesz az egyedi megoldásokkal szemben. Szóval elvitték arra a PhysX-et, ahova még el lehet adni. A másik lehetőség a beszántás volt, gondolom azt még nem akarták meglépni. De az nyilvánvaló volt számukra viszonylag gyorsan, hogy a gaming szintjén a GPU-s PhysX-nek leáldozott, és léptek is, hogy akkor majd kezdenek a technikával valami mást.
Nyilván valamilyen szinten kötöttek kompromisszumokat is, például régebbi PhysX modulokat kivettek a meghajtóból, ami miatt a nagyon régi verziót használó játékok már instabilak is. Erre alig reagáltak a fejlesztők, de például a Warframe reagált rá azzal, hogy lecserélték a GPU-s PhysX-et. A legtöbb játék viszont egyjátékos volt, a játékosbázis rég lecsökkent arra a szintre, hogy ezt nem érdemes tovább karbantartani, majd a user kikapcsolja, ha fagy a program. Viszont erről mindig kaptak tájékoztatást a fejlesztők, hogy mi változott, és mi nem fog a jövőben stabilan működni, csak nincs hajlandóság ezekhez igazodni. Egyszerűen túl drága több éve megjelent játékokat egy maréknyi userért karbantartani. A Warframe annyiban lehetet más, hogy az multi volt, és ott azért még megvolt a játékosbázis.
Egyébként itt jó hír, hogy a 3.4-es verzióval a fejlesztők is szállíthatnak a játékban modult a hardverekhez. És ezt azért intézte így az NV, hogy ha majd végleg kiveszik a GPU-s PhysX supportot a driverből, akkor a fejlesztők fel tudják frissíteni a modult a régi játékokban 3.4-re, és egy patch-csel szállíthatnak saját binárist. Na most persze az megint kérdés, hogy ezt hányan fogják megtenni, de az NV mondhatja azt, hogy mossa kezeit, mert ők megadták erre a lehetőséget. Ez a bináris addig működni fog, amíg a futtatását meg tudja oldani az új architektúra. Ha viszont ez sokat változik, akkor ennek is lőttek.Egyébként, ha valakit érdekel, akkor az NV szerint a 373.06-os driver a váltópont. Ha nagyon régi a GPU-s PhysX játék, és instabil az új driverekkel, akkor vissza kell rakni egy 373.06 előtti meghajtót, és azzal stabil marad. A 373.06-től a játékot kell frissíteni, ha nagyon régi a PhysX modulja. Nyilván ez az új hardvereknél nem megoldható, és ebből kitalálható, hogy az NVIDIA miért nem említi többet a GPU-s PhysX-et.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Teasüti #44761 üzenetére
Semelyik motor nem használja azt a modult alapértelmezetten, mert licencköteles. Csak CPU-s PhysX-et használnak a motorok alapból, mert az viszont ingyenes.
Ha amúgy sokan használnák, akkor az NV-nek is megérné karbantartani, de az utolsó játék, ami használja sok-sok évvel korábban jött ki. Így egyszerűen a modul karbantartása a driverben csak egy masszív pénznyelő, mert nincs mi használja. Ezeknek mindig ugyanaz a sorsuk, idővel kikerülnek, mert felesleges erőforrást ülni bele, ha a játékok nem nyúlnak hozzá. A kérdés a mikor, de valószínűleg pár éven belül ki lesz műtve. Valószínűleg azt várják, hogy kifusson az utolsó GeForce sorozat, amivel ezt még hivatalosan reklámozták, ami a Maxwell generáció volt. Az Ampere tulajok már nem reklamálhatnak, mert az NV vissza tudja mondani, hogy sosem ígértek nekik sehol sem GPU-s PhysX-et. Maximum működött, de ígéretként sehol sem volt kiemelve. És ezzel az NV bevédi magát a perektől, ha lennének.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
huskydog17
addikt
válasz Teasüti #44740 üzenetére
Ez nem ilyen egyszerű. A PhysX régen a 3.4-es verzióval brutál nagyot gyorsult CPU fronton, később viszont, a 4-es és 5-ös verziókban több dologra is használhatsz GPU gyorsítást a CPU számítások mellett tehát, nem úgy van, mint régen, hogy csak CPU vagy csak GPU-t használsz, ma már a hibrid megoldással nem lehet tudni, hogy melyik játék használ GPU gyorsítást a fizikában. Egyrészt sok száz UE és Unity játék alapértelmezetten PhysX-et használ, azt nem tudhatjuk, hogy ezek közül használ-e valamelyik GPU gyorsítást valamilyen fizikai számolásra.
"Illetve mutass egy olyan húzó címet, ahol a játékmenet szerves része a fizika!
Kizárólag Havok-ra jött olyan cím, ahol a fizika megkerülhetetlen része volt a játéknak."Nem tudom neked mi számít húzócímnek, de szerintem nem is kell annak lennie, de például az X-Morph Defense című játékban a játékmenet szerves részét képezi a fizika és az PhysX 3.4-et használ. Abban a játékban kulcsfontosságú, hogy egy épületet hogyan rombolsz szét, mert attól függően fog ledőlni és nem mindegy merre dől.
"Több száz használ PhysX SDK-t az igaz. Ezek közül mennyi használ hardveres PhysX-et a CPU helyett?"
Igazából több száz helyett kb. 10.000
Ahogy írtam, ma már nincs értelme különbséget tenni, hiszen a PhysX SDK-val több részfeladatot meg lehet oldani GPU gyorsítással, arról nincs információ, hogy mely játékok ezek, hiszen a fejlesztők ezt nem reklámozzák ami logikus, hiszen ez ma már alap dolog. Attól, hogy egy fejlesztő nem reklámozza, lehet hogy használnak némi GPU gyorsítást, nem tudjuk, de nem is fontos. Sokaknak azért fontos, mert akkor régen a GPU gyorsítással értek el látványos fizikai szimulációt, melyeket ma mér a CPU is simán megold, ugyanolyan gyorsan (lásd a korábban említett 3.4-es verzió).
Egy másik, népszerű indie alkotás a Kerbal Space Program, ami szintén PhysX-et használ, hiszen az a Unity motor alapértelmezett 3D fizikai motorja. Ez csak két kiragadott példa volt, ahol a fizika szerves része a játékmenetnek.Nem az a fontos, hogy használja-e valamelyik játék a GPU gyorsítást, mert a 10.000 játékból nagy valószínűséggel sok használja. Inkább az a kérdés, hogy a fejlesztők túlnyomó többsége miért nem használja ki az SDK és egyéb fizikai motorok adottságait. Nem sokat látunk a fizikai motorok képességeiből játékokban. Nyilván van jó néhány, amely fizikára épít játékmenetet szempontból, ezek túlnyomó többsége indie alkotás.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
FLATRONW
őstag
válasz Teasüti #44733 üzenetére
Nekem bőven megfelelt az is amit csak a látványhoz adott. Nélküle pl. a Batman játékok rettenetesen sterilek voltak. Sajnálom, hogy nem jönnek már ilyen játékok.
Busterftw:
Szoftveres PhysX-et igen, mivel már része volt az Unreal 3-nak is. Hardveres PhysX-et kb. 40.[ Szerkesztve ]
-
KRoy19
őstag
válasz Teasüti #44733 üzenetére
Igen, ez az általános fizika elhanyagolás a játékokban nekem is nagy szívfájdalmam. Emlészem kb. 15 éve amikor láttam az Ageia Physx demókat azt gondoltam ,hogy alig várom, hogy ilyen menő fizika legyen a játékokban.
Erre itt vagyunk 2024-ben és a legtöbb játékban gagyibb a fizika, mint némelyik 10-15 éves játékban.
Kicsit elmehetne a fejlődés ebbe az irányba is, mert jó cucc a Ray Tracing, de azért nem ártana a fizika szempontjából is fejlődni.[ Szerkesztve ]
-
X2N
őstag
válasz Teasüti #44726 üzenetére
Régebben akadt egy Ageia nevű cég aki pont ilyen kártyákat csinált, aztán felvásárolta valaki. Kár érte. Kiváló Ügynök Volt!
Ha már itt tartunk raytracingre miért nincs dedikált gyorsító?
Értem én hogy 800eFt-ba csak egy 609 mm² szilícium lapka fér bele 5nm-en, abba meg nem csak rt egység van. De van több pcie slot a gépemen még 2 is ahova betudnák tenni ilyen kártyákat. Gyárthatnák a dedikált egységet csak rt gyorsításra mondjuk 7nm-en és 2 ilyen kártyát is tehetnék gépbe a fő gpu mellé...[ Szerkesztve ]
-
X2N
őstag
válasz Teasüti #44722 üzenetére
Én modolom magamnak. Mért is ne tenném? A fejlesztők általános konfigokra optimalizálnak nem az én gépemre, amiben van mondjuk 16 mag meg egy csúcskártya, lehet nálam elbír sokkal több npc-t mondjuk a CP2077 mint az átlag 8 magos rendszereknél. Szeretek tweakelni. Így sokkal jobb modolva. Nálam ez alap dolog, ha lehet akkor legjobb framerate-el és kinézettel szeretném tolni a lehetőségekhez képest. CP2077-nél is kipróbáltam az összes raytracing/path tracing optimalizáló modot, sikerült is úgy megcsinálni hogy full path tracingel fusson 1080p-n 45+ fps-el, abból tudok felskálázni 4K-ra, jó minőséggel, nem úgy mint aki ennél sokkal rosszabb felbontásról skáláz fel 1080-1440p-re. 20+ éve modolok minden játékban ahol lehet. Ezért nem lesz soha konzolom, ott ez nem opció.
[ Szerkesztve ]
-
X2N
őstag
válasz Teasüti #44720 üzenetére
Skyrim-nél ki lehetett kapcsolni ha akartad, megvolt a lehetőség. Itt meg nem. Force-olva van. Ez nem művészi kérdés. Mesélhetnék neked arról hogy a Betheasda hogy rontotta el a Skyrim sokadik kiadott verziójának textúráinak a tömörítését úgy hogy több vramot is foglalt a végére és még rosszabbul is nézett ki...Fallout 4K textúracsomagja is csak fel volt skálázva és foglalt vagy 80GB-ot. Én meg nexusról összeszedegettem a jobb csomagokat, el se hitted volna hogy az a Fallout 4 ha élőben látod.
[ Szerkesztve ]
-
X2N
őstag
válasz Teasüti #44718 üzenetére
Amíg nem kapcsolod le a TAA-t a játékban addig úgy sem fogod látni hogy kell kinéznie valódi formájában...várjuk az összehasonlítást a gyári és a lekapcsolt TAA-val.
Sajnos sok új játék vignette, élesítés, színprofilt stb effekteket rátesz a képre...
Én is fotózik/videózok. Csak ha lehet .png-be mentsd a képet ne .jpeg-be.[ Szerkesztve ]
-
X2N
őstag
válasz Teasüti #44712 üzenetére
Azt a zajtengert ugyanúgy az nvidia is elköveti ha kikapcsolod a denoisert, de nem ez a lényeg. Lehetnének jobbak is a textúrák ebben a Hogwarts Legacy-ban de elnézem nekik mert ez az első komolyabb játékuk, pár GB-os textúra moddal biztos fel lehetne húzni jelentősen a környezet kinézetét, elég lenne csak AI-al felskálázni az összes textúrát.
-
Teasüti
nagyúr
válasz Teasüti #44707 üzenetére
Én most így teljes képernyőn váltogattam képnézegetőben a folyosó jelenetben a 4K és a DLSS Performance (1080p) között oda-vissza. DLSS képe nekem jobban tetszik, mint a natív. A kontúrok jobban ki vannak húzva, részletvesztést sehol sem látok az RT effekten kívül. Pedig ezt most nagyítóval kerestem.
Szerintem AI skálázás a jövő. Nekem nincs kifogásom ellene. Hagyományos AA-nak lejárt az ideje. AI kontúrosabb képet készít, mint a natív render. FPS nyeresége is van. Artifact egyre kevesebb, ami akció közben úgyse szúr szemet. Én nem értem miért kardoskodik ellene a nép. Igaz hosszú utat járt be és döcögős volt, de ha a Control volt az utolsó összehasonlítási alap, akkor azóta kijött két fő verzió.[ Szerkesztve ]
-
-=RelakS=-
veterán
válasz Teasüti #44691 üzenetére
Nekem 42"-on bevált
Legalább két játékban a DLSS felskálázás is bejött.
Eddig csak a wukong majomban láttam framegent, az is FSR, de ha nem azt néztem, ahol tudtam, hogy biztos ócska lesz, akkor az is meglepően jól nézett ki.
[ Szerkesztve ]
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
X2N
őstag
válasz Teasüti #44694 üzenetére
2.0-t láttam Control,CP2077 alatt amíg volt ilyen kártyám(RTX2060). Az a baj vele hogy ez mindig azzal jár hogy akkor felskálázunk és megy rá az élsimítás. Nem lesz továbbra sem ilyen minősége mint ennek:
Magamat ismerve megmondanám hogy be-van-e kapcsolva. De ezért nem fogok most egy 4090-est venni. 4K RT DLSS-nélkül azt is megfekteti.Mosott a képe minden játéknak amiben van élsimítás. Ez a baj.
[ Szerkesztve ]
-
X2N
őstag
válasz Teasüti #44689 üzenetére
4x részletesebb kép? Ez semmi? Ha kisebb monitorod van, 24-27" akkor 182-165ppi ami miatt nem kell AA-t használnod? Ha felteszek jó minőségű 4K textúra modokat játékon belül még a padlón is látom a repedéseket olyan részletes a kép CP2077-nél. Fegyver távcső az nem recés kör alakú valami, hanem szép kör alakú. Windows 2x-es skálázással gyönyörű betűk? Ezt mobilon is látjátok milyen, ott is ~-480ppi-van. Nincs semmi baj a "mozgás felbontással" persze mindig lehetne jobb a pixel refresh time de oledet nem gyártanak csak 27-es méretben, nekem meg kisebb lenne jó ilyen felbontással, vagy ha nagy akkor 8K 32"...azt tökéletes lenne.
Ezzel szemben mi előnye van a képminőség szempontjából a FG-nek? Hogy minden második harmadik kép legyen egy hibás interpolált kép? Van az oled TV-n interpoláció, látom mit csinál mozgás közben a képpel, inkább kikapcsoltam, nem az én világom.[ Szerkesztve ]
-
hahakocka
őstag
válasz Teasüti #44585 üzenetére
Igen egy újabb effekt ami sokszor amúgy tényleg az adott engine-en és az azt készítő majd az RT beleimplementáló fejlesztőktől függ sajna. De amúgy most szép az a lényeg jó? HDR nem tudom mennyire éri meg a játékokban de filmek esetén már csak úgy nézek filmet. 4K HDR meg elvileg még jobb. S egyik kollégám meg most 4K ba játszik agyon dícséri nem gondolta hogy ekkora ugrás lesz 1080p ről. Pont ma mesélte reggel. Csak hát ott nem lesz 140 fps.... Sajna.
-
csaba951
veterán
válasz Teasüti #44579 üzenetére
Interneten azt találtam, hogy a Hogwarts Legacy DLSS 2.3.1-et használ. Nézd meg a legújabb DLSS 3.7.20-al.
Hogwarts Legacy-t bezárod.
DLSS Swapper
Letöltöd innen. Library ikonra kattintva letöltöd a legújabb DLSS-t, Games ikonnál jobb szélen Refesh gomb, a megjelenő játékoknál a Hogwarts Legacy-ra bal klikkelve lecseréled a legújabbra.Hogwarts Legacy-t elindítod.
-
KRoy19
őstag
válasz Teasüti #44577 üzenetére
Mindig minden fejlődéssel szemben lesz valamennyi ellenállás. Ilyenek az emberek. Ilyenkor mindig az a elektromos áram elterjedésének hajnalából származó propaganda rajzok jutnak eszembe, ahol lerajzolták, hogy az emberek majd jól feltekerednek vezetékekre és ott pusztulnak.
[ Szerkesztve ]
-
-
félisten
válasz Teasüti #44550 üzenetére
Az egy dolog, én a megvalósítására leszek kíváncsi. hogy kell ezt elképzelni? akinek nvidia kártyája lesz, tensor magokkal az más párbeszédeket kap valós időben generálva más játékélményt stb? vagy a teljesítmény esik vissza ott jobban? ha jól tudom AMD-n csak a 8000 szériában lesz erre külön egység CPU ban meg a most érkezőkben.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
X2N
őstag
válasz Teasüti #44494 üzenetére
Gondolom a TV-ken képzelték el a fejlesztők játékot, konzol amúgy is az elsődleges platform, ha nem tenné bele az nvidia a pénzt nem lenne benne RT az nvidia kártyákhoz.
"Optimized for Intel Core 14th Gen Processors", "16:9 Display Option", "Ultrawide support" Mindig gyanús ha ilyen alap dolgokat marketingelnek. Én szkeptikus vagyok már nagyon sajnos, ezzel a játékkal kapcsolatban is. Stalker 2-t még megvárom aztán adom el a gépet...túlzás volt megvenni ilyen játékok miatt mint a legutóbbi 5 órás séta szimulátor Hellblade 2...
Lassan azt fogják már reklámozni hogy a billentyűzet kiosztást is lehet változtatni PC-n....[ Szerkesztve ]
-
huskydog17
addikt
válasz Teasüti #44494 üzenetére
Remélem egy nap eltűnnek azok a fejlesztők a játékiparból, akik moziélményt akarnak erőltetni egy videojátékba. Az olyanok menjenek a filmiparba, ott nem tudnak kárt tenni és akik mozit akarnak nézni, menjenek moziba.
A Hellblade 2 fejlesztői pedig pályát tévesztettek. Úgy tűnik az Ubi tanult abból a Ninja Theory hibájából és nem követik el ugyanazt a baklövést.Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
-
lenox
veterán
válasz Teasüti #44467 üzenetére
Mivel tanitottak az AI-t, amihez modelt kellett optimalizalni? SDR jatekban highlightokat es valodi kiegest kereteztettek sok dolgozoval, es aztan ezt etettek be? Es most az AI szegmentalja a kepet es ugy upmappel? Nem hinnem. Vagy felvettek egy csomo jatekorat SDR-ben es HDR-ben, es azzal tanitottak egy modelt? Annak meg nem sok ertelme van. Szoval szerintem valami minimal AI resz van a feature-ben, amit amugy hagyomanyosan is ki lehet valtani, de igy el lehet loni a buzzwordot. SDRHDR konverziohoz eleg jol ertek amugy.
-
félisten
válasz Teasüti #44379 üzenetére
Maximálisan egyetértek veled. Nekem az experience és a vezérlőpult külön, úgy fapadosan jött be a legjobban.
Legaláb teljesen külön voltak szedve a technobiccs meg a komolyabb beállítások. Nekem nem hiányzik egyáltalán az Nvidia App.
Ráadásul nem is tudom, talán 3 havota egyszer belenézek valamiben az beállításokban amúgy nem is igen látom a frissítésen kívül. Ez nem olyan dolog amit nap mint nap szétturkál az ember szerintem.
Anúgy meg előrébb jár ebben az Nvidia mit nyújt az appon belül.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
hahakocka
őstag
válasz Teasüti #44373 üzenetére
Az említett esetben azért a dupla vram sokat számított a +15% mellé 15% al olcsóbb is volt. Most volt egy részletes teszt kb 1 hónapja arról hogy már FHD ban is necces a 8 gb! Igen ez ilyen APPLE eset a jó szoftverért fizetünk többet eset. Mondjuk ott még sokkal-sokkal többet.
Elvárod a 15% market share cégtől azonnal, hogy +50% al gyorsabb legyen. Reális. Van egyre több és több és jobb szoftver beépítve az AMD driverbe ami sokkal modernebb és sokkal több mindent te magad úgy állíthatsz be ahogy akarsz. Az Nvidia nem újult meg még igazán mindig a driverével. Ha CUDA special dolog kell neked értelemszerűen az NV a választás ez tény. AI ba meg mindkét cég iszonyat sokat ölt most bele, kíváncsi leszek mit hoz majd.No, de van valami új hír az 5000 esekről végre? Akkor már szinte biztos a CES premier? Ahogy Intelre-AMD re is? Egyszerre ritkán szokták bejelenteni a kártyákat, érdekes.
[ Szerkesztve ]
-
huskydog17
addikt
válasz Teasüti #44296 üzenetére
"AV1 dekóder már volt a 30-asokon is. Az enkóder került bele a 40-esekbe."
Igen, tudom, nem állítottam az ellenkezőjét.
Én nem használok videó felskálázást, de igen, az nyilván jobban terheli a GPU-t.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
félisten
válasz Teasüti #44265 üzenetére
A framegen is mókolható még Turingra is, DLSSG formájában [link] és az AV1 is elérhető az ampere szériára ha jól emlékszem. [link]
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Raymond
félisten
válasz Teasüti #44259 üzenetére
Ha most kell es 16GB akkor tenyleg a 4070 TiS. Hiaba jon jovore az uj kategoria, attol meg ez nem lesz roszabb es jo eselyel a mostani es akkori ara miatt se kell sirni, nem hinnem hogy jelentosen valtozna az ar/teljesitmeny/kategoria aranya, egyszeruen nincs miert, nincs konkurencia.
Privat velemeny - keretik nem megkovezni...
-
gejala
őstag
válasz Teasüti #44259 üzenetére
5070 legkorábban tavasszal lesz kapható vagy nyár felé és szinte biztosan marad a 12 giga és árban minimum 4070 Super szint lesz. 5060 Ti lehet 16 gigás, de az még minimum egy év vagy még több, mire elérhető lesz.
Új DLSS okosság biztos lesz, de a megjelenésig nem fogjuk tudni, hogy kell-e hozzá új Tensor mag. Eddig csak a frame gennél volt korlátozás, minden más működik az összes RTX kártyán.
[ Szerkesztve ]
-
huskydog17
addikt
válasz Teasüti #44249 üzenetére
Semmi hivatalosat nem tudni még, így még egyelőre csak pletykák és tippek vannak.
Egy dolog viszont szinte biztosra vehető, legalábbis nagyon nagy a valószínűsége, hogy lesz egy olyan feature az RTX 50-es szériában, ami a többiben nem, az pedig egy új NVDEC (6th gen), ami H.266 (VVC) támogatást fog hozni.
Miért tekintem ezt biztosnak?
- NVDEC már 2 generáció óta érintetlen (Ampere óta, azaz 4 éve)
- Intel hivatalosan bejelentette, hogy az Xe2 IGP új dekódere támogatni fogja a VVC-t, ha az NV ezt kihagyja 2 év lemaradásban lesznek (2026-ig biztosan nem lesz új arch)
- már így is késésben vannak: a HEVC-et 1 évvel a publikálás után már implementálta az NVIDIA (Maxwell)Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Alogonomus
őstag
válasz Teasüti #44249 üzenetére
Még ha érkezik is valamilyen lényeges újítás a következő generációban, a 4080 alatti szintet képviselő új kártyák várhatóan minimum még egy évig nem érkeznek, ha egyáltalán érkeznek 2025 karácsonyáig az AI-láz árnyékában. Addig pedig az új generációba "beszállni" vagy az extrém drágának ígérkező 5090, vagy a szintén meglehetősen drága 5080 megvásárlásával lehet majd.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.