-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
X2N
őstag
válasz
Teasüti #44799 üzenetére
Most éppen a openMorrowind-et tolom HRTF audio-val, de a Skyrimhez is létezik hasonló mod. Sokat hozzád az élményhez
Pedig ez még fapad egy RT-s térhang szimulációhoz képest. Hogwarts-os fejlesztők mentségére legyen az hogy az első komolyabb játékuk csak.
[ Szerkesztve ]
-
Teasüti
nagyúr
Kár hogy eddig hangra a RT nem igazán volt használva, kíváncsi lennék, amúgy is mindig fejhallgatóval játszom, a hang része is kritikán aluli a legtöbb játéknak.
Pont ezen botránkoztam Hogwarts alatt, h mennyire gagyi a hangok térbeli megjelenítése. Én is fejhallgatóval játszok és Dolby Atmos keveri a hangot sztereóban. Anno meg a 3D-CMSS vagy mi volt a Creative X-fi idejében mielőtt elkaszálták. Már 3D hang kapcsán is megéltünk legalább két forradalmat, aztán mégis csak elölről kezdjük az fejlődést újra és újra. VR kapcsán voltak megint nagy reményeim, hogy a binaural lesz a sztenderd mindenhol. De a qrva életbe nem akar terjedni ez se...
Legalább a tejfölös dobozokon túlléptünk és már spatial audio van a Windows-ban is gyárilag mellékelve...[ Szerkesztve ]
-
X2N
őstag
válasz
KRoy19 #44792 üzenetére
Pár generáció alatt azt érted hogy az elkövetkező 30 évben?
Azért érdemes lenne elgondolkozni hogy ha ma is tudunk ilyen grafikát full raszterbe(egy ócska konzolon(és hogy ez miért nem elég??),(sőt még ennél is jobbat egy Lumen+Nanite-al a későbbiekben) akkor mi értelme van Path Tracelni? Avatar szintű grafika valós időbe? Ilyen hatékonysággal? Akkor valamit sürgősen fejleszteni kell hogy hatékonyabb legyen a Ray tracing/Path tracing is. Tudjuk Cameron-nak milyen gép kellett arra hogy egy ilyen kaliberű filmet lerendereljenek és hogy ez mennyi ideig tartott... Az ilyen 4ray és 2 bounce a sweetspot megoldásokon csak nevetni tudok(meg azon is hogy X méterig van RT számolva), főleg úgy hogy 1080p vagy alatti felbontásról beszélünk(nem 4K DCI) ahova még a 4090 éppen elég...az a baj hogy bármi komolyabb jelenetet szeretnél nagy felbontással, részletes modellekkel, olyan minőségű textúrákkal, hajjal megjeleníteni rögtön kifutnál a jelenlegi 24GB vram-ból is... A másik baj hogy ha nem is számolod ki a képkockákat véglegesre akkor itt marad a zaj, ezt mindenképpen denoise-olni kell az meg borzalmas minőségvesztéssel jár, utána lehet élesítgetni utólag hiába még akár renderelsz 4K natív 4K felbontáson stb. (Persze ha natív 4K-n renderelnél(minimum 2048 sample RT-t másodpercenként minden frame-re, és ez lenne visszaskálázva FHD-ra akkor már lenne egy minősége a képnek és denoise-olni se kellene)
Ha meg nem kell 100%-osan realisztikusan szimulálni a fényt(amit úgy sem tudsz, mert kevés a sample, több ezer sample kellene nem 2-4) akkor el kell felejteni a Path Tracinget jelenlegi formájában, és megmaradni a Rayt Tracing-nél ami legalább gyorsabb és több mintavételezést csinálni, így nem fog ez sem olyan rosszul kinézni mint ahogy a CP2077-ben be van állítva és összehasonlítod a Path Tracingel.
Kár hogy eddig hangra a RT nem igazán volt használva, kíváncsi lennék, amúgy is mindig fejhallgatóval játszom, a hang része is kritikán aluli a legtöbb játéknak.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz
KRoy19 #44794 üzenetére
Arra reagáltam, hogy "kihal a raszter". Nem fog kihalni a raszter amíg nem tudunk global RT-vel renderelni. Az meg szuperszámítógép kategória. Pl. aki itt gaytracing-el, annak halvány lila gőze sincs arról mi az a ray tracing számítástechnikai oldalról.
Már az egy kisebb csoda, hogy egy Portal RTX nem fossa össze magát egy jobb gépen, pedig egy 15 éves játék van alatta vagy mennyi. Valamint a komplexitás ott is még csak a butított algoritmusokat tükrözi. Ez akár csak 10 évvel ezelőtt még elképzelhetetlen lett volna. 20 éve még csak tanulmány szintjén pedzegették ezt. 30 éve még arról beszéltek, hogy kérdéses még az ő életükben megvalósítható lesz-e.#44796PuMbA
Eeegen, az a játék is rajta volt a radaromon. Sony tudja jól, hogy mit nem szabad kiadni Playstation PC-re. Pedig első napos vétel lenne nálam Steam-en az eredeti LBP és az Astrobot is.[ Szerkesztve ]
-
PuMbA
titán
válasz
Teasüti #44788 üzenetére
Little Big Planet volt ilyen a jó öreg PS3-ra. Itt gondolom nem az NVIDIA GPU-n ment a fizika, hanem a Cell procin.
[ Szerkesztve ]
-
KRoy19
őstag
válasz
Teasüti #44793 üzenetére
Ma is létezik játszható formában, lásd CP2077. Nem kell hogy 100%-osan realisztikusan legyen szimulálva a fény, mert egy ponton alig látni különbséget. Volt egy Vidi erről egy CP mód segítségével, hogy kb. 4ray és 2 bounce a sweetspot, mert hiába adsz hozzá több rayt-t vagy bounce-ot, a képminőség szinte alig változik, a teljesítmény viszont drasztikusan csökken.
-
Teasüti
nagyúr
válasz
KRoy19 #44792 üzenetére
Pár évtized talán. De global ray tracing az egyelőre még szuperszámítógép kategória. Persze ha nem olyan képkocka sebességgel szeretnéd futtatni, mint a Cinebench-et.
Amit mi itt most ma ray tracing-nek hívunk, az egy nagyon-nagyon lebutított és ronggyá optimalizált algoritmus.[ Szerkesztve ]
-
KRoy19
őstag
válasz
gainwardgs #44790 üzenetére
Nincs baj azzal sem, mert egy full path tracing azért kurva sokat tud dobni a látványon. Az igaz, hogy még nem igazán vannak erre felkészülve a hardverek, de pár generáció múlva szerintem standard lesz és teljesen kihal a raszter.
[ Szerkesztve ]
-
KRoy19
őstag
válasz
Teasüti #44788 üzenetére
"Ahol a vízzel kellett egyensúlyozni egy libikókát, egyedül ott volt szükség némi fizikára. Mindenhol máshol ha simán eltünteted a játékból, egyáltalán nem változna a játék."
Na ezzel én nagyon nem értek egyet. Igenis marha sokat változna a játék, mert számomra sokkal érdekesebb, ha ennyire interakcióba lehet lépni a környezettel, még akkor is, ha nincs kimondott funkciója. Rohadt gagyi érzés a mai játékokban, hogy szinte minden statikus és a nullához közeli a környezettel való interakció lehetősége.
[ Szerkesztve ]
-
Teasüti
nagyúr
válasz
Teasüti #44788 üzenetére
Lehet Red Redemption 2 esetén hallottam ezt, hogy ott pl. a Benchmark-ra nem annyira szeretnek alapozni a tesztelők vmilyen aspektusból. Oka, hogy nem megismételhető a benchmark, mert a fizikai számítások minden futtatáskor más eredményt adnak és így a komplexitás is kicsit eltérő.
-
Teasüti
nagyúr
válasz
KRoy19 #44787 üzenetére
Látványos mennyiség, nekem tetszik. De itt is csak egy-egy konkrét esetben része a játékmechanikának.
Ahol a vízzel kellett egyensúlyozni egy libikókát, egyedül ott volt szükség némi fizikára. Mindenhol máshol ha simán eltünteted a játékból, egyáltalán nem változna a játék.
Én ott vártam az innovációt, ahol a fizikai szimuláció maga a játék. Nem csak eyecandy.
Persze ez hagyományos értelemben általában kimerül a jármű szimulációban vagy vmilyen rombolós játékban. Egyszer olvastam egy fejlesztővel készült interjút a fizika használatáról. Nem emlékszem milyen alkotás kapcsán, de arra az elvre emlékszem, hogy nem annyira hangzott jól tisztán fizikára alapozni a játékmenetet, mert nem lenne kiszámítható eredménye és a továbbjutásra nincs garantálható recept. Túl nagy a szerencse faktor, hogy ledől-e az összes elem, aminek le kell dőlnie, stb.[ Szerkesztve ]
-
Busterftw
nagyúr
válasz
-=RelakS=- #44777 üzenetére
Szerintem ez a csatlakozóra fog vonatkozni.
-
Ez amúgy nem vészes ,50 W TDP( nem fogyasztás) ami ha ez mellett gyorsul ,semmiség.
A 5080 nál kérdés lesz e Ti változat az kapja meg a 80W verziót vagy a sima , elöbbinél nem akkora gond utóbbinál azért már jelentős,
Amúgy volt már volt ekkora gyorsulás nvidiánál architektúra váltásnál nem is olyan régen. Ez nem azt jelenti hogy ez lesz, ezek még pletykák.
5 hónappal a megjelenés elött szoktak jönni az első benchek mérésekkel, tehát ha januári bejelentés, februári megjelenés akkor kb szeptember vége október eleje lesznek.Az mellett mindíg a legideálisabb eseteket vezetik fel ilyenkor. Az, hogy akár 100% RT gyorsulás vagy akár 60 % az nem azt jelenti hogy ez átlag hanem hogy előfordulhatnak ilyen esetek ez kb 30-40 % amit említesz átlagban
Ez kb az, hogy Amúgy az Ada sokszor gyorsabb RT ben mint minden eddigi hardver,elméletileg, amit persze nem lehet kihasználni játékokban,de egy konzolban ami kizárólagos egyedi hardver lenne érdekesen megfektethető lenne a PC piac egy része. [link][ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #44772 üzenetére
Mert az új drivermodulok nem mindig kompatibilisek visszafelé. De erre az NV mindig figyelmezteti a fejlesztőket. A nagyon régi GPU-s PhysX játékok instabilak lehetnek az új driverekkel.
#44773 Teasüti : Akkor érdemes nekikezdened, mert nem tudni, hogy melyik modul meddig fogja stabilan futtatni a régi kódokat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
X2N
őstag
válasz
-=RelakS=- #44779 üzenetére
Ja ez igaz akkor 5090-5080-ast se veszek, marad az XTX
. Megtarthatják a kazánjukat.
-
-=RelakS=-
veterán
válasz
gainwardgs #44778 üzenetére
de már az 5080-on is
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
gainwardgs
veterán
válasz
-=RelakS=- #44777 üzenetére
Olvadó tápcsatik v2.0
-
-=RelakS=-
veterán
Már 600W-ot emlegetnek az 5090-re.
Meg hogy az 5080 a 4090 110%-a lesz. Hogy raszter vagy RT, azt kitudja.
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
válasz
S_x96x_S #44765 üzenetére
Olyan pletykák vannak hogy 60 % non RT és akár 100% RT gyorsulást hoz a módosított dizájn.Tehát ha ez igaz lenne a hatékonyság ezzel együtt nőhet.
Mondjuk jobb óvakodni a hype vonattól,de ha azt is feltételezzük, hogy igaz, akkor az RDNA4 más színben tűnik fel...[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
válasz
Teasüti #44769 üzenetére
Nincs. Meg nem is ez a PhysX 4-5 fő célterülete, hanem azok az egyedi igények, amik az ipar 4.0-ból erednek.
Ezt amúgy jól látta az NVIDIA. Azért ők sem voltak vakok abból a szempontból, hogy a compute shader átveszi majd az uralmat a GPU-s fizikai effekteknél. Tehát akármit is kínálnak később, az versenyképtelen lesz az egyedi megoldásokkal szemben. Szóval elvitték arra a PhysX-et, ahova még el lehet adni. A másik lehetőség a beszántás volt, gondolom azt még nem akarták meglépni. De az nyilvánvaló volt számukra viszonylag gyorsan, hogy a gaming szintjén a GPU-s PhysX-nek leáldozott, és léptek is, hogy akkor majd kezdenek a technikával valami mást.
Nyilván valamilyen szinten kötöttek kompromisszumokat is, például régebbi PhysX modulokat kivettek a meghajtóból, ami miatt a nagyon régi verziót használó játékok már instabilak is. Erre alig reagáltak a fejlesztők, de például a Warframe reagált rá azzal, hogy lecserélték a GPU-s PhysX-et. A legtöbb játék viszont egyjátékos volt, a játékosbázis rég lecsökkent arra a szintre, hogy ezt nem érdemes tovább karbantartani, majd a user kikapcsolja, ha fagy a program. Viszont erről mindig kaptak tájékoztatást a fejlesztők, hogy mi változott, és mi nem fog a jövőben stabilan működni, csak nincs hajlandóság ezekhez igazodni. Egyszerűen túl drága több éve megjelent játékokat egy maréknyi userért karbantartani. A Warframe annyiban lehetet más, hogy az multi volt, és ott azért még megvolt a játékosbázis.
Egyébként itt jó hír, hogy a 3.4-es verzióval a fejlesztők is szállíthatnak a játékban modult a hardverekhez. És ezt azért intézte így az NV, hogy ha majd végleg kiveszik a GPU-s PhysX supportot a driverből, akkor a fejlesztők fel tudják frissíteni a modult a régi játékokban 3.4-re, és egy patch-csel szállíthatnak saját binárist. Na most persze az megint kérdés, hogy ezt hányan fogják megtenni, de az NV mondhatja azt, hogy mossa kezeit, mert ők megadták erre a lehetőséget. Ez a bináris addig működni fog, amíg a futtatását meg tudja oldani az új architektúra. Ha viszont ez sokat változik, akkor ennek is lőttek.Egyébként, ha valakit érdekel, akkor az NV szerint a 373.06-os driver a váltópont. Ha nagyon régi a GPU-s PhysX játék, és instabil az új driverekkel, akkor vissza kell rakni egy 373.06 előtti meghajtót, és azzal stabil marad. A 373.06-től a játékot kell frissíteni, ha nagyon régi a PhysX modulja. Nyilván ez az új hardvereknél nem megoldható, és ebből kitalálható, hogy az NVIDIA miért nem említi többet a GPU-s PhysX-et.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Teasüti
nagyúr
Van vmi nyilvánosan hozzáférhető szoftver, amiben PhysX-szel modelleznek?
Gondolok itt akár csak egy CAD vagy hasonló kaliberű megoldásra, ami konkrétan ipari PhysX-et használ? Egyáltalán fut az Geforce-on, vagy ide már Quadro kell? Robotikát említetted. Itt mit kell elképzelni? Boston Dynamic új masinája PhysX-szel végzi a fekvőtámaszokat és a hátra szaltót? Mert a közönséges robotkaros megoldásoknál nem rémlik, hogy fizikát kellene számolni. Hacsak nem röptében adogatják át egymásnak a karok a munkadarabot.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #44764 üzenetére
Akkor pontokba szedve:
A lista azért fontos, mert te azt hiszed, hogy minden PhysX játék GPU-val gyorsít. Nem, ahhoz külön kód kell, és a listában szereplő játékok támogatják azt a kódot. Tehát ott van az a pár cím, amiben működik ez, minden más címben hasztalan a GPU-d PhysX-re, mert a CPU-n fut a kód mindenképpen.
Az NV-től régen kérdeztem, hogy egy ideje már nincs GPU-s PhysX, és hogy ez halott-e vagy valami. Nekem azt írták, hogy most az RTX-re megy a pénz, a GPU-s PhysX-et a 4-es verziótól kezdve átalakították professzionális szintre. Ez abban nyilvánul meg az NV szerint, hogy maga a szimuláció sokkal pontosabb, így ipari szintű modellezéshez is használható, viszont a pontosságnak az az ára, hogy 10-20x nagyobb az erőforrásigény. Tehát a PhysX 4-5 már nem optimális játékra, mert valójában a játékokban nincs szükség arra, hogy hihetetlenül pontos legyen a fizika modellezése. Kismértékű változást jelentene csak a kinézetet tekintve, miközben a számítások oldalán 3-4 VGA-ra van szükség hozzá. Nos, röviden ezért nincs GPU-s PhysX játék manapság.
A 3.4-es verzió megmaradt a régi, pontatlanabb fizikánál, azt begyorsították.
A Unity gyárilag négy fizikai motort támogat: PhysX, Havok, Unity Physics és Box2D. A PhysX verziója gyári szintű támogatás mellett valóban 4.1, de nem engedélyez GPU-s gyorsítást, pont amiatt, amiért az NV nem erőlteti ezt manapság. A 4.1-re azért tértek át, mert kedvezőbb a CPU-s kód sebessége az AVX optimalizációknak hála. A PhysX 5-öt viszont már nem is implementálták még kísérleti szinten sem, mert ott már a CPU-s kód is nagyon más, sokkal-sokkal több magot igényel a pontosság miatt. Ez ipari szinten, ahova fejlesztették oké, mert oda nem nehéz 64-magos Threadrippereket venni, de a gémereknek erre nincs pénzük. És az is számíthat, hogy a Unity inkább a Unity Physics fejlesztésére koncentrál, hiszen az gyári megoldás, és ez azért lényeges számukra, mert nem lesznek szopatva az olyan jellegű piacváltástól, amit a PhysX-szel csinált az NV. Ugyanígy az Unreal Engine is ezért fejleszti a saját megoldását, mert a PhysX irányával gaming szinten nem tudnak mit kezdeni.
GPU-s PhysX-re a 3.4 az utolsó, ami játékra is alkalmas, mert az még nem ipari szintű pontosságra van kialakítva. CPU-ból még elmegy a 4-es. Az 5-ös semmiképpen, mert az minden szempontból robotika szimulációra van írva. Az nagyon jó ipari szinten 4-8 GPU-s Threadripper rendszereken, de a gaming nem tud vele mit kezdeni, mert nincs meg a pontosság által megkövetelt teljesítmény egyetlen GPU-ban. Úgy meg pláne nincs, hogy a GPU közben egy rakás más dolgot csinál.
Azokat a részfeladatokat, amiket lehet gyorsítani GPU-val már rég alkalmazzák a játékok compute shaderben. Tehát különösebb haszna ezért sincs a GPU-s PhysX-nek már, mert az adott effektre írnak egy compute shadert és kész, fut mindenen.
Igen, a binárisokat odaadják ingyen, és ennek pont az a hátránya, hogy ha nem működik, és az esetek többségében nem fog, mert nem tud az NV minden egyes specifikus tényezőhöz alkalmazkodni, akkor mehetsz a supporthoz, hogy írják át neked a kódot, és fordítsanak neked olyan binárist, ami működik. Ezt megcsinálják, de erre licencszerződést kell kötni, mert az NV support nem fogja neked ingyen működővé tenni a kódot. Hülyék lennének, ha pénzt is adnak ezért az emberek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
S_x96x_S
addikt
Az áttervezés érinti az RTX 50 "Blackwell" -t is.
"NVIDIA Blackwell Design Change Might Affect GeForce RTX 50 Launch, Reports of Higher Power Consumption"
https://wccftech.com/nvidia-blackwell-design-change-affect-geforce-rtx-50-launch-higher-power-consumption/Mottó: "A verseny jó!"
-
huskydog17
addikt
Köszi a listát, de egyrészt értelmetlen és felesleges volt ez beraknod, másrészt ebből látszik, hogy nem sikerült értelmezned amit írtam s megint jó szokásodhoz hűen teljesen másról beszélsz, konkrétan a múltról, mert úgy látszik a múltban ragadtál, emiatt ismét tömény bullshitet írtál le és ismét félrevezeted az olvasókat. Legalább egy picit utánajárhattál volna, mert az elmúlt 10 évben sok változás történt.
Nézzünk néhány gyöngyszemet:
"Leginkább azért nem használnak ma már GPU-s PhysX-et, mert valójában sosem fizikáról volt szó, hanem grafikáról, és a compute shader kiváltotta ezt."
A PhysX 5 több dolgot gyorsít GPU-val, mint az elődei. A fizikai szimulációt hogyan adod el játékban? Úgy, ha azt a játékosok látják, így nyilvánvaló, hogy grafikai elemként prezentálták, de ettől szimuláció volt, akár folyadék szimuláció, akár ruha fog köd szimuláció. A kijelentésed tehát nettó bullshit.
"Persze az sem segít, hogy az NV a rendszert nem fejleszti már a játékok szemszögéből. A 3.4-es volt az utolsó verzió, ami játékhoz készült. A 4-5 már nem igazán."
A valóság ezzel szemben az, hogy a két legújabb PhysX sokkal jobb játékra, mint a 3.4. A Unity is hülyeségből integrálta a 4.1-et alapértelmezett 3D fizikai motorként 5 évvel ezelőtt. A hivatalos NV doksi szépen leírja, hogy miket hoztak az új főverziók, 4.1-nél meg lehetne említeni a Immediate Mode-ot vagy az 5-nél a sok új GPU gyorsított feature-t. Szóval, de az NV több hasznos dolgot rakott be a friss verziókba, amelyek játékokhoz is rendkívül hasznosak.
"A PhysX játékokhoz tervezett verziója 2018 óta gyakorlatilag vegetál. Nem tudni, hogy az NVIDIA valaha is újraindítja-e."
Tehát te nyilván a 3.4-et tekinted az utolsó, játékra alkalmas verziót. Ettől nem is lehetnél messzebb a valóságtól. A PhsyX nem vegetál és a legújabb verzió is kiválóan alkalmas játékra, jobb, mint a 3.4, itt is a múltban ragadtál.
"Abból kiindulva, hogy már arra is figyelmeztették a fejlesztőket, hogy a PhysX runtime kikerülhet a GeForce driverből, így a GPU-s PhysX effektek a játékokban elszürkülnek majd, arra lehet következtetni, hogy nem jön vissza ez az irány."
Pontosan melyik fejlesztőt figyelmeztette az NVIDIA és mikor? Az irány el se ment, így nem is tud visszajönni, mindössze most már nem verik nagy dobra, ha a fizikai számítások egy részét GPU gyorsítja. Ma már nincs marketing értéke.
"A karbantartási költségektől pedig 6-7 év vegetálás után valószínűleg megszabadulna a cég."
Feltételezem továbbra is a 3.4-ről beszélsz, el kéne azt engedni, az NV és mindenki más is elengedte a piacon, csak te ragaszkodsz hozzá foggal körömmel valamiért. Azóta sok év eltelt, lépjél túl rajta.
Az utolsó bekezdéshez annyit, hogy az is nettó bullshit, ugyanis fizikai szimulációt lehet GPU-val gyorsítani. Nyilván nem a teljes szimulációt kell itt érteni, hanem részfeladatokat a GPU el tud végezni sokkal gyorsabban, mint a CPU, pont úgy, mint RT esetén. Amíg RT fronton a hardveres gyorsítás igen masszív marketinget kap, addig a GPU gyorsított fizikai szimulációk már nem, pedig él és virul, a PhsyX 5 több dolgot tud gyorsítani GPU-val, mint bármely más korábbi verzió.
# 44762: "Semelyik motor nem használja azt a modult alapértelmezetten, mert licencköteles. Csak CPU-s PhysX-et használnak a motorok alapból, mert az viszont ingyenes."
Ahogy mondtam: a múltban élsz, ezt most megerősíttetted, ugyanis a GPU gyorsításnak semmilyen felára nincs a PhysX 4.0-tól kezdve. A valóság így néz ki:
"PhysX has also become a key reference implementation of the similarly open source Pixar Universal Scene Description (USD) Physics standard available at PixarAnimationStudios/USD on GitHub. This informed the decision to return to the more permissive licensing terms used for PhysX 4. This means that all CPU source code is available under the simple BSD3 open source license, and NVIDIA GPU binaries are included at no cost."
A többi szóra sem érdemes.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
válasz
Teasüti #44761 üzenetére
Semelyik motor nem használja azt a modult alapértelmezetten, mert licencköteles. Csak CPU-s PhysX-et használnak a motorok alapból, mert az viszont ingyenes.
Ha amúgy sokan használnák, akkor az NV-nek is megérné karbantartani, de az utolsó játék, ami használja sok-sok évvel korábban jött ki. Így egyszerűen a modul karbantartása a driverben csak egy masszív pénznyelő, mert nincs mi használja. Ezeknek mindig ugyanaz a sorsuk, idővel kikerülnek, mert felesleges erőforrást ülni bele, ha a játékok nem nyúlnak hozzá. A kérdés a mikor, de valószínűleg pár éven belül ki lesz műtve. Valószínűleg azt várják, hogy kifusson az utolsó GeForce sorozat, amivel ezt még hivatalosan reklámozták, ami a Maxwell generáció volt. Az Ampere tulajok már nem reklamálhatnak, mert az NV vissza tudja mondani, hogy sosem ígértek nekik sehol sem GPU-s PhysX-et. Maximum működött, de ígéretként sehol sem volt kiemelve. És ezzel az NV bevédi magát a perektől, ha lennének.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #44745 üzenetére
Ezek a játékok használnak GPU-val gyorsított PhysX-et:
Active Worlds / Alice: Madness Returns / Assassin's Creed IV: Black Flag / Batman: Arkham Asylum / Batman: Arkham City / Batman: Arkham Origins / Batman: Arkham Knight / Borderlands: The Pre-Sequel / Borderlands 2 / Bureau: XCOM Declassified / Call of Duty: Ghosts / Crazy Machines II / Cryostasis / Dark Void / Darkest of Days / Daylight / Fallout 4 / Hawken / Hot Dance Party / Hot Dance Party II / Killing Floor 2 / Lords of the Fallen / Mafia 2 / Metro 2033 / Metro 2033 Redux / Metro: Last Light / Metro: Last Light Redux / Mirror's Edge / Passion Leads Army / Rise of the Triad / Sacred 2: Fallen Angel / Sacred 2: Ice & Blood / Star Trek: D-A-C / Tom Clancy's Ghost Recon Advanced Warfighter 2 / Unreal Tournament 3 / Warface / Warmonger - Operation: Downtown Destruction
Még használt eredetileg a Warframe és a Planetside 2 is. A Warframe lecserélte egy sajátra, míg a Planetside 2 esetében licencproblémák voltak, és a Sony inkább kivette, hogy ne kelljen az NV-nek fizetnie.
Leginkább azért nem használnak ma már GPU-s PhysX-et, mert valójában sosem fizikáról volt szó, hanem grafikáról, és a compute shader kiváltotta ezt. Persze az sem segít, hogy az NV a rendszert nem fejleszti már a játékok szemszögéből. A 3.4-es volt az utolsó verzió, ami játékhoz készült. A 4-5 már nem igazán. A PhysX játékokhoz tervezett verziója 2018 óta gyakorlatilag vegetál. Nem tudni, hogy az NVIDIA valaha is újraindítja-e. Abból kiindulva, hogy már arra is figyelmeztették a fejlesztőket, hogy a PhysX runtime kikerülhet a GeForce driverből, így a GPU-s PhysX effektek a játékokban elszürkülnek majd, arra lehet következtetni, hogy nem jön vissza ez az irány. A karbantartási költségektől pedig 6-7 év vegetálás után valószínűleg megszabadulna a cég.
Valós fizika gyorsításra dedikált hardverből nehéz, mert sok a round trip. Ezért használnak erre a célra csak CPU-t. Azért sem túl célszerű már a dedikált hardver, mert annyi mag van a CPU-kban, mint a dinnyében, szóval skálázni elég jól lehet már.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
És akkor a 4070 super is netto. Teljesen mindegy hogy netto vagy brutto, ha mindkettőre nézed az árkülönbség ugyan az marad....
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
válasz
Raymond #44752 üzenetére
Rákerestem ott is valami 6% utalvány kóddal kerül annyiba, ha jól látom [link] a 750 euros ár, bár lehet nem jól nézem az oldalt.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Néztem GPU trackert [link] a legolcsóbb 7900XT azon 705 euro a 4070 Super pedig 545 ami 30 % eltérés árban. Német Amazonon is néztem [link] svéden most nézem épp ,de nem találok jó áron. [link] ezért írtam amit írtam , hogy szerecsés vagy ha 550 euro körül be tudtál húzni egy 7900XT-t.. nem egy MSRP ben van a két kártya és nem lehet kani 4070 super áron ,de ezek szerint Svédben igen. Ha a legdrágább 4070 Super veszed alapul.de akkor meg ott van a 4070 Ti super 16 Gb ami 800 euro ez van árban a 7900XT mellett, igaz + 13 %.
Még aquaban találtam a két kártya között a legkisebb eltérést. ott akciós most a 7900XT , 296 K az XFX, a 4070 super pedig 248. [link]
itt olyan 20 % eltérés van a két kártya ára között és a 4070 Ti super is drága olyan 350 K itt. azaz 20 % van a radeon javára.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Jacek
veterán
Igy 2024-ben engedjuk mar elnezt a nalunk nincs olyan arban..
Mi a problema egy amazonos vasarlassal vissza kuldheto 14/30 nap stb. gari nem problema. -
Jacek
veterán
Nem tudom mitol ilyen draga a 4070S, legolcsobb bontott darabok amazonon amit lattam 200e HUF de a legalja PNY 40dbi hutessel porszivo
Namost 230e HUF volt a TUF 7900 XT brutal full kuss akkora mint a 4090
Ugyan annyi lett volna valami arabylaf normalis hutesu de egyforma arban azert nem ellenfel. -
Teasüti
nagyúr
válasz
T.Peter #44742 üzenetére
Én hegyeket szeretnék látni megmozgatni, folyadékot szeretnék látni szimulálni, és BeamNG szintű soft body-t szeretnék látni. Ehhez kell azért a vas még mai viszonylatban is.
Három fellibbenő újságpapír és egy ledőlő polc már nem nyűgöz le. Ahogy a ruha és haj is már szinte alapvetés. Ageia demókban több száz egymással kölcsönhatásban lévő elem volt szimulálva, most meg minden részecske eltűnik 5 másodperc után. Maradjon képernyőn a törmelék és bokáig szeretnék járni benne.[ Szerkesztve ]
-
huskydog17
addikt
válasz
Teasüti #44740 üzenetére
Ez nem ilyen egyszerű. A PhysX régen a 3.4-es verzióval brutál nagyot gyorsult CPU fronton, később viszont, a 4-es és 5-ös verziókban több dologra is használhatsz GPU gyorsítást a CPU számítások mellett tehát, nem úgy van, mint régen, hogy csak CPU vagy csak GPU-t használsz, ma már a hibrid megoldással nem lehet tudni, hogy melyik játék használ GPU gyorsítást a fizikában. Egyrészt sok száz UE és Unity játék alapértelmezetten PhysX-et használ, azt nem tudhatjuk, hogy ezek közül használ-e valamelyik GPU gyorsítást valamilyen fizikai számolásra.
"Illetve mutass egy olyan húzó címet, ahol a játékmenet szerves része a fizika!
Kizárólag Havok-ra jött olyan cím, ahol a fizika megkerülhetetlen része volt a játéknak."Nem tudom neked mi számít húzócímnek, de szerintem nem is kell annak lennie, de például az X-Morph Defense című játékban a játékmenet szerves részét képezi a fizika és az PhysX 3.4-et használ. Abban a játékban kulcsfontosságú, hogy egy épületet hogyan rombolsz szét, mert attól függően fog ledőlni és nem mindegy merre dől.
"Több száz használ PhysX SDK-t az igaz. Ezek közül mennyi használ hardveres PhysX-et a CPU helyett?"
Igazából több száz helyett kb. 10.000
Ahogy írtam, ma már nincs értelme különbséget tenni, hiszen a PhysX SDK-val több részfeladatot meg lehet oldani GPU gyorsítással, arról nincs információ, hogy mely játékok ezek, hiszen a fejlesztők ezt nem reklámozzák ami logikus, hiszen ez ma már alap dolog. Attól, hogy egy fejlesztő nem reklámozza, lehet hogy használnak némi GPU gyorsítást, nem tudjuk, de nem is fontos. Sokaknak azért fontos, mert akkor régen a GPU gyorsítással értek el látványos fizikai szimulációt, melyeket ma mér a CPU is simán megold, ugyanolyan gyorsan (lásd a korábban említett 3.4-es verzió).
Egy másik, népszerű indie alkotás a Kerbal Space Program, ami szintén PhysX-et használ, hiszen az a Unity motor alapértelmezett 3D fizikai motorja. Ez csak két kiragadott példa volt, ahol a fizika szerves része a játékmenetnek.Nem az a fontos, hogy használja-e valamelyik játék a GPU gyorsítást, mert a 10.000 játékból nagy valószínűséggel sok használja. Inkább az a kérdés, hogy a fejlesztők túlnyomó többsége miért nem használja ki az SDK és egyéb fizikai motorok adottságait. Nem sokat látunk a fizikai motorok képességeiből játékokban. Nyilván van jó néhány, amely fizikára épít játékmenetet szempontból, ezek túlnyomó többsége indie alkotás.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Jacek
veterán
Tobbire nem reagalok sajna mert 15 vezettem eddig sved fele es kicsit befaradtam a kompnal
-
Jacek
veterán
Vegul is szep tehat hazudok
200 alatt nincs 4070s szuper, 231 vettem egy TUF 7900XT havernak meg egy Sappgire Pulse 7900 XT..
Gondolom ott az outlaws csak ugy szaladkicsit lebutitja a texturakat de ez NV-nel features mint a regi csalos driver
En az amd fanboy 5db 4090-el a haram mogott... -
Teasüti
nagyúr
válasz
Busterftw #44736 üzenetére
Több száz használ PhysX SDK-t az igaz. Ezek közül mennyi használ hardveres PhysX-et a CPU helyett? Illetve mutass egy olyan húzó címet, ahol a játékmenet szerves része a fizika!
Kizárólag Havok-ra jött olyan cím, ahol a fizika megkerülhetetlen része volt a játéknak.
Nekem így friss elmegy a Control, ahol nagy számú effektek voltak jelen és elég látványos volt. De az se hardveresen gyorsított már és nem része a játékmenetnek sem.
[ Szerkesztve ]
-
válasz
KRoy19 #44734 üzenetére
+1. bizony ez nagy probléma. Még a Ps2 re is jelent meg akkoriban olyan játék amiben rombolni lehetett a környezetet elég jól, de ha visszaemlékszel a F.E.A.R. részeire [link] ott is az irodákban a golyóktól repkedő papírok, az elszabaduló poroltó ami sérüléseket okozoitt a falon és kitörte az ablakot amin utána befújt a szél és repkedett a sok por,meg sorolhatnám.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
FLATRONW
őstag
válasz
Teasüti #44733 üzenetére
Nekem bőven megfelelt az is amit csak a látványhoz adott. Nélküle pl. a Batman játékok rettenetesen sterilek voltak. Sajnálom, hogy nem jönnek már ilyen játékok.
Busterftw:
Szoftveres PhysX-et igen, mivel már része volt az Unreal 3-nak is. Hardveres PhysX-et kb. 40.[ Szerkesztve ]
-
X2N
őstag
válasz
KRoy19 #44734 üzenetére
Emlékszem 2000-es évek elejére, PC Guru cd melléklet HL2 trailer amiben demózták a fizikát. Már akkor voltak olyan játékok mint a Red Faction 1-2 ahol rombolható volt a környezet, és ezt ki is kellett használni továbbjutáshoz. Mafia 1-ben az autókról le lehetett lőni a lökhárítót, tükröket, benzintankot is kilőhetted, deformálódott a kocsi ütközéskor, hol volt ahhoz képest a GTA3....Ma? Szinte semmi, minden statikus...
[ Szerkesztve ]
-
KRoy19
őstag
válasz
Teasüti #44733 üzenetére
Igen, ez az általános fizika elhanyagolás a játékokban nekem is nagy szívfájdalmam. Emlészem kb. 15 éve amikor láttam az Ageia Physx demókat azt gondoltam ,hogy alig várom, hogy ilyen menő fizika legyen a játékokban.
Erre itt vagyunk 2024-ben és a legtöbb játékban gagyibb a fizika, mint némelyik 10-15 éves játékban.
Kicsit elmehetne a fejlődés ebbe az irányba is, mert jó cucc a Ray Tracing, de azért nem ártana a fizika szempontjából is fejlődni.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz
FLATRONW #44729 üzenetére
Egyetlen játékban sincs már hardveres PhysX, mert az exkluzív fícsőr. Amiben volt, ott sem volt meghatározó a játék mechanika szempontjából. Én vártam a fizikára épülő játékmenetet, mint a Messiást. Nvidia ledegradálta* közönséges eyecandy-re, pedig forradalmi lehetett volna.
*Vagyis mivel bezárta, ezért inkább nem terjedt el.
Egy maréknyi játékba került csak bele a hardveres PhysX, ott is csak eyecandy gyanánt.Nekem volt anno egy 9600 GTX kizárólag PhysX-re, annyira bele voltam invesztálva a koncepcióba.
Aztán arra a sorsra jutott, mint a Creative hardveresen gyorsított hangja, ami konkrétan két játékba került bele, aztán viszlát. De azért benne volt a gépben a Auzentech kártya is.[ Szerkesztve ]
-
Busterftw
nagyúr
Ez szimplán a különböző felbontások és beállítások gépigényeinek a kérdése.
Ha 4070 kártyával nem megy a 1440p High, akkor tessék csökkenteni a beállításokat vagy lépni gyorsabb kártyára.
Ez eddig is így volt.
Ettől még a 4070 nem fogja magát összefosni, csak azért mert 24GB vram mellett 19GB allokál 4K Ultra+RT - vel.
[ Szerkesztve ]
-
-=RelakS=-
veterán
Igen, 2013-ból.
Amúgy meg akkor gondolom az lenne a baj, hogy miért van külön kártyán, hisz a videókártya, a grafikai gyorsító kártya, a fizikai gyorsító kártya és a hangkártya mellett már nem igazán fér el.
Ugye már ha megmaradt volna az a felállás, mint a voodoo 1-2-nél, hogy a videókártya mellé vettél grafikai gyorsítót.Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
X2N
őstag
válasz
Teasüti #44726 üzenetére
Régebben akadt egy Ageia nevű cég aki pont ilyen kártyákat csinált, aztán felvásárolta valaki.
Kár érte. Kiváló Ügynök Volt!
Ha már itt tartunk raytracingre miért nincs dedikált gyorsító?
Értem én hogy 800eFt-ba csak egy 609 mm² szilícium lapka fér bele 5nm-en, abba meg nem csak rt egység van. De van több pcie slot a gépemen még 2 is ahova betudnák tenni ilyen kártyákat. Gyárthatnák a dedikált egységet csak rt gyorsításra mondjuk 7nm-en és 2 ilyen kártyát is tehetnék gépbe a fő gpu mellé...[ Szerkesztve ]
-
X2N
őstag
válasz
Teasüti #44722 üzenetére
Én modolom magamnak. Mért is ne tenném? A fejlesztők általános konfigokra optimalizálnak nem az én gépemre, amiben van mondjuk 16 mag meg egy csúcskártya, lehet nálam elbír sokkal több npc-t mondjuk a CP2077 mint az átlag 8 magos rendszereknél. Szeretek tweakelni. Így sokkal jobb modolva. Nálam ez alap dolog, ha lehet akkor legjobb framerate-el és kinézettel szeretném tolni a lehetőségekhez képest. CP2077-nél is kipróbáltam az összes raytracing/path tracing optimalizáló modot, sikerült is úgy megcsinálni hogy full path tracingel fusson 1080p-n 45+ fps-el, abból tudok felskálázni 4K-ra, jó minőséggel, nem úgy mint aki ennél sokkal rosszabb felbontásról skáláz fel 1080-1440p-re. 20+ éve modolok minden játékban ahol lehet. Ezért nem lesz soha konzolom, ott ez nem opció.
[ Szerkesztve ]
-
Teasüti
nagyúr
Akkor most kezdjem el faragni a játékot a fejlesztők helyett?
Én épp amellett érvelek, hogy hátradőlve kényelmes távolságban teljesen mindegy, hogy 4K vagy DLSS 1080p. De régebbi játékoknál - amik 1080p felbontásra váltják a képernyőt - sincs kifogásom a nem natív felbontásra adott nézési távolságból. Ahogy a Windows asztal is 150%-ban van skálázva és böngészőben a PH fóruma is 150% nagyításban működik, mert nem vagyok sasszemű.
De a bányász időszakban játszottam 720p-ben is a 4K monitoron - pixel helyesen skálázódik a kép. Ha a játék nem tud megfeledkeztetni a képi beállításokról, akkor inkább keresek vmi jobb időtöltést. Eyecandy az kb az első egy órában el tudja adni a játékot. Utána már azért kérem a tartalmat is. Aztán ha arról van szó, hogy natív 4K TAA-val vagy anélkül, de 30 fps VAGY dlss és frame gen 90 fps és még az effektek is masszírozhatják az egomat ultrán, akkor én a hét minden napján az utóbbit választom, köszönöm.[ Szerkesztve ]
-
X2N
őstag
válasz
Teasüti #44720 üzenetére
Skyrim-nél ki lehetett kapcsolni ha akartad, megvolt a lehetőség. Itt meg nem. Force-olva van.
Ez nem művészi kérdés. Mesélhetnék neked arról hogy a Betheasda hogy rontotta el a Skyrim sokadik kiadott verziójának textúráinak a tömörítését úgy hogy több vramot is foglalt a végére és még rosszabbul is nézett ki...Fallout 4K textúracsomagja is csak fel volt skálázva és foglalt vagy 80GB-ot.
Én meg nexusról összeszedegettem a jobb csomagokat, el se hitted volna hogy az a Fallout 4 ha élőben látod.
[ Szerkesztve ]
-
X2N
őstag
válasz
Teasüti #44718 üzenetére
Amíg nem kapcsolod le a TAA-t a játékban addig úgy sem fogod látni hogy kell kinéznie valódi formájában...várjuk az összehasonlítást a gyári és a lekapcsolt TAA-val.
Sajnos sok új játék vignette, élesítés, színprofilt stb effekteket rátesz a képre...
Én is fotózik/videózok.Csak ha lehet .png-be mentsd a képet ne .jpeg-be.
[ Szerkesztve ]
-
Teasüti
nagyúr
válasz
KRoy19 #44713 üzenetére
Igen, fotós/videós szemmel is látszik, hogy van némi élesítésnek tűnő hatás rajta. Bár a játékban ez le van véve nullára. Nekem speciel bejön. Igazi részletben sincs elveszve semmi. Ami van, az csak ki van emelve kicsit és sokkal meggyőzőbben, mint egy közönséges Sharpening. Kolléga fentebb arról írt, hogy a padlón szereti látni az apró repedéseket. Nem gondolom, hogy 1080p render mellett ne látszana a textúra teljes egésze és elvenne bármit is az élményből. Főleg kényelembe helyezve magamat és hátradőlve játék közben.
Ezt most a "4K játék" kapcsán írom. Szerintem felesleges ráerőltetni ezt a videókártyára. Szvsz nincs igazi hozzáadott értéke. Ha bármi érdemi összehasonlításhoz 400%-os nagyításra van szükség, akkor ott már nincs értelme hasonlítgatni semmit.
Aki meg olyan sasszemű, hogy neki b.ssza a szemét egészséges nézési távolságból, hát akkor ő balszerencsés videofil. Audiofilek és videofilek meg úgyis örömmel fogják kinyitni a pénztárcát, illetve nekik úgyse lesz elég jó soha semmi se.[ Szerkesztve ]
-
X2N
őstag
válasz
Teasüti #44712 üzenetére
Azt a zajtengert ugyanúgy az nvidia is elköveti ha kikapcsolod a denoisert, de nem ez a lényeg. Lehetnének jobbak is a textúrák ebben a Hogwarts Legacy-ban de elnézem nekik mert ez az első komolyabb játékuk, pár GB-os textúra moddal biztos fel lehetne húzni jelentősen a környezet kinézetét, elég lenne csak AI-al felskálázni az összes textúrát.
-
Teasüti
nagyúr
válasz
Teasüti #44707 üzenetére
Én most így teljes képernyőn váltogattam képnézegetőben a folyosó jelenetben a 4K és a DLSS Performance (1080p) között oda-vissza. DLSS képe nekem jobban tetszik, mint a natív. A kontúrok jobban ki vannak húzva, részletvesztést sehol sem látok az RT effekten kívül. Pedig ezt most nagyítóval kerestem.
Szerintem AI skálázás a jövő. Nekem nincs kifogásom ellene. Hagyományos AA-nak lejárt az ideje. AI kontúrosabb képet készít, mint a natív render. FPS nyeresége is van. Artifact egyre kevesebb, ami akció közben úgyse szúr szemet. Én nem értem miért kardoskodik ellene a nép. Igaz hosszú utat járt be és döcögős volt, de ha a Control volt az utolsó összehasonlítási alap, akkor azóta kijött két fő verzió.[ Szerkesztve ]
-
Teasüti
nagyúr
Tessék.
Két jelenet a Hogwarts Legacy-ból.
Egyik a padlón lévő tükröződést demonstrálja, másik meg egy RT tükör előtt állva demonstrálja a részleteket.
A képernyő felbontása 4K minden képen, de a DLLS szintje változik.
A "4K" fájloknál a DLSS ki volt kapcsolva. A Quality az 1440p-ben renderel, a Performance az 1080p, az Ultra Performance az 720p.
Ha az RT-t kivonom a képletből, akkor a textúra részletességére nem hiszem, hogy sok panasz lehet DLSS szinttől függetlenül, vagy igen?
RT effekteket tegyük félre egy percre és fókuszálj csupán a textúrákra! Natív 4K és a DLSS Performance (én ezt szoktam használni) között van annyi különbség ami miatt megéri kínlódni a 4K-val? Főleg ha még játszani is szeretnék, nem csak fotózni a játékban.[ Szerkesztve ]
-
Kicsit el vagy tévedve. Ez egy NVidia topik. Ráadásul szólj ha még egyszer leírjam neked már nem tudom hányadszorra hogy a 12 GB Vram kevés,de nem ezen kellene rúgozni és csak ezzel foglalkozni, mert ez egy kártya sku, a 4070 variánsok.
létezik 4060 16 GB, 4070 Ti super 16GB, 4080 és 4090 amik mind ennél több és gyorsabb Vrammal vannak nagy L23 gyorsítótárral amire ez még rátesz. Mindegyik kommentemben leírtam hogy mindenki priorizáljon neki mi kell. Az AMD semmivel sem jobb vétel mint az Nvidia az én szememben, mert amennyivel olcsóbb( ha egyáltalán) annyival kompromiszumosabb( nekem számít az RT és a DLSS) és ugyan ezen gondokodás mód szerint neked semmivel sem ad töbet az Nvidia mert nem érdekel az RT és a felskálázás. Tehát remélem lassan megérted mire utalok ezzel. (Hogy ez nem egy vs topik és nem itt kell hitet tériteni, mert mindegyik gyártónak meg vannak a maga hátulütői és nem ez a témája. Pumba ki lett banolva ezért x időre az AMD topikból, pedig AMD kártyája van... )
A butított sávszéllel rendelkező DP 2.1 re re gondolsz aminek semmi értelme? remélem nem kerül fel ebben a formában.Az AMD az álmadiban 10 szer kisebb cég. Nézz utána mennyi a bevétele az AMD nek még úgy is, hogy az Nvidia rekordokat dönt.meg fogsz lepődni hogy a 10x től mennyivel eltér. Ez egy bullshit, Ezt a kártyát ma már nem tudod itt eljátszani, hogy szegény kicsi AMD és csúnya nagy gonosz Nvidia.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
X2N
őstag
Azt hittem ti örültök hogy van egyáltalán AMD aki olcsóbban adja a kártyáit hogy utána még olcsóbban megvehessétek az nvidiát mert az a jobb. Most akkor nektek semmi se jó már? Mindenki feküdjön be az nvidia-nak meg a proprietary technológiájának mert nekik van pénzük lóvére és úgyis jobban tudják? Nektek áll feljebb mert a Radeon nem megy úgy az nvidia kártya nvidia féle saját rajtracing-ben?
Erre megy a személyeskedés meg a fanboyozás... Egyetlen példád a a wukong volt, én meg mutattam neked több játékot is amiből látszik hogy a 7900XTX-RT teljesítménye 3090-4070Ti szinten van mindenféle skálázás meg frame gen nélkül is, még úgy is hogy az AMD bevallottan elrontotta ezt a szériát. AMD kb tized akkora cég mint az nvidia
, nem versenyeznek ők az nvidia-val, csak saját magukkal. A legutóbbi Zen5 launch-kor is azt se tudom hogy sírjak-e vagy nevessek, azon a cirkuszon amit az AMD megint levezényelt. Megint kihozták ezeket a non X3D processzorokat, közbe meg a nép az X3D-t várta már mióta, senkit nem érdekel a nonX3D széria amióta van a másik is. A 16magos X3D procira is csak az egyik CCD-re fér fel a vcache ez is egy vicc...AMD legnagyobb ellensége saját maga, nem a vetélytársai
Mond csak arra a csodálatos 4070 Ti Super-re felkerült-e már az a bizonyos DisplayPort 2.1?[ Szerkesztve ]
-
Miattam mondhatod, de ez egy egyszerű hazugság.
Én tudom hogy kevés az a 12 GB Vram néhol ( beállítás kérdése) és hogy az nvidia tudatosan csinálja ezt a 4070 nél, de aki tudatos vásárló azt is tudja mire és miért veszi . Én 12 GB 3080 kártyával játszok vígan elvagyok 1440p-n és 4 K-n is használom az RT-t ,a DLSS-t és nem nagyon van olyan játék aminél ezeket bánnám és a vram akadály lenne. maximum néhol full RT vagy ultra textúra nincs.DE sajnos AMD fanboyok Hite erre épül, tipikus "mi látjuk az igazságot te meg el vagy vakítva a zöld hályoggal" miközben azt gondolom, pont ti vagytok ezzel a gondokodással a legnagyobb akadályai a fejlődésnek, rátok épít az AMD.Mert létezik a 4070 12 GB vrammal.... mellette más kártya nincs,se több vram se options fül. Nem aggódok ezen simán megírtam volna neked én is hogy ezt fogod írni mert te abban az árban veszed mindíg az AMD-t ami nálunk itthon nincs. ( példaként Alzán a legolcsóbb 4070 Super 243 ezer a legolcsóbb 7900XT 320K amit megvennék 336 ezer a 4070 Ti super pedig 356 K tehát nálunk a 4070 Ti Super 16 GB van egy árban a 7900XT vel nem a 4070 Super....No offense.
)
kár hogy erre elvittétek a topikot.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
X2N
őstag
Megpróbáltam ezt a 4K-s képet amin nincs denoiser 50%-ra skálázni(ez bevált szokás 3D rendernél ha el akarjuk tüntetni a a zajt, csak 2x nagyobb felbontásban kell renderelni és felére csökkentei a felbontást utólag a nem kész (de azért legalább~90%-os , zajos renderen), még így is látszik a zaj bőven, ezért megint 50%-al kicsinyítettem
Mondjátok meg ti hogy egy 1080p/1440p-s monitoron ez hogy néz ki. Szerintem még mindig zajos pedig ez már ~520p felbontás. Hova butítsam már?
[ Szerkesztve ]
-
Jacek
veterán
Nekem mindegy melyik kartya gyarto Riva128 volt az elso 3D gyorsitom. De lehwt hogy V1.
En most azert vettem AMD mert fontosabb a raszter 4070S arban vettem egy 7900XT ami raszterban elporolja nagyon.
DLSS viszont sajnalom... mert 4K-vagyok 6 eve, de elromlott a szemem lehet vissza megyek 1080P-re -
Jacek
veterán
Nem kellenek.az NV lozungok.. elore leirtam mit fogsz irni
Mint mondtam jelen pillanatban semmi masert nincs az rt jelen formajaban eroltetve mint hogy gyengitseg az AMD es tereljek a nepet az nv fele, jol csinaljak mint irtam.
De hogy en ennek tapsolni nem fogok, te annak tapsolsz hogy nem GPU fejlesztenek mar hanem mar kotelezo a DLSS a FG hogy ertelmezhetoen fusson egy jatek
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Marketing Budget
Város: Budapest