Hirdetés
-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
félisten
Néztem GPU trackert [link] a legolcsóbb 7900XT azon 705 euro a 4070 Super pedig 545 ami 30 % eltérés árban. Német Amazonon is néztem [link] svéden most nézem épp ,de nem találok jó áron. [link] ezért írtam amit írtam , hogy szerecsés vagy ha 550 euro körül be tudtál húzni egy 7900XT-t.. nem egy MSRP ben van a két kártya és nem lehet kani 4070 super áron ,de ezek szerint Svédben igen. Ha a legdrágább 4070 Super veszed alapul.de akkor meg ott van a 4070 Ti super 16 Gb ami 800 euro ez van árban a 7900XT mellett, igaz + 13 %.
Még aquaban találtam a két kártya között a legkisebb eltérést. ott akciós most a 7900XT , 296 K az XFX, a 4070 super pedig 248. [link]
itt olyan 20 % eltérés van a két kártya ára között és a 4070 Ti super is drága olyan 350 K itt. azaz 20 % van a radeon javára.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz Raymond #44752 üzenetére
Rákerestem ott is valami 6% utalvány kóddal kerül annyiba, ha jól látom [link] a 750 euros ár, bár lehet nem jól nézem az oldalt.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
És akkor a 4070 super is netto. Teljesen mindegy hogy netto vagy brutto, ha mindkettőre nézed az árkülönbség ugyan az marad....
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
válasz huskydog17 #44745 üzenetére
Ezek a játékok használnak GPU-val gyorsított PhysX-et:
Active Worlds / Alice: Madness Returns / Assassin's Creed IV: Black Flag / Batman: Arkham Asylum / Batman: Arkham City / Batman: Arkham Origins / Batman: Arkham Knight / Borderlands: The Pre-Sequel / Borderlands 2 / Bureau: XCOM Declassified / Call of Duty: Ghosts / Crazy Machines II / Cryostasis / Dark Void / Darkest of Days / Daylight / Fallout 4 / Hawken / Hot Dance Party / Hot Dance Party II / Killing Floor 2 / Lords of the Fallen / Mafia 2 / Metro 2033 / Metro 2033 Redux / Metro: Last Light / Metro: Last Light Redux / Mirror's Edge / Passion Leads Army / Rise of the Triad / Sacred 2: Fallen Angel / Sacred 2: Ice & Blood / Star Trek: D-A-C / Tom Clancy's Ghost Recon Advanced Warfighter 2 / Unreal Tournament 3 / Warface / Warmonger - Operation: Downtown Destruction
Még használt eredetileg a Warframe és a Planetside 2 is. A Warframe lecserélte egy sajátra, míg a Planetside 2 esetében licencproblémák voltak, és a Sony inkább kivette, hogy ne kelljen az NV-nek fizetnie.
Leginkább azért nem használnak ma már GPU-s PhysX-et, mert valójában sosem fizikáról volt szó, hanem grafikáról, és a compute shader kiváltotta ezt. Persze az sem segít, hogy az NV a rendszert nem fejleszti már a játékok szemszögéből. A 3.4-es volt az utolsó verzió, ami játékhoz készült. A 4-5 már nem igazán. A PhysX játékokhoz tervezett verziója 2018 óta gyakorlatilag vegetál. Nem tudni, hogy az NVIDIA valaha is újraindítja-e. Abból kiindulva, hogy már arra is figyelmeztették a fejlesztőket, hogy a PhysX runtime kikerülhet a GeForce driverből, így a GPU-s PhysX effektek a játékokban elszürkülnek majd, arra lehet következtetni, hogy nem jön vissza ez az irány. A karbantartási költségektől pedig 6-7 év vegetálás után valószínűleg megszabadulna a cég.
Valós fizika gyorsításra dedikált hardverből nehéz, mert sok a round trip. Ezért használnak erre a célra csak CPU-t. Azért sem túl célszerű már a dedikált hardver, mert annyi mag van a CPU-kban, mint a dinnyében, szóval skálázni elég jól lehet már.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Teasüti #44761 üzenetére
Semelyik motor nem használja azt a modult alapértelmezetten, mert licencköteles. Csak CPU-s PhysX-et használnak a motorok alapból, mert az viszont ingyenes.
Ha amúgy sokan használnák, akkor az NV-nek is megérné karbantartani, de az utolsó játék, ami használja sok-sok évvel korábban jött ki. Így egyszerűen a modul karbantartása a driverben csak egy masszív pénznyelő, mert nincs mi használja. Ezeknek mindig ugyanaz a sorsuk, idővel kikerülnek, mert felesleges erőforrást ülni bele, ha a játékok nem nyúlnak hozzá. A kérdés a mikor, de valószínűleg pár éven belül ki lesz műtve. Valószínűleg azt várják, hogy kifusson az utolsó GeForce sorozat, amivel ezt még hivatalosan reklámozták, ami a Maxwell generáció volt. Az Ampere tulajok már nem reklamálhatnak, mert az NV vissza tudja mondani, hogy sosem ígértek nekik sehol sem GPU-s PhysX-et. Maximum működött, de ígéretként sehol sem volt kiemelve. És ezzel az NV bevédi magát a perektől, ha lennének.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
huskydog17
addikt
Köszi a listát, de egyrészt értelmetlen és felesleges volt ez beraknod, másrészt ebből látszik, hogy nem sikerült értelmezned amit írtam s megint jó szokásodhoz hűen teljesen másról beszélsz, konkrétan a múltról, mert úgy látszik a múltban ragadtál, emiatt ismét tömény bullshitet írtál le és ismét félrevezeted az olvasókat. Legalább egy picit utánajárhattál volna, mert az elmúlt 10 évben sok változás történt.
Nézzünk néhány gyöngyszemet:
"Leginkább azért nem használnak ma már GPU-s PhysX-et, mert valójában sosem fizikáról volt szó, hanem grafikáról, és a compute shader kiváltotta ezt."
A PhysX 5 több dolgot gyorsít GPU-val, mint az elődei. A fizikai szimulációt hogyan adod el játékban? Úgy, ha azt a játékosok látják, így nyilvánvaló, hogy grafikai elemként prezentálták, de ettől szimuláció volt, akár folyadék szimuláció, akár ruha fog köd szimuláció. A kijelentésed tehát nettó bullshit.
"Persze az sem segít, hogy az NV a rendszert nem fejleszti már a játékok szemszögéből. A 3.4-es volt az utolsó verzió, ami játékhoz készült. A 4-5 már nem igazán."
A valóság ezzel szemben az, hogy a két legújabb PhysX sokkal jobb játékra, mint a 3.4. A Unity is hülyeségből integrálta a 4.1-et alapértelmezett 3D fizikai motorként 5 évvel ezelőtt. A hivatalos NV doksi szépen leírja, hogy miket hoztak az új főverziók, 4.1-nél meg lehetne említeni a Immediate Mode-ot vagy az 5-nél a sok új GPU gyorsított feature-t. Szóval, de az NV több hasznos dolgot rakott be a friss verziókba, amelyek játékokhoz is rendkívül hasznosak.
"A PhysX játékokhoz tervezett verziója 2018 óta gyakorlatilag vegetál. Nem tudni, hogy az NVIDIA valaha is újraindítja-e."
Tehát te nyilván a 3.4-et tekinted az utolsó, játékra alkalmas verziót. Ettől nem is lehetnél messzebb a valóságtól. A PhsyX nem vegetál és a legújabb verzió is kiválóan alkalmas játékra, jobb, mint a 3.4, itt is a múltban ragadtál.
"Abból kiindulva, hogy már arra is figyelmeztették a fejlesztőket, hogy a PhysX runtime kikerülhet a GeForce driverből, így a GPU-s PhysX effektek a játékokban elszürkülnek majd, arra lehet következtetni, hogy nem jön vissza ez az irány."
Pontosan melyik fejlesztőt figyelmeztette az NVIDIA és mikor? Az irány el se ment, így nem is tud visszajönni, mindössze most már nem verik nagy dobra, ha a fizikai számítások egy részét GPU gyorsítja. Ma már nincs marketing értéke.
"A karbantartási költségektől pedig 6-7 év vegetálás után valószínűleg megszabadulna a cég."
Feltételezem továbbra is a 3.4-ről beszélsz, el kéne azt engedni, az NV és mindenki más is elengedte a piacon, csak te ragaszkodsz hozzá foggal körömmel valamiért. Azóta sok év eltelt, lépjél túl rajta.
Az utolsó bekezdéshez annyit, hogy az is nettó bullshit, ugyanis fizikai szimulációt lehet GPU-val gyorsítani. Nyilván nem a teljes szimulációt kell itt érteni, hanem részfeladatokat a GPU el tud végezni sokkal gyorsabban, mint a CPU, pont úgy, mint RT esetén. Amíg RT fronton a hardveres gyorsítás igen masszív marketinget kap, addig a GPU gyorsított fizikai szimulációk már nem, pedig él és virul, a PhsyX 5 több dolgot tud gyorsítani GPU-val, mint bármely más korábbi verzió.
# 44762: "Semelyik motor nem használja azt a modult alapértelmezetten, mert licencköteles. Csak CPU-s PhysX-et használnak a motorok alapból, mert az viszont ingyenes."
Ahogy mondtam: a múltban élsz, ezt most megerősíttetted, ugyanis a GPU gyorsításnak semmilyen felára nincs a PhysX 4.0-tól kezdve. A valóság így néz ki:
"PhysX has also become a key reference implementation of the similarly open source Pixar Universal Scene Description (USD) Physics standard available at PixarAnimationStudios/USD on GitHub. This informed the decision to return to the more permissive licensing terms used for PhysX 4. This means that all CPU source code is available under the simple BSD3 open source license, and NVIDIA GPU binaries are included at no cost."
A többi szóra sem érdemes.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
S_x96x_S
addikt
Az áttervezés érinti az RTX 50 "Blackwell" -t is.
"NVIDIA Blackwell Design Change Might Affect GeForce RTX 50 Launch, Reports of Higher Power Consumption"
https://wccftech.com/nvidia-blackwell-design-change-affect-geforce-rtx-50-launch-higher-power-consumption/Mottó: "A verseny jó!"
-
Abu85
HÁZIGAZDA
válasz huskydog17 #44764 üzenetére
Akkor pontokba szedve:
A lista azért fontos, mert te azt hiszed, hogy minden PhysX játék GPU-val gyorsít. Nem, ahhoz külön kód kell, és a listában szereplő játékok támogatják azt a kódot. Tehát ott van az a pár cím, amiben működik ez, minden más címben hasztalan a GPU-d PhysX-re, mert a CPU-n fut a kód mindenképpen.
Az NV-től régen kérdeztem, hogy egy ideje már nincs GPU-s PhysX, és hogy ez halott-e vagy valami. Nekem azt írták, hogy most az RTX-re megy a pénz, a GPU-s PhysX-et a 4-es verziótól kezdve átalakították professzionális szintre. Ez abban nyilvánul meg az NV szerint, hogy maga a szimuláció sokkal pontosabb, így ipari szintű modellezéshez is használható, viszont a pontosságnak az az ára, hogy 10-20x nagyobb az erőforrásigény. Tehát a PhysX 4-5 már nem optimális játékra, mert valójában a játékokban nincs szükség arra, hogy hihetetlenül pontos legyen a fizika modellezése. Kismértékű változást jelentene csak a kinézetet tekintve, miközben a számítások oldalán 3-4 VGA-ra van szükség hozzá. Nos, röviden ezért nincs GPU-s PhysX játék manapság.
A 3.4-es verzió megmaradt a régi, pontatlanabb fizikánál, azt begyorsították.
A Unity gyárilag négy fizikai motort támogat: PhysX, Havok, Unity Physics és Box2D. A PhysX verziója gyári szintű támogatás mellett valóban 4.1, de nem engedélyez GPU-s gyorsítást, pont amiatt, amiért az NV nem erőlteti ezt manapság. A 4.1-re azért tértek át, mert kedvezőbb a CPU-s kód sebessége az AVX optimalizációknak hála. A PhysX 5-öt viszont már nem is implementálták még kísérleti szinten sem, mert ott már a CPU-s kód is nagyon más, sokkal-sokkal több magot igényel a pontosság miatt. Ez ipari szinten, ahova fejlesztették oké, mert oda nem nehéz 64-magos Threadrippereket venni, de a gémereknek erre nincs pénzük. És az is számíthat, hogy a Unity inkább a Unity Physics fejlesztésére koncentrál, hiszen az gyári megoldás, és ez azért lényeges számukra, mert nem lesznek szopatva az olyan jellegű piacváltástól, amit a PhysX-szel csinált az NV. Ugyanígy az Unreal Engine is ezért fejleszti a saját megoldását, mert a PhysX irányával gaming szinten nem tudnak mit kezdeni.
GPU-s PhysX-re a 3.4 az utolsó, ami játékra is alkalmas, mert az még nem ipari szintű pontosságra van kialakítva. CPU-ból még elmegy a 4-es. Az 5-ös semmiképpen, mert az minden szempontból robotika szimulációra van írva. Az nagyon jó ipari szinten 4-8 GPU-s Threadripper rendszereken, de a gaming nem tud vele mit kezdeni, mert nincs meg a pontosság által megkövetelt teljesítmény egyetlen GPU-ban. Úgy meg pláne nincs, hogy a GPU közben egy rakás más dolgot csinál.
Azokat a részfeladatokat, amiket lehet gyorsítani GPU-val már rég alkalmazzák a játékok compute shaderben. Tehát különösebb haszna ezért sincs a GPU-s PhysX-nek már, mert az adott effektre írnak egy compute shadert és kész, fut mindenen.
Igen, a binárisokat odaadják ingyen, és ennek pont az a hátránya, hogy ha nem működik, és az esetek többségében nem fog, mert nem tud az NV minden egyes specifikus tényezőhöz alkalmazkodni, akkor mehetsz a supporthoz, hogy írják át neked a kódot, és fordítsanak neked olyan binárist, ami működik. Ezt megcsinálják, de erre licencszerződést kell kötni, mert az NV support nem fogja neked ingyen működővé tenni a kódot. Hülyék lennének, ha pénzt is adnak ezért az emberek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Teasüti
nagyúr
Van vmi nyilvánosan hozzáférhető szoftver, amiben PhysX-szel modelleznek?
Gondolok itt akár csak egy CAD vagy hasonló kaliberű megoldásra, ami konkrétan ipari PhysX-et használ? Egyáltalán fut az Geforce-on, vagy ide már Quadro kell? Robotikát említetted. Itt mit kell elképzelni? Boston Dynamic új masinája PhysX-szel végzi a fekvőtámaszokat és a hátra szaltót? Mert a közönséges robotkaros megoldásoknál nem rémlik, hogy fizikát kellene számolni. Hacsak nem röptében adogatják át egymásnak a karok a munkadarabot.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz Teasüti #44769 üzenetére
Nincs. Meg nem is ez a PhysX 4-5 fő célterülete, hanem azok az egyedi igények, amik az ipar 4.0-ból erednek.
Ezt amúgy jól látta az NVIDIA. Azért ők sem voltak vakok abból a szempontból, hogy a compute shader átveszi majd az uralmat a GPU-s fizikai effekteknél. Tehát akármit is kínálnak később, az versenyképtelen lesz az egyedi megoldásokkal szemben. Szóval elvitték arra a PhysX-et, ahova még el lehet adni. A másik lehetőség a beszántás volt, gondolom azt még nem akarták meglépni. De az nyilvánvaló volt számukra viszonylag gyorsan, hogy a gaming szintjén a GPU-s PhysX-nek leáldozott, és léptek is, hogy akkor majd kezdenek a technikával valami mást.
Nyilván valamilyen szinten kötöttek kompromisszumokat is, például régebbi PhysX modulokat kivettek a meghajtóból, ami miatt a nagyon régi verziót használó játékok már instabilak is. Erre alig reagáltak a fejlesztők, de például a Warframe reagált rá azzal, hogy lecserélték a GPU-s PhysX-et. A legtöbb játék viszont egyjátékos volt, a játékosbázis rég lecsökkent arra a szintre, hogy ezt nem érdemes tovább karbantartani, majd a user kikapcsolja, ha fagy a program. Viszont erről mindig kaptak tájékoztatást a fejlesztők, hogy mi változott, és mi nem fog a jövőben stabilan működni, csak nincs hajlandóság ezekhez igazodni. Egyszerűen túl drága több éve megjelent játékokat egy maréknyi userért karbantartani. A Warframe annyiban lehetet más, hogy az multi volt, és ott azért még megvolt a játékosbázis.
Egyébként itt jó hír, hogy a 3.4-es verzióval a fejlesztők is szállíthatnak a játékban modult a hardverekhez. És ezt azért intézte így az NV, hogy ha majd végleg kiveszik a GPU-s PhysX supportot a driverből, akkor a fejlesztők fel tudják frissíteni a modult a régi játékokban 3.4-re, és egy patch-csel szállíthatnak saját binárist. Na most persze az megint kérdés, hogy ezt hányan fogják megtenni, de az NV mondhatja azt, hogy mossa kezeit, mert ők megadták erre a lehetőséget. Ez a bináris addig működni fog, amíg a futtatását meg tudja oldani az új architektúra. Ha viszont ez sokat változik, akkor ennek is lőttek.Egyébként, ha valakit érdekel, akkor az NV szerint a 373.06-os driver a váltópont. Ha nagyon régi a GPU-s PhysX játék, és instabil az új driverekkel, akkor vissza kell rakni egy 373.06 előtti meghajtót, és azzal stabil marad. A 373.06-től a játékot kell frissíteni, ha nagyon régi a PhysX modulja. Nyilván ez az új hardvereknél nem megoldható, és ebből kitalálható, hogy az NVIDIA miért nem említi többet a GPU-s PhysX-et.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
válasz S_x96x_S #44765 üzenetére
Olyan pletykák vannak hogy 60 % non RT és akár 100% RT gyorsulást hoz a módosított dizájn.Tehát ha ez igaz lenne a hatékonyság ezzel együtt nőhet.
Mondjuk jobb óvakodni a hype vonattól,de ha azt is feltételezzük, hogy igaz, akkor az RDNA4 más színben tűnik fel...[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-=RelakS=-
veterán
Már 600W-ot emlegetnek az 5090-re.
Meg hogy az 5080 a 4090 110%-a lesz. Hogy raszter vagy RT, azt kitudja.
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
gainwardgs
veterán
válasz -=RelakS=- #44777 üzenetére
Olvadó tápcsatik v2.0
-
-=RelakS=-
veterán
válasz gainwardgs #44778 üzenetére
de már az 5080-on is
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
X2N
őstag
válasz -=RelakS=- #44779 üzenetére
Ja ez igaz akkor 5090-5080-ast se veszek, marad az XTX . Megtarthatják a kazánjukat.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #44772 üzenetére
Mert az új drivermodulok nem mindig kompatibilisek visszafelé. De erre az NV mindig figyelmezteti a fejlesztőket. A nagyon régi GPU-s PhysX játékok instabilak lehetnek az új driverekkel.
#44773 Teasüti : Akkor érdemes nekikezdened, mert nem tudni, hogy melyik modul meddig fogja stabilan futtatni a régi kódokat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
Ez amúgy nem vészes ,50 W TDP( nem fogyasztás) ami ha ez mellett gyorsul ,semmiség.
A 5080 nál kérdés lesz e Ti változat az kapja meg a 80W verziót vagy a sima , elöbbinél nem akkora gond utóbbinál azért már jelentős,
Amúgy volt már volt ekkora gyorsulás nvidiánál architektúra váltásnál nem is olyan régen. Ez nem azt jelenti hogy ez lesz, ezek még pletykák.
5 hónappal a megjelenés elött szoktak jönni az első benchek mérésekkel, tehát ha januári bejelentés, februári megjelenés akkor kb szeptember vége október eleje lesznek.Az mellett mindíg a legideálisabb eseteket vezetik fel ilyenkor. Az, hogy akár 100% RT gyorsulás vagy akár 60 % az nem azt jelenti hogy ez átlag hanem hogy előfordulhatnak ilyen esetek ez kb 30-40 % amit említesz átlagban
Ez kb az, hogy Amúgy az Ada sokszor gyorsabb RT ben mint minden eddigi hardver,elméletileg, amit persze nem lehet kihasználni játékokban,de egy konzolban ami kizárólagos egyedi hardver lenne érdekesen megfektethető lenne a PC piac egy része. [link][ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Busterftw
nagyúr
válasz -=RelakS=- #44777 üzenetére
Szerintem ez a csatlakozóra fog vonatkozni.
-
Teasüti
nagyúr
válasz KRoy19 #44787 üzenetére
Látványos mennyiség, nekem tetszik. De itt is csak egy-egy konkrét esetben része a játékmechanikának.
Ahol a vízzel kellett egyensúlyozni egy libikókát, egyedül ott volt szükség némi fizikára. Mindenhol máshol ha simán eltünteted a játékból, egyáltalán nem változna a játék.
Én ott vártam az innovációt, ahol a fizikai szimuláció maga a játék. Nem csak eyecandy.
Persze ez hagyományos értelemben általában kimerül a jármű szimulációban vagy vmilyen rombolós játékban. Egyszer olvastam egy fejlesztővel készült interjút a fizika használatáról. Nem emlékszem milyen alkotás kapcsán, de arra az elvre emlékszem, hogy nem annyira hangzott jól tisztán fizikára alapozni a játékmenetet, mert nem lenne kiszámítható eredménye és a továbbjutásra nincs garantálható recept. Túl nagy a szerencse faktor, hogy ledől-e az összes elem, aminek le kell dőlnie, stb.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz Teasüti #44788 üzenetére
Lehet Red Redemption 2 esetén hallottam ezt, hogy ott pl. a Benchmark-ra nem annyira szeretnek alapozni a tesztelők vmilyen aspektusból. Oka, hogy nem megismételhető a benchmark, mert a fizikai számítások minden futtatáskor más eredményt adnak és így a komplexitás is kicsit eltérő.
-
KRoy19
őstag
válasz Teasüti #44788 üzenetére
"Ahol a vízzel kellett egyensúlyozni egy libikókát, egyedül ott volt szükség némi fizikára. Mindenhol máshol ha simán eltünteted a játékból, egyáltalán nem változna a játék."
Na ezzel én nagyon nem értek egyet. Igenis marha sokat változna a játék, mert számomra sokkal érdekesebb, ha ennyire interakcióba lehet lépni a környezettel, még akkor is, ha nincs kimondott funkciója. Rohadt gagyi érzés a mai játékokban, hogy szinte minden statikus és a nullához közeli a környezettel való interakció lehetősége.
[ Szerkesztve ]
-
KRoy19
őstag
válasz gainwardgs #44790 üzenetére
Nincs baj azzal sem, mert egy full path tracing azért kurva sokat tud dobni a látványon. Az igaz, hogy még nem igazán vannak erre felkészülve a hardverek, de pár generáció múlva szerintem standard lesz és teljesen kihal a raszter.
[ Szerkesztve ]
-
Teasüti
nagyúr
válasz KRoy19 #44792 üzenetére
Pár évtized talán. De global ray tracing az egyelőre még szuperszámítógép kategória. Persze ha nem olyan képkocka sebességgel szeretnéd futtatni, mint a Cinebench-et.
Amit mi itt most ma ray tracing-nek hívunk, az egy nagyon-nagyon lebutított és ronggyá optimalizált algoritmus.[ Szerkesztve ]
-
KRoy19
őstag
válasz Teasüti #44793 üzenetére
Ma is létezik játszható formában, lásd CP2077. Nem kell hogy 100%-osan realisztikusan legyen szimulálva a fény, mert egy ponton alig látni különbséget. Volt egy Vidi erről egy CP mód segítségével, hogy kb. 4ray és 2 bounce a sweetspot, mert hiába adsz hozzá több rayt-t vagy bounce-ot, a képminőség szinte alig változik, a teljesítmény viszont drasztikusan csökken.
-
PuMbA
titán
válasz Teasüti #44788 üzenetére
Little Big Planet volt ilyen a jó öreg PS3-ra. Itt gondolom nem az NVIDIA GPU-n ment a fizika, hanem a Cell procin.
[ Szerkesztve ]
-
Teasüti
nagyúr
válasz KRoy19 #44794 üzenetére
Arra reagáltam, hogy "kihal a raszter". Nem fog kihalni a raszter amíg nem tudunk global RT-vel renderelni. Az meg szuperszámítógép kategória. Pl. aki itt gaytracing-el, annak halvány lila gőze sincs arról mi az a ray tracing számítástechnikai oldalról.
Már az egy kisebb csoda, hogy egy Portal RTX nem fossa össze magát egy jobb gépen, pedig egy 15 éves játék van alatta vagy mennyi. Valamint a komplexitás ott is még csak a butított algoritmusokat tükrözi. Ez akár csak 10 évvel ezelőtt még elképzelhetetlen lett volna. 20 éve még csak tanulmány szintjén pedzegették ezt. 30 éve még arról beszéltek, hogy kérdéses még az ő életükben megvalósítható lesz-e.#44796PuMbA
Eeegen, az a játék is rajta volt a radaromon. Sony tudja jól, hogy mit nem szabad kiadni Playstation PC-re. Pedig első napos vétel lenne nálam Steam-en az eredeti LBP és az Astrobot is.[ Szerkesztve ]
-
X2N
őstag
válasz KRoy19 #44792 üzenetére
Pár generáció alatt azt érted hogy az elkövetkező 30 évben? Azért érdemes lenne elgondolkozni hogy ha ma is tudunk ilyen grafikát full raszterbe(egy ócska konzolon(és hogy ez miért nem elég??),(sőt még ennél is jobbat egy Lumen+Nanite-al a későbbiekben) akkor mi értelme van Path Tracelni? Avatar szintű grafika valós időbe? Ilyen hatékonysággal? Akkor valamit sürgősen fejleszteni kell hogy hatékonyabb legyen a Ray tracing/Path tracing is. Tudjuk Cameron-nak milyen gép kellett arra hogy egy ilyen kaliberű filmet lerendereljenek és hogy ez mennyi ideig tartott... Az ilyen 4ray és 2 bounce a sweetspot megoldásokon csak nevetni tudok(meg azon is hogy X méterig van RT számolva), főleg úgy hogy 1080p vagy alatti felbontásról beszélünk(nem 4K DCI) ahova még a 4090 éppen elég...az a baj hogy bármi komolyabb jelenetet szeretnél nagy felbontással, részletes modellekkel, olyan minőségű textúrákkal, hajjal megjeleníteni rögtön kifutnál a jelenlegi 24GB vram-ból is... A másik baj hogy ha nem is számolod ki a képkockákat véglegesre akkor itt marad a zaj, ezt mindenképpen denoise-olni kell az meg borzalmas minőségvesztéssel jár, utána lehet élesítgetni utólag hiába még akár renderelsz 4K natív 4K felbontáson stb. (Persze ha natív 4K-n renderelnél(minimum 2048 sample RT-t másodpercenként minden frame-re, és ez lenne visszaskálázva FHD-ra akkor már lenne egy minősége a képnek és denoise-olni se kellene)
Ha meg nem kell 100%-osan realisztikusan szimulálni a fényt(amit úgy sem tudsz, mert kevés a sample, több ezer sample kellene nem 2-4) akkor el kell felejteni a Path Tracinget jelenlegi formájában, és megmaradni a Rayt Tracing-nél ami legalább gyorsabb és több mintavételezést csinálni, így nem fog ez sem olyan rosszul kinézni mint ahogy a CP2077-ben be van állítva és összehasonlítod a Path Tracingel.
Kár hogy eddig hangra a RT nem igazán volt használva, kíváncsi lennék, amúgy is mindig fejhallgatóval játszom, a hang része is kritikán aluli a legtöbb játéknak.[ Szerkesztve ]
-
Teasüti
nagyúr
Kár hogy eddig hangra a RT nem igazán volt használva, kíváncsi lennék, amúgy is mindig fejhallgatóval játszom, a hang része is kritikán aluli a legtöbb játéknak.
Pont ezen botránkoztam Hogwarts alatt, h mennyire gagyi a hangok térbeli megjelenítése. Én is fejhallgatóval játszok és Dolby Atmos keveri a hangot sztereóban. Anno meg a 3D-CMSS vagy mi volt a Creative X-fi idejében mielőtt elkaszálták. Már 3D hang kapcsán is megéltünk legalább két forradalmat, aztán mégis csak elölről kezdjük az fejlődést újra és újra. VR kapcsán voltak megint nagy reményeim, hogy a binaural lesz a sztenderd mindenhol. De a qrva életbe nem akar terjedni ez se...
Legalább a tejfölös dobozokon túlléptünk és már spatial audio van a Windows-ban is gyárilag mellékelve...[ Szerkesztve ]
-
X2N
őstag
válasz Teasüti #44799 üzenetére
Most éppen a openMorrowind-et tolom HRTF audio-val, de a Skyrimhez is létezik hasonló mod. Sokat hozzád az élményhez Pedig ez még fapad egy RT-s térhang szimulációhoz képest. Hogwarts-os fejlesztők mentségére legyen az hogy az első komolyabb játékuk csak.
[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Axon Labs Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest