-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
annal is van link?
en tavaly nyarig CFeztem ket 290Xel, de tavaly az egyetlen jatek ami tamogatta kb a Far Cry : New Dawn volt.
kar egyebkent, mert ket 2070S / 5700xtbol remek ar/ertek aranyu es baromi gyors rendszert lehetne epiteni. masik oldalrol meg hala egnek, mert igy hat ev multiGPU utan visszatertem egy kartyara.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
arabus
addikt
válasz proci985 #29251 üzenetére
uj radeon driverekben már nincs 5700xt crossfire támogatás
pár régebbiben még volt
2x2070s-re kiváncsi lennék én is.Xeon Platinum 8468,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
-
nagyúr
válasz gejala #29250 üzenetére
Írtam már lejjebb is, a Turing megduplázta az ALU-k körüli infrastruktúrát, azért jelentősen gyorsabb azonos unit kapacitások mellett. Hasonlítsd össze a Pascal-t és a Maxwellt, ott csak pár % jött az infrastruktúrából - én hasonlóra számítok most non-RT téren.
(#29244) hokuszpk: igazából az majdnem tökmindegy - leszámítva azt a szűk kört, aki ilyet akar venni. A halo-kártya árazása nem feltétlen reprezentatív a termékskála többi részére. Engem sokkal inkább a 3080 érdekel ilyen szempontból.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Az explicit API-kon keresztüli több GPU-hoz nem kell semmilyen speckó link. Az összes multiadapter funkció a DMA-kon fut, tehát berakhattok két VGA-t a gépbe, mindegy, hogy van-e hozzá támogatás vagy sem, és ha az explicit API-n futó program támogat legalább egy WDDM-es AFR-t, akkor azok menni fognak. A WDDM-es AFR-nél több van, akkor az még jobb, mert ott akár két eltérő VGA is működhet, akár két külön gyártótól, stb. De a lényeg az, hogy az egész átkerült a program oldalára, és gyakorlatilag egy DMA motor szükséges hozzá, ami minden GPU-ban van. Alaplapon is csak két PCI Express sáv kell. Ez ma a multi GPU követelménye. DMA motorral rendelkező GPU, akármilyen alaplapban, akármilyen driverrel, nem kell hozzá semmi speckó BIOS, semmilyen driveres varázslat, de a programnak támogatnia kell.
Ezért lőtték le a gyártók a régi AFR-eket, mert ezek működését a Microsoft ellehetetlenítette az explicit API-kkal.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Maxxxim #29255 üzenetére
Az egyik a Time Spy, a másik a Time Spy Extreme. Utóbbinak nagyobb a memsávszélre a terhelése, így többet érnek az új VGA-k a nagyobb sávszéllel, de a Time Spy alatt nem sok az előrelépés, mert az meg inkább ALU és ROP limites, ahol a nyersen szám szerinti előrelépés kicsi lesz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Pipó
őstag
válasz Raymond #29232 üzenetére
El tudod képzelni, hogy az Ampere "IPC"-ben nem fejlődött semmit két év alatt? Ilyen lineáris számtan, amit írsz akkor jönne ki, ha a turingot ezekkel a számokkal megnövelnénk, illetve maradnának 12 nanon. A maxwellel is mekkorát ugrottak ugyanazon a csíkszélen, itt miért elképzelhetetlen ez a 4K elterjedése, konzolok, konkurencia szorításában?
Véleményem szerint a "termék teljesítménye és hatásossága a régóta fennálló használat és a tapasztalatok alapján valószínűsíthető"."Vannak győzelmek, amiktől jobban alszik az ember. És olyanok is, amik ébren tartanak." Broadchurch - Kis fekete szir-szar rózsaszín biszbasszal a tetején? - Az is vaaan!
-
Abu85
HÁZIGAZDA
Eleve az IPC nem egy túl jó viszonyszám a TLP dizájnoknál. Rá lehet húzni ezt a GPU-kra is, de például az RDNA2 75%-kal nő az IPC-ben az RDNA-hoz viszonyítva, mégse lesz majd 75%-kal gyorsabb, mert a TLP dizájnoknál nem ez számít, hanem az, hogy a leparkolt wave-ek mellett legyen egy másik wave, amivel tud számolni a multiprocesszor. Nagyon leegyszerűsítve ez a legfontosabb egy GPU-nál.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
A lineáris számtan csak akkor működik, ha van pár % IPC-növekedés - a unitszámok / kapacitások növelése nem skálázódik 100%-osan. A pár % javulás pedig az, ami általában jellemző - a Fermi és / vagy a Kepler pl. még romlott is ezen a téren. A Maxwell valóban kivételes volt - legalább két nagy és több kicsi okosság volt benne, amitől olyan 10-15% körül javult. A Turing hasonlóképpen, viszont ott egy nagy lépés volt, és az sem volt különösebben okos.
Szóval megfordítom a kérdés - mi utal arra, hogy az Ampere az "IPC" terén valami nagyot dobna? Én inkább úgy látom, hogy az órajelekkel akarnak sokat nyerni, a fogyasztás meg megy a levesbe. És persze RT, RT über alles.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
yagami01
aktív tag
Jacek: +1 Én is kizártnak tartom, hogy a táblázatban 3090 szerepel, mármint az a 30% karcsú. Főleg úgy, hogy mint írtad, korábban az új széria 70-e hozta az előző 80Ti szintet a 2K kivételével. Arról nem is beszélve, hogyha most azt mondjátok, hogy 2080Ti + 30% a 3090 és 2080Ti + 10-15% a 3080 (bár lehet még ez is jobb, mint a 2080 és 1080Ti esete volt...), akkor... hova jön a 3080Ti? Vagy a Super vagy mindkettő? Mert ugye mindkettőről láttunk már infót, de hogy valami jön a 3080 és 90 közé (20 gigásakat se feledjük) az szerintem biztos. Ezen a pár százalékon osztoznának? Lehet volt már ilyen, nem tudom, csak furinak tűnik. Meg egyébként is tuti eljutott az NV-hez a hír, hogy az emberek nagyobb előrelépést szerettek volna a 20-as szériával, azt gondolnám talán, hogy már csak ezért is odafigyelnek rá. Szóval nem tudom, én remélem azért, hogy ez egy 3080. Maximum. Valahogy a 3090 túl tekintélyt parancsoló név a 30%-hoz.
Maxxxim: Igen, de 3090-ről szól a találgatás. Ha 3080 lenne azt mondom okés.
arn: Nem csak az új fícsörökről kellene szólnia szerintem. Hanem magáról a teljesítményről is. Ok RT a jövő azt mondod és éppen ezért arra kell gyúrni. Na, de ugyan ezt mondták a VR-ra is, hogy az a jövő. Jacek pedig a VR-os teljesítményt hiányolja. Most akkor fontos a jövő vagy sem? Vagy egyik jövő fontosabb, mint a másik? -
carl18
addikt
válasz yagami01 #29264 üzenetére
Hát reméljük valóban lesz 50% előrelépés, és nem lesz az mint a Touringnál hogy generácionként 30% lép előre az Nvidia. Mert igy 4 év alatt jön 50-60% sebbeség növekedés az meg nem valami sok.
Arra meg fölösleges kitérni mert van hardveres Ray Tracing de nem sok minden profitál belőle. Még sok sok év mire alapvető lesz a játékokban, vagy arra épül egy játék. A Jövő a Ray tracing, de jelenleg nem eget rengető az egész.Ott a Régi Nvidia Physyx arról is mindenki azt hitte az a jövő, sőt még dedikált kártya is készült azon müveletek elvégzésére. Alig pár játék támogatta, a Mafia 2-re emlékszek. Most a Ray Tracing is elég kevés játék alatt van müködésre birva...
Hiába szúr, itt Ryzen a úr!
-
yagami01
aktív tag
Így van, én is gondoltam erre a jelenségre. Sok mindenre mondják ami új és lehet benne potenciál, hogy az a jövő. Aztán simán lehet, hogy eltűnik ezért vagy azért. Szóval ezeket majd az idő eldönteni, hogy tényleg "jövő"-e.
-
válasz yagami01 #29264 üzenetére
VRnel az a baj, hogy adott esetben a 2080TI kb highra eleg, egy 5700xt meg kb mediumra (pCars2, Dirt Rally 2.0).
flight simulatorbol mondanak VRt meg iden, az meg egy erdekes helyzet lesz.
2xar: fizikai enginek koszonik elnek es virulnak azert.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
Pipó
őstag
Az "IPC" növekedést a tesztekig semmiből nem lehet előre jelezni (kivéve a kávézaccot). Ahogy írtam, a körülmények fokozott szorítása kell hogy rákényszerítse az NV-t.
"Vannak győzelmek, amiktől jobban alszik az ember. És olyanok is, amik ébren tartanak." Broadchurch - Kis fekete szir-szar rózsaszín biszbasszal a tetején? - Az is vaaan!
-
nagyúr
válasz carl18 #29267 üzenetére
A Turing inkább 40% volt, függően attól, melyik kártyát nézed. A 70-es valóban csak 30, de az volt a szélsőség.
A Ray Tracing-jövő egy igen érdekes kérdés. A Turing-launch idején előadottakból nekem úgy tűnt, hogy az NVIDIA őszintén azt hitte, hogy éppen most szállították le a Szent Grált, és kissé leforrázta őket a reakció. Nem tudom, hogy leforrázta-e őket annyira, hogy a jövőbeli fejlesztési irányokon változtassanak - mindenesetre ha igen, azt az Ampere esetében még nem fogjuk látni, mert 2018-ban már drámai változtatásokat nem lehetett tenni egy 2020-ban kereskedelmi forgalomba szánt GPU-n. Úgyhogy most mennek tovább az RT-féle ösvényen, aztán a következő generációnál kiderül, mozdulnak-e visszafelé a non-RT sebesség irányába.
(#29272) hokuszpk: ja OK. Meglepne. Esetleg valami szélsőségesen memória-zabáló cucc esetében lehet közel annyi.
(#29271) Pipó: a Turing esetében lehetett előre tudni a leakekből, hogy megduplázták az SM-ek számát azonos ALU mellett.
A körülmények fokozott szorítása pedig rá is kényszerítette őket arra, hogy botrányos fogyasztású kártyákat kínáljanak, ha igazak a pletykák. Pont ez az, amit ilyen távon lehet csinálni, "IPC"-növelésre kicsit (3-4 évvel) korábban kellett volna gondolni.[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
félisten
válasz arabus #29242 üzenetére
nem kell már hozzá NV link a multiGPu hoz. akár IGP és dedikált között is működik.PCIE -n át is működik, már ha támogatva van.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
Ami érdekes hogy videocardz 7 nm gyártásra írja a GA102-t, megerősítették a 20 GB verziót a 3080 ból custom ,de egyelőre ismeretlen dátummal és azt is írják hogy 2x8 PIN lesz a 3090 Custom kártyákon alapból, nem 2x 8 plusz az új csati.
A GDDR6 x nek 18 GBps sebességnél Jobb a fogyasztás/ teljesítménye mint a a hagyományos GDDR6 nek szerintük.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
carl18
addikt
Hát akkár hogy nézzem, az RTX 2000 is le lett nyomva a vásárlók torkán. És mivel nem volt más ezért meg is vették az emberek. Azért kiváncsi lettem volna hogy ha az RTX helyet jön egy GTX 2000 széria és 60-70% sebbeség ugrás produkál akkor melyiket vették volna jobban az emberek.
Olyan ez mint a G-sync anno, azt is az Nvidia jokora felárral kinálta. Jött a FreeSync és most már az alap monitorok is támogatják mind két szabvályt. Sok mindenre mondták évekkel korábban hogy az a jövő. Még a 3D tévék, monitorok is szenzációk voltak pár éve. Most meg a kutya se foglalkozik vele, kikoptak a piacról.
Talán a Hardveres RT-nek akkor volna értelme, mikor már a játékok már alapból azzal dobnák piacra és nem is lehetne kikapcsolni. Talán még a DLSS lehet még érdekes, de azt se támogatja túl sok játék. Igy hogy gyakorlatban semmi se müködik vele nem igazán lehet vele számolni.
Szerintem az elmúlt években is megmutatkozott hogy jöhet itt Ray Tracing/Physx/ meg ki tudja milyen forradalmi eljárás. A Szimpla teljesitmény a legfontosabb, mert később egy 50 terraflopos GTX 4080 erőből megoldhatja a Ray Tracing problémát.
Főleg ha készül hozzá egy szoftveres leképző ami hatákonyan müködik.Hiába szúr, itt Ryzen a úr!
-
yagami01
aktív tag
válasz egyedülülő #29277 üzenetére
Az is épphogy. De én is azt írtam, hogy a 2k kivételével (2 ezres szériát értettem alatta).
(" korábban az új széria 70-e hozta az előző 80Ti szintet a 2K kivételével ") -
Jack@l
veterán
Van egy olyan sejtésem, hogy a "koproci" nem rtx lesz ha lesz, hanem AI.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
carl18
addikt
-
egyedülülő
őstag
Akik még azt mondják, hogy az rt nem az út, mert a physix, vr, meg stb. azt elfelejtik, hogy az idén karácsonykor elindul egy konzolgeneráció ami támogatja ezt a ficsőrt és alap lesz a játékokban a sugárkövetés. Amikor millió és millió fixhardveres konzol támogat valamit, az el fog terjedni. Ezért is fekszik rá jobban nvidia is a témára.
"Ha lenéznénk az űrből a földre, nem látnánk az országhatárokat. Csak egyetlen kis bolygót látnánk."
-
Dyingsoul
veterán
Miért, új terméket csak az új feature-ök miatt lehet venni? A plusz teljesítményre már mindenki tojik? Akkor nagyot fordult a világ és én lemaradtam.
[ Szerkesztve ]
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
-
yagami01
aktív tag
válasz egyedülülő #29282 üzenetére
Nem tudom mennyire lesz alap, de a VR-t is támogatják a konzolok, lásd PS VR.
torma: Hát igen, ha olcsóbb nyilván még jobban megéri venni az újat. Csak hát inkább drágultak a dolgok az előző generációval. (Persze a 3090 ha csak a VRAM-ot is nézzük jóval olcsóbb lesz, mint az előző Titan)
[ Szerkesztve ]
-
torma1981
veterán
válasz yagami01 #29286 üzenetére
Hát tuti a 3080 olcsóbb lesz jóval mint a 2080Ti. És még gyorsabb is lesz nála. Nem 450k-ért fogják adni hanem kb 300k. De lehet olcsóbb is lesz. Nem véletlen adják el a 2080 Ti-ket ameddig lehet. Bár nem tudom ilyenkor ki veszi. Én tuti nem venném amíg nincsen itt az új generáció. Nekem 2080S volt. Régen eladtam már. Várom az újat.
-
nagyúr
válasz carl18 #29276 üzenetére
Senkinek a torkán nem lett lenyomva. Pont akkora volt a generációs ugrás, hogy egy 1080Ti-vel egész jól el lehet lenni azóta is. Ha ennek ellenére megveszik a vásárlók a feláras cuccot, az nem az NVIDIA "bűne".
A hardveres RT, mint minden új feature, lassan fog gyökeret verni. Miután a hardcore vásárlók többsége továbbra is sokkal inkább a 4k@120Hz-re veri, mint a valósághűbb képminőségre, eddig nem is nagyon volt miért gyorsítani ezen a folyamaton. Hogy a konzolok hoznak-e ebben jelentős változást, abban szkeptikus vagyok, de lehetséges.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
-
Jacek
veterán
Nalad becsipodott ez az rt? Kutyat nem erdekli jelen pillanatban, kb annyira hasznos mint egy fa.. izu nyaloka. Elore lepes is az 1.1-es rt-bol lesz nem a hihetetlen hardverbol... A tobbi resze meg helybetopi..
Remelem tol valamit a kozelbe az AMD lassan ott tartok inkabb az, vagy konzol a gep melle az is AMD... Kezd intelre hasonlitani az nv... remelem oda is jut.. -
2xar
tag
válasz proci985 #29270 üzenetére
Igen, de mire pl. a Physx "elterjedt" (vagy akárcsak a hozzá hasonló többi fizikai motor), ahhoz sok év és az kellett, hogy mindenféle hardveren és mindenféle szoftveren jogdíj- és minden egyéb korlátozástól mentesen elérhetővé váljon/váljanak.
Tehát mire elterjedt, azok a hardverek, amikkel először megjelent és amiknél úttörő, kiemelkedő újításként és selling point-ként bereklámozták, nem csak hogy elvesztették az egyediségüket abban hogy támogatták ezt az új feature-t, de teljesítményben is elavultak lettek.
És ez hasonlóan alakult más "úttörő", gyártóspecifikus technológiáknál is, sőt sok végül egyáltalán el sem terjedt.
Magyarul: akik ezek miatt az új feature-ök (Physx, RT, DLSS, Vulcan, HSA, Gsync, HBM, Tesselation) miatt választottak egy-egy adott úttörő képességű hardvert, azok soha nem kapták meg azt amit az adott termék ígért.
[ Szerkesztve ]
-
arn
félisten
nem nalam csipodott be de a rt az egy sok potenciallal rendelkezo vmi, semmit se lattal eddig belole, mert keves hozza a hw. a mostani rt, az kb annyi, mint a rasterizacional ez:
https://www.youtube.com/watch?v=gtBFM5_hLPo
majd 5-10 ev tavlatabol megerted.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
arn
félisten
van akit a fizika nem erdekel? szvsz tok jo volt... epp mint az 3ds hang. bizonyos szempontbol magasabb szinten volt a winxp korszak vegen a jatekipar, mint most.
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
nagyúr
A PhysX-szel az volt a gond, hogy a 2000-es évek közepének megfelelő volt a megvalósítás műszaki színvonala, és ezzel az NVIDIA nem kezdett semmit. A CPU-rész egy szálon futott, a GPU-s rész ki tudja, mennyire volt párhuzamosítható. Erre még rá is játszottak olyanokkal, hogy pl. a Mafia 2-ben a cloth csak akkor ment GPU-n, ha volt dedikált PhysX-kártya. Ebből következően a PhysX csak akkor volt értékelhető, ha vettél +1 kártyát Jensentől, vagy ha maga a játék nem volt túlzottan HW-igényes. A Borderlands 2-ben pl. brutálisan jó volt, teljesen más feeling volt egy sokrésztvevős harc, mint nélküle.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Alogonomus
őstag
"Miután a hardcore vásárlók többsége továbbra is sokkal inkább a 4k@120Hz-re veri, mint a valósághűbb képminőségre, eddig nem is nagyon volt miért gyorsítani ezen a folyamaton."
Amíg a raytraycing bekapcsolása harmadolja a képkockasebességet a minimálisan valósághűbb képminőségért cserébe, addig az emberek sokkal inkább stabil 144+ fps mellett fogják 1080/1440p-ben játszani órákon keresztül a játékokat, mint ugyanazt jó esetben szűk 60 fps mellett. Jelenleg a raytracing nagyjából ugyanazzal a problémával küzd, mint az SSAA. Szebb képet ad mindkettő, de nagyon nagy áron. Igazán csak az egyszemélyes, kényelmes tempójú kalandjátékokban érdemes bekapcsolni, mert azokban a játékokban a képminőséget van idő kiélvezni, míg egy pörgős ütemű játékban a kép szépségénél sokkal fontosabb, hogy hamarabb tudj reagálni az eseményekre. Ezért is annyira kevés a raytracing játék. Egyszerűen az emberek úgyis kikapcsolnák a sugárkövetést a multiplayer játékokban a normális szintű fps értékek érdekében. A DLSS 2 megoldhatta volna ezt a problémát, de a betanítási fázisa vállalhatatlanul hosszú és valószínűleg költséges is az Nvidia számára. Majd talán a DLSS 3 javíthat ezen, bár eléggé vad vállalásnak tűnik az Nvidia részéről, hogy minden egyes TAA-képes játékban automatikusan bekapcsolható lesz és komoly gyorsulást hoz majd.Valószínűbb, hogy az eleve DXR 1.1-hez írt játékmotorok és játékcímek hozhatják csak majd el talán azt a "világot", amikor már vállalható áron be lehet kapcsolni a sugárkövetést egy játékban. Ezek a játékok viszont 1-2 éven belül még nem igazán jelennek meg, mert csak mostanában kezdhetik fejleszteni őket, ahogy az első DXR 1.1-es fogyasztói termékek megjelennek.
-
Hardveres PhsyX kb. annyira terjedt el játékokban, mint a low level API támogatás a mai napig (77 vs 95). Azaz ha szerinted a PhysX nem terjedt el, akkor az explicit API-ok sem terjedtek el.
Egyrészt eléggé gáz, hogy így látod, amikor több tucat játékba került bele (77 db), másrészt ugye nem csak hardveres része van. A CPU alapú PhysX több szász játékba került bele és több tucat grafikus motorba.
A 4.1-es verzióval ráadásul újabb feature kapott hardveres gyorsítást, miközben az egész SDK már nyílt forráskódú és ingyenes.Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Abu85
HÁZIGAZDA
Ezért kellett volna nyílt forrásúvá tenni az egészet, nem csak kis részeit.
Véleményem szerint csak egy reális iránya van az újítások állandó bevezetésének. Eleinte mehet ez gyártói hátszéllel, de úgy sem tudod mögé rakni a világ pénzét, tehát amint elfogy az újdonság varázsa, a pénzt is kiveszed belőle, és onnan jön a lejtmenet.
Már az elején az kell, hogy nyílt forráskód legyen az egész, és ugyan az újdonság varázsa itt is eltűnik, de a megírt eljárásokat felhasználják, írnak saját implementációt a stúdiók, így maga a technológia fennmarad, sőt, sokszínű lesz.(#29298) huskydog17: A PhysX létezik 13 éve, míg az explicit API-k 6 éve. És nagy különbség, hogy a GPU-s PhsyX esetében már nincs fejlesztés alatt álló cím, míg az explicit API-kra több tucat.
A 4-es verzió pont a problémák forrása. Az NVIDIA elvitte a fejlesztését a professzionális felhasználás felé, és egy csomó olyan döntést hoztak benne, amelyek durván károsak a játékfejlesztőknek. Egy játékba többet között nem kell professzionális fizika, mert sokkal többet ér a sebesség, minthogy egy kő ugyan tényleg valósághűen esik le, de százszor lassabban számolja a hardver. Ezért lépeget az Epic Games saját rendszerek felé, Niagara a részecskeszimulációra, Chaos a rombolhatóságra, Finite Element Method FX a végeselem-módszerrel történő deformálhatóságra, stb. Sokkal egyszerűbb lenne egyszerűen integrálni a PhysX 5.0-t, csak annyira elment professzionális irányba, hogy sokszorosára nőtt a gépigénye, és nyilván a játékosok körében nem fognak 10-20 GPU-t venni szimulációra, az Unreal Engine-nek olyan módszerek kellenek, amelyek egy GPU-val is megoldják a problémákat. Lehet, hogy nem abszolút valósághűen, de összhatásban jó lesz.
A robotika persze rajongani fog a PhysX 5.0-ért, nekik megéri a beruházás, de ha megnézed az NVIDIA a PhysX-szel már marketing szinten sem foglalkozik. Eltűnt a kártyák dobozáról, stb. A gaming driverben a runtime is ezer éve frissült utoljára. Egyszerűen nincs értelme pénzt rakni a runtime modernizálásába, ha gaming szinten senki sem használja.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
carl18
addikt
válasz Alogonomus #29297 üzenetére
+1 Szerintem is jelenleg a Ray Tracing hátránya hogy a bekapcsolása túl sok teljesitményt vesz fel. Mert ha csak 100 fps-ből csinálna 80-at még az elmegy kategória, de sajnos sokkal drasztikusabban csökken a képkocka szám.
A youtubon néztem pár összehasonlitás videót, persze realisztikusab az RT megoldás.
De ha a két képet egymás mellé rakod csak ha nagyon figyelsz a részletekre akkor tünik fel hogy ja ott "Ray Tracingolja" azt a rész .
A DLSS elég jó volna ha minden játék alatt müködne, de sajnos még mindig gyerek cipőben jár.(48 óra múlva indul a banzáj)
Hiába szúr, itt Ryzen a úr!
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- War Thunder - MMO Combat Game
- Milyen autót vegyek?
- Apple Watch Ultra - első nekifutás
- Kávé kezdőknek - amatőr koffeinisták anonim klubja
- Fujifilm X
- Aliexpress tapasztalatok
- Folyószámla, bankszámla, bankváltás, külföldi kártyahasználat
- Amazon Fire TV stick/box
- AMD Radeon™ RX 470 / 480 és RX 570 / 580 / 590
- Poco F3 - a mindenes, de nem mindenkinek
- További aktív témák...
- ZOTAC GeForce GTX 1080 AMP Edition 8GB GDDR5X 256bit
- 4070 Ti Aorus Master //KERESEM!!//
- Sziasztok! Eladó az alábbi videokártya, nagyobbra váltás miatt: - Zotac márka - nVidia GeForce RTX
- eMag GARANCIA! ZOTAC Trinity RTX 3080 10GB OC GDDR6X Videokártya! BeszámítOK
- GARANCIÁLIS! ASUS TuF RTX 3090 24GB DDR6X OC Videokártya! BeszámítOK