-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
-
félisten
válasz proci985 #29352 üzenetére
remélem lesz több is, bár kétlem ,hogy őszinte legyek meg hát ahogy írta jacek is, nem mindegy mennyiért kapjátok meg h mégis lesz 40-50 %.
Amúgy VR-re a multi GPU nem megoldás? vagy a DLSS 3.0 ? mert állítólag az összes játék meg fogja kapni, illetve működni fog rajt,ami tudja a TAA-t.
az kb olyan 80 % körüli előrelépés lehet nektek.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz egyedülülő #29354 üzenetére
Igen az első pletykák szerint 4x gyorsabb lesz az Ampere RT alatt, ez azt jelenti, hogy még a 3060 is nagyobb sebességet fog tudni mint a 2080 Ti RT vel.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
carl18
addikt
Úgy látszik még se lesz gyenge mint a harmat! Van remény!
NVIDIA GeForce RTX 3070 Reportedly on Par with RTX 2080 Ti
"megerősített: RTX 3070 ~= RTX 2080 Ti. You all can do the math on how much stronger the 3080 & 3060 are relative to this based on the previous gen . And don't worry gamers, fun things ahead for multiple tiers of shoppers before Halloween..."Hiába szúr, itt Ryzen a úr!
-
en Oculus CV1el tolom, annak relative alacsony felbontasa van 1.4es SSAA mellett is.
multiGPU sajnos nem megoldas. anno a 290X CFnel nekem benne volt, hogy ok, VRre akkor meg ugy nezett ki az lesz a megoldas, aztan persze nem sikerult otthoni korulmenyek kozott megoldani a problemakat. Steam VR benchmark alatt a 290X CF az 1080tit is leverte, egyebkent meg kb volt a Serious Sam (meg a tobbi Croteam) amiben ment... bar a Croteam cuccok alatt idlezett a VGA alrendszerem, szoval a gyakorlatban sose volt ertelme. szal probaltam, nem ment, ha menne mar lehet figyelne bent a masodik 5700XT is. legnagyobb baj, hogy pCars2 es Dirt Rally alatt kepernyon megy a multiGPU (gyonyoruen egyebkent), viszont VR alatt konkretan nulla a skalazodas.
DLSSel az a baj, hogy igazabol par jateknal elesseg miatt SSAA kene, meg az extrem felbontas es a 80-120Hz (frame szinten is) tetejeben. tehat a CV1 es a Vive 2x1080x1200, amit 90Hzn akarsz hajtani, es akkor ez igy a letezo legjobb helyzet, mert ott a Reverb G2 2x2160x2160@90Hzre. meg esetleg arra meg SSAA picit elesiteni a kepen
egyebkent meg persze hatalmas elmeny, meg VRben az ember megszokja, hogy a "kimaxolok mindent" attitudot el kell felejteni.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
yagami01
aktív tag
válasz Dyingsoul #29332 üzenetére
Na, de ha ennyire elterjedt a VR és mondjuk a 4K sok esetben, nem lenne célszerű a teljesítményre (is) jobban hajtani? Az RT mellett, hogyha lehetséges. Bár lehet az van, amit asszem torma írt, hogy 2018-ban nem látták előre a tendenciákat, hogy mennyire érdekli az embereket az RT, mennyire terjed el stb. és eleve RT-re hajtottak ennél a szériánál a tervezéskor és majd a következőnél lehet megkapjuk a teljesítményt is az RT mellé.
Egyébként engem egyik se vonz igazán, olyan nagyon nagyon. RT sem és VR sem. Az is igaz, hogy egyiket sem volt alkalmam próbálni, de tervben van. Ha lenne alkalmas kártyám és gépem, egy-két címet tuti RT-vel tolnék, mert miért ne, elvenni nem vesz el és szeretem ha jól néz ki egy játék. De nem biztos, hogy minden RT-támogatottnál bekapcsolnám.
Mindegy, kíváncsi leszek. Ha a 3070-ek jönnek 2080 Super szintre, a 3080(ak) jöhet(nek) valamivel 2080Ti fölé? És akkor még e fölött lehet lenne 3080Ti és 3090 (amiből nem tudom mennyire valós a Palitos Super meg Ti....). Ha mondjuk 3080Ti = 2080Ti + 30% és 3090 = 2080Ti + 50% az már nem lenne annyira rossz. Most csak mondtam valamit mindenféle számolgatás nélkül. Legalább a 30%-nál jobb lenne. -
Dyingsoul
veterán
Mi az, hogy eldöntött piaci tendencia? Mintha lehetne venni azonos raster teljesítményű VGA-t venni RT nélkül, lol.
Kérdezzük már meg az itt lévőket. Ha lehetne venni 2080 Ti-t mondjuk 75 ezerrel olcsóbban, RT nélkül, szerinted melyiket választanák az RT-set vagy az RT nélkülit?Anno pl volt olyan, hogy azért kellett venni VGA-t, mert adott játék pixel shader 3.0-ra épült és ha nem volt hardvered rá el sem indult. RT-vel nem ez a helyzet, ez csak 1 opció semmi több.
(#29359) yagami01: Ezt ne tőlem kérdezd, hanem a bőrkabátostól. 6 éve várunk olyan VGA-ra, ami értelmes VR teljesítményt tud letenni az asztalra és tömegek tudják megvenni. Évek óta a 1080 Ti a legjobb jelölt erre, de persze az is drága, használtan is. Nem tucattermék.
Sima raszter teljesítmény kell a népnek, olcsóbban. Ennyire egyszerű a képlet.
A piacon van bőven 4K megjelenítő, de 1440p sem számít még tömegesen elterjedt felbontásnak szerintem. De csak azért nem mert még mindig nem vesz az ember 200-300$-ért olyan VGA-at ami stabil 60+ fps-el kitolja az 1440p-t high-on.[ Szerkesztve ]
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
yagami01
aktív tag
válasz carl18 #29356 üzenetére
Na, ez az aminek leginkább örülnék, ha visszatérnénk ehhez a 70-es pariban van az előhőz 80Ti-al dologhoz (mellette nőhet az RT is felőlem, ha nem zárja ki egymást). És ezt is hallottuk ugye korábban, hogy 3070 ~ 2080Ti, csak b. fentebbi infója alapján azt írta, hogy az 2080 Super lehet. Nem tudom mennyi a különbség a Super és a Ti között, de, mivel van itt mindenféle infó és ezt is hallottuk már amit most linkeltél... ezen tényleg már csak a kedd segít. (Illetve meglátjuk miket kapunk hétfőt.) Nagyon örülnék neki, hogyha így lenne. Egy apró megerősítés lehet, hogy a VR-os srácok jó pár hete említették, hogy azt hallották "valakitől", hogy eléggé ütős lesz az új széria. Aztán, hogy mi volt a konkrét infójuk... ha csak annyi, hogy lesz 3090, akkor ez nem oszt nem szoroz, de ha több... na, de legyen igazad, carl.
-
Dyingsoul
veterán
Szerintem ahogy közeledünk a kedd este felé, annál türelmetlenebb lesz mindenki. Nem is nagyon van értelme már diskurálni bármiről is. Ezt a két napot kell már csak kibírni valahogy.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
-
Dyingsoul
veterán
válasz proci985 #29363 üzenetére
Az én 1080 Ti-m bányász volt, nem tudom meddig (nem én bányásztam vele). Gamerként használom már 2-3 éve talán. Bányász mivolta semmit nem befolyásolt a teljesítményen vagy a tartósságán. 185-ért vettem meg anno. Azóta sem tudtam lecserélni semmi értelmesre. És már most tudnék rá 3 vevőt is ismerősi körben, átlag használt piaci áron.
[ Szerkesztve ]
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
keIdor
titán
-
yagami01
aktív tag
Képen az ASUS Strix 3090. A korábbi kép ezek szerint valósnak bizonyul. 2,5 slot. Azt írják, hogy a héten mutatja be az ASUS a kártyáit. Lehet, hogy a többi gyártó is előrukkol velük akkor még a héten. (nem tudom ez előtt ez hogy volt, lehet ugyan így)
https://videocardz.com/newz/asus-geforce-rtx-3090-rog-strix-pictured
[ Szerkesztve ]
-
arn
félisten
Ez igy van, mindig a konzolok hozzak el a pcn a szintlepest a latvanyban, addig max vannak pcn kivetelek. Mar regota az megy, hogy a pcs grafikat hozzaigazitjak az aktualis konzolszinthez, meg kitalalnak vmi skalazhato “igenyt”, amivel eladhatova teszik a draga pcs hwt (felbontas, fps, etc).
Es epp ezert lehet nv a szopoagon, ha az amd vmi nagyon masba vag, es atviszi a konzolokon keresztul - eddig az volt a fura, hogy szinte semmire se tudta a pcs piacon hasznalni a konzolos erofolenyet.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
arn
félisten
válasz Dyingsoul #29360 üzenetére
Nagyon egyszeru, ha a konzolos jatek rt grafikaval jon, eleg hulyen venne ki magat, ha a tobbszorosebe kerulo pcn szarabbul nezne ki vmi. Ha a konzolon hasznalni fogjak, pcn is.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
arn
félisten
-
-
Jacek
veterán
-
atok666
őstag
Mindekozben lehet Abuek mar harom napja gozerovel tesztelik a 3080/3090 kombot
Arok
-
do3om
addikt
válasz atok666 #29378 üzenetére
Persze szerintem híre se lesz a megjelenésnek, vagy legalábbis amikor már mindenhol fent van kidobnak valamit
Pl. Megjelentek az Nvidi új magasfeszültségű kártyái amik tovább fokozzák a múló nyári hőséget.
Szóval valami beszólós címet adnak majd, aztán hosszan elemezgeti mennyi minden jobb az AMD karikban, és hogy ezek a karik csak a Big naviig élvezhetik a tündöklésüket mert az mindenben fejlettebb.
Lesz szar GDDR6X, elavult gyártástechnológia, azt RT támogatás nem olyan irányú mint az AMD így az is szar......Ha érdekel valami szerelési anyag írj privátot. Eladó Schneider Mágneskapcsoló 18,5kW/38A
-
hokuszpk
nagyúr
válasz egyedülülő #29369 üzenetére
nem kell szepnek lennie. a harmasbol az olcso, gyors kombot preferalnam.
Első AMD-m - a 65-ös - a seregben volt...
-
egyedülülő
őstag
Jó lenne már tudni a 3070 milyen áron fog nyitni. Bele fog e férni 200-ba vagy sem? Nálam jelenleg ez a fő kérdés.
[ Szerkesztve ]
"Ha lenéznénk az űrből a földre, nem látnánk az országhatárokat. Csak egyetlen kis bolygót látnánk."
-
Devid_81
nagyúr
-
nubreed
veterán
válasz egyedülülő #29389 üzenetére
Nem fog. Megválaszoltam. Ha mégis, jössz egy sörrel.
We are the first of cyber evolution. We are the first to program your future.
-
oriic
HÁZIGAZDA
válasz egyedülülő #29389 üzenetére
200-250 kozotti arat varok es 10+ GB VRAM-ot. Ha ez nem jon ossze marad a Gtx1080Ti-om.
Live-Die-Respawn
-
egyedülülő
őstag
válasz Devid_81 #29390 üzenetére
Nem bírom a nyomást.
Nubreed: Akkor mindketten jól járnánk.
Orlic: Nem megfelelő forgatókönyv esetén még átülök egy 2080 Super-be átmenetileg, amíg megfelelő árazásra lesz a 3070-nek.
"Ha lenéznénk az űrből a földre, nem látnánk az országhatárokat. Csak egyetlen kis bolygót látnánk."
-
oriic
HÁZIGAZDA
válasz egyedülülő #29393 üzenetére
Nalam az nem jatszik sajnos, amennyivel dragabb, szerintem annyival nem gyorsabb a meglevonel. Szoval reszemrol megy az izgulas ezerrel.
Live-Die-Respawn
-
Jacek
veterán
válasz egyedülülő #29395 üzenetére
Elég jól húzható a 2070S-em de meghúzva eléregeti a 2080S-t alapon persze lehet azt is húzni (volt az is közel sem ment ilyen jól) Arra lecserélni szerintem teljesen felesleges, de persze szabadnak nevezett világban élünk.
-
Televan74
nagyúr
válasz egyedülülő #29393 üzenetére
Az árazása megfelelő lesz.Csak nem neked,hanem az Nvidiának!
Én max egy 3060 -ra pályáznék ha vennék.De idén előrendeltem a PS5 -t és azóta nyugodtabban alszom.Nem idegeskedem az árakon. Természetesen a főbb infókat elolvasom.
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
Abu85
HÁZIGAZDA
válasz Raymond #29346 üzenetére
Most nagyrészt leírtad, amit én leírtam itt: [link] , [link] - ezekre nem reagálok, mert eleve másolata a hsz-eimnek a te hsz-ed ezen részei.
A natív modellekre rátérve nem vagy képben arról, hogy a Nanite mit csinál. Amikor van egy nagy modelled, amit játékban való használatra nem készítettél fel, nincsen belőle kis részletességű verzió normal mappal, nincsenek LOD verziói, stb. ... akkor az a modell elképesztően nagy helyet foglal. Na most egy modellt mindenképpen be kell tölteni a memóriába, függetlenül attól, hogy annak egy részét majd úgyis kivágják a leképezés culling szakaszai. Tehát egyáltalán nem előnyös, olyan nagy modellekkel dolgozni, mert nagyon kevés fér majd bele a memóriába. A játékra felkészített verziók részben itt jelentenek nagy előnyt, mivel a háromszögszámuk nagyságrendekkel kisebb, a részletességet a normal map adja vissza, ami szintén nem egy nagy helyfoglaló, és ezeknek a kisebb modelleknek már a LOD-jai sem nagyok tárhelyigényben, így memóriahasználatban sem. Tehát ha valós idejű feldolgozásra felkészítve töltesz be egy modellt, akkor még az összes LOD-jával is nagyságrendekkel kevesebb memóriát használ, mintha betöltenéd az eredeti nagy részletességű modellt. Utóbbinál a LOD-ok szándékosan vannak mellőzve, mert azok is foglalnák a helyet, jó eséllyel még a legkisebb LOD szint is jóval több memóriát igényelni, mint a játékra átdolgozott modell maximális részletessége. Emiatt nem látod ezeket a natív részletességű modelleket egy játékban, még ha a mai GPU-k az új pipeline lehetőségeivel el is tudnának bánni olyan részletességgel, a memóriaigénye ezeknek a natív modelleknek olyan mértékű, hogy egy nagyon komoly részletességű modellre elmenne az egész memóriája egy mai tipikus PC-nek. Ez az oka annak, hogy a filmstúdiók a tartalomvizualizációhoz felszeletelik a magas részletességű tartalmat kisebb szeletekre, hogy beférjen a GPU-k fedélzeti memóriájába, és ezeket a kisebb szeleteket ellenőrzik. Ráadásul ezek professzionális GPU-k, nem szimpla gaming verziók kevés VRAM-mal.
A Nanite abból a szempontból más, hogy a PS5-nek egy igen speciális képességét használja ki. Konkrétan az egész alkalmazás maga lesz a rendszermemória. Az SSD-n címzi magát a tartalmat, a hardver memóriavezérlője pedig folyamatosan töltögeti be onnan a 4 kB-os lapokat a memória cache-ként használt részébe. Ehhez kell az az elképesztően gyors SSD, hogy nagyon sok lapot lehessen rövid idő alatt kicserélni, és ráadásul ezzel a modellel töredezettség sincs, mert minden lap 4 kB-os. Ez hasonló modell, amit láthattunk a megatextúrázásnál, csak éppen nem a textúrákra, hanem a geometriára. A valóságban ugyanis az van, hogy a textúra összes texeljére, illetve a geometria összes háromszögére nincs szükség. Ezek egy része kell a feldolgozáshoz, pont az a része, ahonnan a mintavételek történnek, de minél nagyobb a részletesség, annál több lesz azoknak a texeleknek és háromszögeknek a száma, ahonnan mintavétel egy adott képkockához nem fog történni, vagyis az adott képkocka szintjén tök feleslegesen foglalták a helyet a memóriában. Ezekre reagál az Unreal Engine 5, és úgy dolgozik, hogy csak a szükséges adat legyen a memóriába gyorsítótárazva az SSD-ről, de ennek a hatékony kivitelezéséhez szüksége van a PS5 hardverére, mert ez a modell akkor tud igazán jól működni, ha a streamingnek van egy hardveresen asszisztált támogatása, amellyel megoldható, hogy 4 kB-os lapokat cseréljen a rendszer a memóriában, ez a finomszemcsés adatmenedzsmentje a konzolnak. Emiatt tud elbánni olyan részletességű modellekkel, normal map és LOD-ok nélkül amelyekkel korábban semmi más. Ebben persze segíti neki a primitive shader pipeline a PS5-ön.
Durva szemcsézettségű adatmenedzsmenttel ugyan megvalósítható a dolog, de sokkal rosszabb lesz a kapott élmény, mert nehéz az egészet szoftveres szinten kezelni, így sokszor előfordulhat, hogy az adott modell vagy az adott textúraadat nem érkezik meg időben a memóriába. Ilyenkor az fog történni, hogy egy rendkívül alacsony részletességű modell lesz leszámolva, és hasonló lesz az élmény a Rage-nél ismert a textúra pop-upokhoz. Amint persze megjön a szükséges adat, akkor mehet a teljes modell. De ehhez is túl sok memória kell durva szemcsézettségű memóriamenedzsmenttel, mert maga a finom szemcsézettség felel azért, hogy a nagy részletesség tényleg csak minimális memóriaigénnyel rendelkezzen. Szimplán szoftveres formában küzdeni kell az allokációs stratégiával, esetlegesen defragmentálással (ha az allokációk mérete nem ugyanakkora, akkor elő fog fordulni egy ponton, hogy egy új allokáció már akkor sem fér be a memóriába, ha amúgy lenne benne annyi szabad hely, mert a szabad területek töredezetten vannak meg), és egy rakás tökre hátráltató tényezővel, miközben ezek PS5-ön pusztán azért nem is léteznek, mert 4 kB-os lapok másolgatása megy.Na most a fentiek tökre jól hangzanak, de a valóságban van egy gond. Hiába hozza ezt be az Unreal Engine 5, hiába tud a Nanite ennyire extrém részletességet kezelni, a modellek részletességének nagy részét ugyan nem kell majd betölteni a memóriába, csak azt amivel éppen számolsz, de tárolni kell az adatot. És a nagy részletesség ára a nagy tárhelyigény, már pedig ha elkezded ilyen modellekkel feltölteni a potenciálisan készülő játékodat, akkor gyorsan elérhető ám a 825 GB, ami a PS5 SSD-jének teljes kapacitása. Ilyen formában a Nanite képességei csak nagyon limitált formában használhatók, mert a szükséges tárhely, egyszerűen nem áll rendelkezésre. Gyakorlatilag annyi történt, hogy PS5-tel az Unreal Engine 5 megoldott egy viszonylag nagy problémát, amit valószínűleg imádnának a fejlesztők, mert ki ne vágyna arra, hogy közvetlenül sculpting után bevágj egy 20-30 millió poligonból álló modellt a motorba, de ez teremt egy másik problémát, nevezetesen azt, hogy ezeknek a modelleknek bezony kell a tárhely. Nem véletlen, hogy a demóban ugyanazt a modellt rakták ki egy csomószor [link], mert a Nanite és a PS5 bírja a terhelést rendesen, de ha mindegyik egy másik modell lenne, akkor kifogytak volna a tárhelyből.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Azonnali informatikai kérdések órája
- LG 34GS95QE-B: OLED paneles, ívelt gamer monitor
- Kupon kunyeráló
- Xbox Series X|S
- Mini-ITX
- Vodafone otthoni szolgáltatások (TV, internet, telefon)
- Stellar Blade
- Napelem
- Kerékpárosok, bringások ide!
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- További aktív témák...
- BESZÁMÍTÁS! GIGABYTE WindForce 2X GTX 960 4GB GDDR5 videokártya garanciával hibátlan működéssel
- ASRock Radeon RX 6800 XT Phantom Gaming
- ZOTAC GeForce GTX 1080 AMP Edition 8GB GDDR5X 256bit
- GIGABYTE RX 6700 XT 12GB GDDR6 AORUS ELITE Eladó! 102.000.-
- PALIT RTX 3070 8GB GDDR6 GameRock OC Eladó! 125.000.-