Hirdetés
- Feháborodott az Apple, a Meta az iPhone-felhasználók üzeneteit akarja olvasgatni
- A luxusmárkáknak kell a bitcoin, az USA jegybankjának nem
- Letiltja az USA a politikusokat a telefonhívásokról és szöveges üzenetekről
- Nagy áttörés jön a napelemek piacán, nem kell annyi hely a paneleknek
- Belenyúlt az USA az Epic Games igazgatótanácsába, nyomoz az NVIDIA
-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Yany
addikt
Bah, nem gondoltam volna, hogy ilyen csontvázak hullanak ki a frostbite szekrényéből. De azért ez a DX12-t is minősíti, akárhogy is szépítjük: van egy kód DX11-en, ami javarészt problémamentesen fut, de legalább ugyanezt elérni DX12-es ágon egy frostbite-méretű teamnek másfél évébe kerülne? Ez nevetséges. Lehet azt mondani, hogy elavult egy kód és a motor nem pici, de azért ne menjünk el amellett, hogy egy API/FrameWork,/akármilyen eszköznek, amit a fejlesztők használnak nem kis részben az is feladata, hogy leegyszerűsítse és magasabb szintűvé emelje a kódot közelebb hozva a valódi problémák irányába és ne technológiai aknamezőn való lépdesés legyen a folyamat. Ehhez képest én megjelenése óta is csak sz*pást látok a DX12-vel. Bezzeg a a Doom vulkanon nem csak atomstabil, de jó 20-30%-kal jobban is repül. Na ebből eddig semmit nem hozott a DX12: vagy lassabb, vagy max. ugyanolyan gyors és a driver overhead csökkenése ellenére nő az input lag. Nyilván nem minden játékban... (remélem).
Építs kötélhidat - https://u3d.as/3078
-
Abu85
HÁZIGAZDA
válasz -FreaK- #20596 üzenetére
DX12-vel van jól behatárolható gondja. DX11 alatt sok függ attól, hogy mit változtatnak a leképezőben, és arra mit lép a korábbi leképezőhöz szabott meghajtóimplementáció, amit aztán 1-2 hónap, mire átírnak a gyártók.
A Battlefront 2 óta ezért csinálja azt a Frostbite, hogy a gyártóknak megadja a lehetőséget, hogy a patch-ekbe már gyárilag optimalizált, külön shader kódot szállítsanak, amelyeknek akár nem is kell szabványosnak lenni. Csak ezzel nem mindenki él, mert ha esetleg kihúzza a supportot az EA a játék mögül, akkor úgyis kell majd hozzá a meghajtóba a speciális implementáció. Tehát amit ezzel gyárilag nem szabványos kóddal nyernek az gyakorlatilag az idő, amivel az esetlegesen problémás patch-ek után hibamentes lesz újra a játék.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-FreaK-
veterán
Úgy írod, hogy az engine-nek csak a DX12-vel van gondja, de sajnos nem csak, DX11 alatt is produkál megakadásokat.
Pont tegnap játszottam (GTX1080 - BF1), és az ellen fejére húztam volna a célkeresztet, majd ugrott egyet a kép egy tized mp.-re, és túlugrott rajta a célkereszt, ha nincs mákom, simán meghalok emiatt.
A grafikai beállításokat már vissza vettem high-ra, post processt low-ra, a gépemet is fejlesztettem már emiatt (4+4 szál I7, 16gb Ram), és amúgy simán fut 100-120fps-el, de ilyen akadások előfordulnak néha. -
Abu85
HÁZIGAZDA
válasz Jack@l #20593 üzenetére
[link] - időről-időre felüti a fejét. Nagyon random, azóta se tudják, hogy pontosan mi okozza (nyilván sejteni nem elég a javításhoz), de folyamatosan örökli mindegyik Frostbite játék a BF4 óta.
DX11 alatt nem is az alkalmazás felel a memóriamenedzsmentért. Nem a kapacitás vagy a hardver a probléma, hanem az, hogy egy sok-sok éve írt Mantle kód van DX12-re portolva. És ha átváltasz DX12-re, akkor bizony ettől tapasztalhatsz akadásokat, lagokat, elvégre a Mantle eleve nem támogatott sima eszközlokális memóriát, mindegyik látható volt a host számára. Ez baj, mert ilyet a DX12 alatt a VGA-k nem igazán támogatnak. Átírni meg ezt azért nagyon melós úgy, hogy évente kér több Frostbite játékot az EA. A szoftveres memóriamenedzsmentje a játéknak sajnos nem igazán jó, és ezt vagy megkerülöd a DX11-gyel, vagy a HBCC-vel. A 14 GB HBCC azért kellhet, mert ott érzi magát optimálisan a BF1. Nem nyers kapacitás kell neki, hanem az, hogy a teljes host visible flages memória biztosan HBCC szegmensen belül legyen a rendszermemóriában. A minimum ~11,5 GB mellett ~1 GB kicsúszhat ebből és nem HBCC által menedzselt területre kerül, ami azt jelenti, hogy ennek az allokációit folyamatosan be kell másolni a HBCC szegmensen belülre.
A Frostbite alatt alapvetően nem a hardverek jelentik az igazi korlátot. A motornak vannak nehezen javítható köhögőrohamai. Ezt megkerülni tudja némelyik hardver, de megoldani nem. A Frostbite Team tudná megcsinálni, ha az EA mondjuk adna nekik másfél évet, hogy akkor írják át, és jövőre nincs új Battlefield vagy Battlefront, de gondolom a részvényesek sikítva ordítják ilyenkor, hogy [link]. Szóval végeredményben csak cipelik a rendszer problémáit.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
"erőforrásledobálós probláma", ez valami új szakmai kifejezés? Kifejthetnéd bővebben, mert én még nem találkoztam dx11 alatt BF1 problémával.
14GB hekkelt memória (kell szerinted), de dx11 alatt 4GB-al megoldják jól. Erre esetleg valami bizonyító erejű mérés, videó?
Ha netán nincs, nem baj, odatesszük a vega-t ajnározó légbőlkapott agymenések közé.[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
Mindenen baj van vele. Itt leírtam mi a baj: [link] , [link]
A Frostbite Team se nagyon tud vele mit csinálni DX12 alatt. IGP-n jó, vagy aktivált HBCC mellett Kaby Lake-G-vel, illetve Vega 10-zel megkerülhető a hiba. De nagyon fontos, hogy engedélyezni kell a HBCC-t a driverben legalább úgy 14 GB-ra, különben ugyanúgy fog viselkedni a rendszer, ahogy a többi hardveren. Meg ugye itt is csak a rossz memóriamenedzsmentet kerülöd meg, mást már nem. Alternatíva a DX11, aminek meg az erőforrásledobálós problémája van.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
BiP
nagyúr
Ha teljesen noname vagy új név alatt csinálják, talán meg tudják úgy oldani, hogy NV ne jöjjön rá, hogy ki szegte meg az NDA-t.
Viszont akkor meg a csapat nem tudja bezsebelni a leggyorsabb cikkért járó közösségi elismerést.
Tehát összességében nincsenek előbbre.A legjobb, amit tehetnek, hogy 14-e előtt alaposan letesztelik a kártyá(ka)t, és jó tesztet publikálnak, hogy utána őket olvassa mindenki a sok azonnal megjelenő teszt közül
(#20589) Crytek: Az egy héttel ezelőtti 3dmarkos eredménynél már 400-as sorozatú driver volt. (411.17)
De a generációváltásnál mindig szoktak ugrani számot.[ Szerkesztve ]
-
nagyúr
Nem emlékszem, hogy mikor volt utoljára zöld oldalon ennyire hosszú idő a bejelentés és a tesztek között.
Miután az eddigi két felkapottabb leak eléggé ellentmond egymásnak, az a veszély nem fenyeget, hogy nagy általánosságban igazak lesznek az eredmények. Nekem az a gyanúm, hogy az NVIDIA manipulál valamivel a háttérben - a valóságot meg meglátjuk 11 nap múlva."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
fauv
őstag
Azon gondolkodom, hogy lenne egy csapat, aki hivatalosan kap az új kártyákból tesztelésre , majd azért, hogy az eredményeket kiszivárogtassák, csinálnak egy új Yt oldalt, ahol megosszák ezeket,.Itt is ugye 400 feliratkozó van, egyértelmű, hogy nem komoly, hisz aki kap tesztelésre kártyát feltételezhetően komoly nézettséggel kell hogy rendelkezzen. Ha valós eredmények ezek, szerinted nem félnek, hogy esetleg lebukhatnak?
Speed(R) Pedig igazán bele láthatnál a jövőbe Mondjuk, mivel ez találgatós topic, lehetne találgatni a kolléga kérdésére.Esetleg az elmúlt 10 év tapasztalata alapján.
[ Szerkesztve ]
-
jimmy74
őstag
Sziasztok!
Mikortól lehet számítani szerintetek arra hogy az 1000 -es szériák pl 1060-as esetleg mèg olcsóbb lesz akár itt fenn HA-n használtan is.
Vagyis mikor várható a csere hullám ezáltal csökkent árak az új 2000es széria miatt.
Köszönöm.[ Szerkesztve ]
WoT:jimmbo
-
félisten
válasz egyedülülő #20578 üzenetére
remélem olvastad a topik címét.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Joshi
titán
De most komolyan, volt valaha ilyen? Már mint hogy idő előtt nem lehetett eredményeket közölni, de már azért voltak útjára engedett nem hivatalos eredmények? És mondjuk ha volt már ilyen, akkor azok az eredmények mennyire voltak reálisak a hivatalos tesztekhez képest?
Ezeket csak azért kérdezem, mert mindenki úgy csinál, mintha még soha nem jött volna új VGA generáció. Vagy most minden új gennél el kell játszani a hülyét? Vagy minden generáció váltásnál más és más oldal ontja magából a kakit? Vagy ha több éve az jön le hogy bizony nagy általánosságban igazak az eredmények akkor miért csinálja mindenki az értetlent?
-
félisten
válasz keIdor #20575 üzenetére
Látszik azért,hogy a DX11 alatt és as régebbi motorokkal nem képes akkorát ugrani a Pascalhoz képest, de az új motorokkal és külön kiemelve Vulkan-t nagyot ugrik.Valószínűleg az architekt meghozza a gyümölcsét lassan a brute force mellett.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
keIdor
titán
-
félisten
válasz keIdor #20572 üzenetére
Kíváncsi leszek a tuningra is, mert ezek sima REF eredmények egy Gigabyte kártyához nézve. Ha csak a fele OC eredmények igazak ami most kering a neten, akkor lehet még számolni szépen.
Jó hogy elkezdtek jönni ezek az RTX nélküli eredmények, még ha nem is biztos, hogy igazak.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz keIdor #20570 üzenetére
rediten tegnap emlegették, hogy NV megvágja az MSRP árat. ahogy kimentek a pascal készletek.Szerintem január környékén, ha szerencsénk van akkor előbb.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz Jack@l #20568 üzenetére
[link]Az összes videójuk ilyen már régóta a csatornájukon, [link]ezt a dizájnt használják. Egyébként látványos.persze lehet ,hogy kamu, de a Deus ex eredményt látva nem hinném, látszik, hogy driver gond volt.Itt van tőlük még egy videó.[link]
És itt a GTX 1080 hoz nézve. [link] Itt 50-60 % körüli az előrelépés,van ahol több is pl Destiny 2, Hitman, alatt béta driverekkel.
Kár hogy elárazzák, nem lenne ez rossz gen.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Jack@l
veterán
Ez kamuvideó, az fps nem ilyen nyugodt, főleg nem az összes játékban... (meg mért szórtakozna valaki a külön panelra irogatással ha afterburnert is bekapcsolhatná)
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Crytek
nagyúr
Érdekes látni ,hogy mennyit számít milyen graf engine fut a game alatt mert van ahol 35+% (márha igaz ez a teszt) van ahol meg lassabb
Pföj de messze még a 7nm-es széria(Érdekes ,hogy nv ennyire leszarja az nda-t ? Pl filmek vagy más esetén kb a "közzététel" után pár percbe már törlik a ytról a jövő hetet is de ezek a fake? tesztek vígan fentmaradhatnak....)
[ Szerkesztve ]
Next PC Upgrade: 2022
-
félisten
nem tudom, nekem a BF1 elött kimaradt a 4. BF1 ben már a 970 kártyámon is jelent vol ahogy írod is,,de azért reménykedtem, hogy az 5-re ezt orvosolják , de mint látod képesek voltak az RTX demót ezzel kiadni, akkor vannak kétségeim.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-
félisten
az már nagyon régóta nincs szerencsére. Egyébként különösebb gond nincs, kivéve ezt az időközönként menet közben előjövő lagspike dolgot, de ez szerintem már orvosolatlan marad. a BF1 ben.
Haverommal akivel játszok Vega 64-t vett most valami CPU csere bere beszámítás üzlet folytán, azóta elég sokat panaszkodik bár Abu elég jól megoltotta őket a vega topikban hogy frostbite mennyire fekszik annak és mennyire odatevős kártya, 1080TI-t- fogja meg majd a BF5 alatt, mert 4K textúrag meg a HBCC lehozza nekik a világot.
Most abból az van , hogy haverom teleépítget a drivereket,állítgatja a chill profilt, és nézegeti mikor nem droppol be neki annyira játék BF alatt hogy ne kapjon agybajt de azért vannak apróságok, is hogy a vizet elfelejti kirakni textúrába, vagy csak egy színű textúraként jeleníti meg.Nem VS topiknak szánom, csak azért mesze nem olyan rózsás a helyzet Vega téren sem, ahogy írod is.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Yany
addikt
Akármit is tud a Frostbite, de bugmentes DX12-t egy RX480-on tutira nem. Irdatlan input lag, hibásan villogó textúrák és helyzettől függően 10-50%-kal alacsonyabb fps DX11-hez képest. BF4-ben a Mantle sem volt jobb. Nesze neked explicit API. GTX-eken is baj van a BF1 DX12-es módjával?
Hogy picit NV irányba toljam vissza a topicot, ott már csak azt remélem, hogy megszűntek ezek a misztikus a "Driver not responding" jelenségek, ami 8800GTS-ig üldözött engem számtalan konfigon keresztül. Mert most eléggé NV-nek áll a zászló a pár hónapon belül megújuló gépemben. (A 2011-ben vásárolt 2500K kezd Unity-ben, Premiere-ben és BF-ben is karcsú lenni).
Építs kötélhidat - https://u3d.as/3078
-
regener
veterán
Hogy témában maradjunk erre a videóra gondoltál igazából
Patrick Bach: "It's magic!" | Battlefield | DICEJó kis BF4-es időkből, de rég játszottam vele
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A Frostbite-hoz DX11-ben szerintem speciális implementációt használ az AMD és az NV is. Az eléggé titok, hogy itt mit varázsolnak, emiatt nehéz is megmagyarázni, hogy mi miért alakul úgy a konfigon, ahogy. Leginkább magic.
DX12-ben a CPU oldali eltéréseket szinte kizárólag az okozza, hogy az AMD-nél máshogy működik a bekötés, mint az NV-nél. A GeForce implementációja viszonylag erősen terheli a processzort, de ez annyira nem számít, hiszen lassan a nyolc mag is megfizethető, az API explicit, tehát a skálázás nem nagy kunszt.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
Ha arra gondolsz, hogy radeon kevésbé terhel a CPU-t azt nem hiszem hogy azért van az a játékmotortól és a win ütemezőtől függ ha jó tudom. Ezt Abu jobban tudná magyarázni, anno már egyszer beszélgettünk vele a dx 12 kapcsán, én sajnos ennyire nem vagyok képben.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-
félisten
Anno azzal magyarázták, hogy az Újabb konzolok memóriamenedzsmentje sokkal jobban fekszik a BF1 alatt lévő motornak és a BF1 optimalizálásánál már Host szinten is azokat vették figyelembe,sorolták elsődlegesre, mert nem tudom hányszor nagyobb piac.
( Radeonokon egyébként x( 20 %?) % kal kisebb a CPU terhelés ugyan azzal a a CPU val.)Kb ez miatt nem oldják meg a fenti 1-2 másodperces lag megakadást sem már jó ideje, inkább így demózzák az RTX-t is vele, hogy közben tele van huge lag spike-okkal.
Abu leírta feljebb , hogy megtudnák, ha nagyon akarnák.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
voodoo98
addikt
válasz torma1981 #20545 üzenetére
Én 100 feletti fps-sel játszottam G-Sync-kel (120 stabil a cél) és hidd el volt akadás!
Volt, hogy leesett (hajnalban) 61fps-re is 6800k-val, 8700k-val 85 alatt nem láttam. Pedig van benne 25 órám.
Szóval nem csak a micro akadásokon segít, hanem a min fps-sen is.
Te azért nem veszed észre, mert 40-50fps-sel játszol és nagyon erősen VGA limit van. (4k miatt)[ Szerkesztve ]
Gangsters on the Boardwalk http://play.google.com/store/apps/details?id=com.hattedskull.gangsters
-
torma1981
veterán
válasz voodoo98 #20544 üzenetére
FC5-ot HDR módban játszottam végig 4k-ban 1080 Ti-vel. Átlag 50fps volt semmi mikro akadás. Sima volt a kép. Jól optimalizált a cucc. Azért nem cserélek min 200k-ért procit, alaplapot, stb. Ha minimális lenne max a változás. Kisebb felbontáson persze más a dolog. 8k-ban netán mi lehet a szitu? Ott még jobban a VGA a kulcs.
De hát ez majd 6 év minimum.[ Szerkesztve ]
-
voodoo98
addikt
Tényleg ezt olvasom pár helyen! Ez iszonyat szomorú! Gyakorlatilag +10000-ket "kell" költeni emiatt a cpu-ra, a többlet terhelés miatt.
(#20543) Keldor papa
Így van! Már egy 6800k és 8700k között is éreztem micro-stuttering csökkenést, 1440p GTX 1080ti-jal FC5-ben.[ Szerkesztve ]
Gangsters on the Boardwalk http://play.google.com/store/apps/details?id=com.hattedskull.gangsters
-
Loha
veterán
válasz voodoo98 #20537 üzenetére
Pedig single-ben és multiban is ugyan úgy fut, egyszerűen ezért, mert nincs külön exéje a multinak és a bf1.exe tartalmazza a Denuvot, ami a virágbolti változatban is ugyan úgy aktív és csinálja a prociterhelő dolgait, csak a netes aktiválós dolga lett megkerülve...
[ Szerkesztve ]
-
-
Loha
veterán
"Szóval kíváncsi lennék, hogy mi a tosztól lett ennyire CPU-igényes a BF1 a BF4-hez képest, miközben inkább a grafika javult, semmi okát nem látom, hogy egy 32 fős BF1-nek több procira lenne szüksége, mint egy 64-es BF4-nek. Brutális a kontraszt."
Röhögni fogsz, de a Denuvo másolásvédelem miatt lett hirtelen kevés a BF1-nek a 4 mag 4 szál, ami teljesen feleslegesen ott fut minden multizó játékos prociján és rontja a játékélmény, de egy 8 szálas 4 magos 2600(k)-n már stabilan megvan a 60+ fps. Egyébként szinte minden játék aminek nem elég egy 4 magos, 4 szálas proci, ugyan ezt a Denuvo másolásvédelmet használja...
[ Szerkesztve ]
-
NightGT
senior tag
Ami a CPU-t illeti, jönnek a 9xxx Intel-ek is...szóval aki kivárja, elképzelhető hogy egész szép fejlődést lát a pénzéért Ami gépet én most vettem, az 30%al kevesebbért tudja ugyanazt (more or less, a gyerek VGA-ja egy 1080, de nem húzza), mint amit haver vett egy éve...most a vga áresés, meg ha kijönnek az ilyen 8mag/8 szál 9xxx i7 Intel-ek gyári 4.5 v 4.7 all core órajelekkel...az is úgy lesz mint VGA terén, hogy magasabb áruk lesz sztem (a 8 mag / 16 szál az i9 9xxx-nek van tervezve, tuti nem 110k lesz mint most a 8700k), de majd szépen veheted a 8600k/8700k-kat used...és ha mellé ott az igazolt 5 Ghz OC képesség is...
A BF1 külön ló amúgy, kevés CPU van, amit nem akasztanak meg egyes mapjai 64 playerrel....
Speed is the only truly modern sensation
-
Yany
addikt
válasz torma1981 #20527 üzenetére
Csak annyit mondok, hogy 1440p-ben ULTRA grafikán (-FSAA) egy RX480-as társaságában a 4.3 GHz-re cuccolt 2500K meghal BF1-ben. Néha még 24 fős szervereken is megröccen (beesik 30 fps alá), de 32-estől kezdve nem pálya. Pedig BF4-ben még a 64-es szerók is szépen futottak. És ami a lényeg: abszolút CPU bottleneck van, a grafikát meglepően jól viszi WQHD-ben az RX480, ezen meg is lepődtem. BF4-ben viszont 90%-ban akkor lassul csak be a game ezen a konfigon (értsd: esik be 40-50 fps-re), ha sok a robbanás vagy füst és sok alpha textúra feszül a képen...
Szóval kíváncsi lennék, hogy mi a tosztól lett ennyire CPU-igényes a BF1 a BF4-hez képest, miközben inkább a grafika javult, semmi okát nem látom, hogy egy 32 fős BF1-nek több procira lenne szüksége, mint egy 64-es BF4-nek. Brutális a kontraszt.
[ Szerkesztve ]
Építs kötélhidat - https://u3d.as/3078
-
torma1981
veterán
válasz Crytek #20525 üzenetére
2080Ti-vel sem fog változni 4k-ban az Fps tuti. Veszik az emberek a 200k-s procit és a 100k-s alaplapot stb és semmivel sem gyorsabb a gép mint egy 40k+30k alaplappal és még sokat mondtam. Persze ha multizik valaki akkor nem tudom ott mi a helyzet. Én már kinőttem belőle, meg gyerek mellet este esély sincs.
-
Crytek
nagyúr
válasz SZKEBE75 #20523 üzenetére
Menj fel egy tesztoldalra ajánlom a GameGPU-t És nézzél game teszteket. Van benne proci teszt is. A diagramba válaszd ki ,hogy csak az 1080ti legyen ott és 4K felbontás majd váltogasd a procikat....sokszor mindegy hogy i7 8700k vagy Ryzen 2700x vagy 2400G vagy sima R5 1400 az fps nem fog változni...
[ Szerkesztve ]
Next PC Upgrade: 2022
-
torma1981
veterán
válasz SZKEBE75 #20523 üzenetére
Úgy, hogy ott már szinte 100%-ban a VGA dolgozik. Nincsen proci limit mint pl 1080p-ben. Nekem a lassan 5 éves 4670k ugyan azt hozta 4k-ban 1080Ti-velt mint húzott 7700k/8700k. Pedig nem egy kategória. Persze 1080p-ben elvérzik rendesen, de 4k-s tv-m van minek játsszak FHD-ban ha van 4k. És ahogy nézem a 16GB ram is bőven elég. Teljesen felesleges 32GB. Soha nem lassult be semmi sem pedig a Witcher 3-at szét moddoltam és ott is sima volt minden.
[ Szerkesztve ]
-
torma1981
veterán
válasz bombibmw #20520 üzenetére
Igaz az lehet. Bár most bőven elég az integrált. Sorozatokhoz most az is elég.Legalább nagyon csöndes a gép. Legalább behozom a lemaradásokat a filmekbe, sorozatokban. Úgy is jövőre fognak jönni a nagyobb nevek idén nem sok lesz. Talán a TR érdekel.
(#20521) Joshi
Na meg utána elég nehéz eladni is 2 kártyát. Nekem eszembe se jutott soha az SLI. Ahogy néztem soha nem érte meg. A melegedés,zaj,drágább alaplap stb nem kompenzálta azt a max 70% gyorsulást amit hozott. Ha 100% lenne a gyorsulás az SLI miatt akkor sem biztos,hogy megérné.[ Szerkesztve ]
-
Joshi
titán
válasz Puma K #20513 üzenetére
Így van, nagyon nehezen szánnám rá magam a SLI-ra. Amióta létezik a SLI és CF azóta furdalja a kíváncsiság az oldalamat, de soha nem vettem rá magam hogy legyen. Mire odajutottam hogy ok akkor most veszek a meglévő kártya mellé még egyet, már bőven túlszárnyalta a két kártya teljesítményét az új széria. Egyszerűen nem.
-
torma1981
veterán
válasz Depression #20517 üzenetére
Neeem már eladtam. 350k ha lesz a 2080Ti akkor beruházok rá.
(#20518) snecy20
Hidd el elég lesz. Nézzetek teszteket. Olcsó celeron proci 1080Ti-vel ugyan azt az eredményt hozta -1-2fps (Ami mérési hiba is lehetett) mint 7700k. Persze 4k-ban. Ott már szinte teljesen mindegy milyen a CPU.[ Szerkesztve ]
-
Puma K
nagyúr
A bitang erős táp mellett a hűtéssel is foglalkozni kell... meg az SLI skálázódása is elég változóan alakul... tehát inkább 1 erős kártya mint 2 gyengébb... még akkor is ha az előző generáció csúcs kártyáiból akar az ember 2 kártyát használni összekötve.
"Türelem emberek, vagy ennyire égeti a pénz a zsebeteket?"
VGA-val most 350-ig készen állok
Aztán jön a többi komponens... a házzal és táppal már év elején megágyaztam
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Joshi
titán
válasz NightGT #20511 üzenetére
Facebookon volt 16db 140K-ért, de folyamatosan vannak és lesznek. Az a gond a SLI-al, hogy bitang erős táp is kell hozzá. Még mindig azt mondom hogy érdemes várni a kezdő árak csökkenésére ami szvsz legkésőbb karira megérkezik, de év eleje borítékolható.
Türelem emberek, vagy ennyire égeti a pénz a zsebeteket?
[ Szerkesztve ]
-
NightGT
senior tag
Nap buta kérdése: akár RT, akár másra...nyilván a lap is plusz ár, de.
1080 Ti SLI (most pl 160ba van normálisnak tűnő bányából isten tudja hány darab zotac mini, bár azt slibe hűteni...xd) vs single 2080 Ti ?
Speed is the only truly modern sensation
-
Jack@l
veterán
válasz NewHope88 #20508 üzenetére
Nem funkció, mert az már 15 éve(amióta van cuda) működik minden geforce-on. Gyorsítás, sokszoros tejesítménnyel. Mellesleg benne van az AI(tensor core) is, ami eddig quadro-kon volt csak. 3D modellezők biztos zabálni fogják.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Loha
veterán
válasz torma1981 #20484 üzenetére
Legutóbb a Kepler -> Maxwell váltásnál volt hasonló helyzet, hogy nem volt gyártástechnológiai előrelépés csak architekturális, ezért ez a legjobb kiindulási alap a tippelgetéshez:
Megjelenéskor a GTX 780 TI -nél kevesebb mint 10%-kal volt csak gyorsabb a GTX 980,
8 hónappal később már optimalizáltabb driverekkel megjelent GTX 980 Ti is "csak" 25-40% -ot tudott ráverni.Tehát teljesen reális,
hogy az RTX 2080 nem sokkal lesz gyorsabb a GTX 1080 Ti-nél,
az RTX 2080 Ti pedig "csak" 25-40% -ot fog ráverni.NewHope88: Nem lesz és soha nem is volt semmilyen driveres, mesterséges avultatás, azért mert semmi értelme.
A GDDR6 meg azonos mennyiségben nem drágább érdemben a GDDR5-nél,
a GDDR5X-nél még talán olcsóbb is lehet.[ Szerkesztve ]
-
KaitouP
nagyúr
+1. Nem rossz ez a teljesítmény töblet attól függetlenül hogy így elsőre nem tűnik sokkal gyorsabbnak, itt a legeslegnagyobb gond az árazással van, főleg a csúcskártyáéval.
Játssz a PlayStationCommunity ünnepi nyereményjátékán értékes videojátékokért! Részletek: https://playstationcommunity.hu/hirek/komment/adventi-nyeremenyaradat-2024-vard-velunk-egyutt-a-karacsonyt
-
pohár
félisten
válasz NewHope88 #20501 üzenetére
sajnos melóhelyen le van tiltva a YT (nesze neked legnagyobb számtech disztri itthon ), de volt Linus-nak videója erről egy éve körülbelül, nézz rá arra
GB = gigabyte, Gb = gigabit, olyan nehéz ez? | %-kal, 2-t, 0-s, 0-ra, 0-hoz, 0-val, 0-n, 3-as, GB-tal, MHz-cel, 1-gyel, 2-vel, 3-mal, 4-gyel, 5-tel, 6-tal, 7-tel, 8-cal, 9-cel, 10-zel, 100-zal, 1000-rel |
-
veterán
Semmi baj nem is lenne a teljesítménnyel ha nem 2x annyiba kerülne a 2080TI....
-
Abu85
HÁZIGAZDA
válasz #21795072 #20479 üzenetére
A virtuális memória az más. Ott igazából az OS gondoskodik arról, hogy a virtuális memóriában lévő, de szükséges tartalom odakerüljön a memóriába. Tehát onnan sose olvas direkten egy program.
Amit Yany, az SSG, az csak úgy működik, ha a program használja az SSG API-t. Ilyenkor a GPU melletti VRAM kb. olyanná válik, mint a CPU-k L3 gyorsítótára, és az adattároló lesz az igazi VRAM. De ahogy mondtam, ehhez egyrészt kell a hardverben egy bájtszintű elérést támogató vezérlő, illetve az API, amivel egyáltalán hozzáférhető az adattároló. Aztán persze a VGA-n lévő SSD-t láthatja a Windows is, oda lehet másolni akármit, de amíg program oldali támogatás nincs rá, addig ez csak szimpla adattároló, ami fizikailag a VGA-n van.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Dare2Live
félisten
Csak úgy: Az elmúlt fél évben, 1hónapban a hírek/specek kb 99%a hamis volt. 99% hamis hír között volt egy ami talált.
Amúgy kint van egy hovatalos chart. Abból lehet kalkulálgatni. Kérdés még ott is, hogy érdemes e.
don't look up, don't look up, don't look up, don't look up, don't look up, don't look up, don't look up...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Kávé kezdőknek - amatőr koffeinisták anonim klubja
- DIGI Mobil
- Mikrotik routerek
- Drive! - Az utolsó gurulás idén a Quadrifoglio-val
- Milyen billentyűzetet vegyek?
- Digitális Állampolgárság Program
- AMD GPU-k jövője - amit tudni vélünk
- EA Sports WRC '23
- Kertészet, mezőgazdaság topik
- További aktív témák...
- MSI GEFORCE GTX 1080 TI GAMING X videókártya eladó
- BESZÁMÍTÁS! MSI GAMING X TRIO RTX 3070 8GB videokártya garanciával hibátlan működéssel
- Fair Áron / NVIDIA GeForce Videókártya Felvásárlás / ORSZÁGOSAN
- BONTATLAN! ASUS ProArt GeForce RTX 4070 OC 12GB GDDR6X Videokártya! BeszámítOK
- BESZÁMÍTÁS! ZOTAC Trinity RTX 3070 Ti OC 8GB videokártya garanciával hibátlan működéssel
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Axon Labs Kft.
Város: Budapest