Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz TTomax #34543 üzenetére
De kamu. Azért nevezték át, mert az SLI-nek és a Crossfire-nek semmi haszna a DX12/Vulkan API-k alatt. Ezek az API-k ugyanis nem támogatják a meghajtóoldali multi-GPU-s megoldásokat, így pedig a Crossfire nevet dobták, ugyanis hasztalan, ha az API oldalán vágják el a támogathatóságot. Az mGPU egy átfogó név lett, ugyanis így az AMD egy kalap alá tudja venni a régi API-kra a régi Crossfire működését, ami ugye haldoklik, emiatt sem látsz már több GPU-s rendszert egy NYÁK-on, illetve az új API-k teljesen megváltozott funkcionalitását, beleértve a WDDM 2.0-ba épített szabványos AFR-t, amit a Microsoft csinált, és nem is engedik meg a gyártóknak, hogy belepofázzanak ebbe.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #34546 üzenetére
Az AFR azért nem működik, mert nem lehet optimálisan működtetni a mai modern motorokkal. Ezzel senki sem tud mit kezdeni.
Ha kifelé egy GPU-nak látszódik egy megoldás, akkor memóriakoherens interfésszel van összekötve. Arra nem kell külön támogatás, hiszen nincs két különálló memóriaterületed.
Maga az X2-es Vega létezik, csak ott van bevetve, ahol van értelme: VDI-ban. AMD Radeon Pro V340 a neve egyébként.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #34635 üzenetére
A SIGGRAPH-on volt erről szó. Azt kell nézni, hogy maga a program mennyire tudja átlapolni az RT-t és a rasztert. Egy jól megírt DX12-es leképező nem igazán, mert az már eleve sok aszinkron compute-ot futtat. Innentől kezdve az RT egy extra számítás lesz az ezredmásodpercekben is. Na most egy 8xATAA-t a csúcs-turing 6 ms körül számol Full HD-ben, ami az egyik legkíméletesebb RT effekt. Persze lehet ezernyi dologgal játszani, például a sugarak távolságával, azok pixelenkénti számával, stb. De jelenleg annyira korlátozott a teljesítmény, hogy egy sugár/pixel a realitás, illetve nem lehet ezeket sokáig kilőni. Az árnyék a legkevésbé teljesítménygyilkos, de csak akkor, ha kicsi távolságra lövöd a sugarakat, kis térben viszont elég jól működik. Ezt egy csúcs-turing 3-4 ms között is megoldja Full HD-ben, hacsak nem trükköz valamit a program. A legnagyobb tempógyilkos a visszaverődés. Az 10 ms alatt nincs még a leggyorsabb hardverrel sem. Ez azt jelenti, hogy ha 60 fps a célod, akkor egy ilyen effektet úgy tudsz bekapcsolni, ha a játék amúgy 170 fps-sel megy nélküle. Nem véletlen, hogy a Frostbite egy SSR hibridet használ, ami nem teljesen sugárkövetés, ezzel legyűrték 7 ms alá az igényeit egy Quadro RTX 8000-en. A 2070-re nincsenek adatok, de ha a Quadro RTX 8000-n ezek vannak, akkor sok jóra nem számíthat. Kb. a shadow és az AO menni fog rajta Full HD-ben, de erősebb grafika mellett 30 fps-sel leginkább, vagy áldozol másból, hogy sugárkövetést futtass. Azt tudni kell, hogy a sugárkövetés eléggé sávszéligényes, tehát ez jobban számít itt, mint a TFLOPS-Gigarays.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
-
huskydog17
addikt
válasz TTomax #34824 üzenetére
Annyi a különbség, hogy a Vega kétszer akkora sebességvesztést szenved el HDR-ben, mint a Pascal (8% vs 4%).
#Raymond: Azt is vedd figyelembe, hogy a CB messze nem annyira megterhelő, mint a PCGH tesztje, a PCGH-nál sokkal-sokkal jobban kijön a a DX12 előnye, mert ők extrém CPU limites helyen teszteltek, egyfajta worst case scenario-t létrehozva, míg a CB az erdőben tesztelt, ami sokkal kevésbé megterhelő.
Most már nagyon kíváncsi vagyok a végleges verzióra és a game ready driverekre, hogy mennyit fog változni a kép. Arra számítok, hogy kalapálni fognak a DX11-en, tippre szerintem kijavítják a frametime hibát és valszeg az új driverek némi sebességet is hoznak a régi API-nak.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
-
huskydog17
addikt
válasz TTomax #35341 üzenetére
Anvil alapból nem volt egy gyors motor, de itt most több új dolgot is kapott a játék látvány terén. Megújult a víz és sokkal dúsabb a vegetáció, így persze,hogy nagyobb terhelést ró a konfigra, mint az Origins.
Ezen felül a PCGH egy Core i7 6800-al tesztelt, valószínűleg egy 8700-al magasabb lenne a framerate.Nincs itt semmi meglepő, szokásos Anvil felállást láthatunk.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
syberia
veterán
válasz TTomax #35836 üzenetére
Ennyire szélsőséges lépésre nem számítanék, de vannak egyéb eszközeik az újabb fejlesztésű hardverek irányába terelni a vásárlókat. Például jó pár DX11-es játék nem fut DX10- vagy régebbi videokártyán. DX12 pedig csak W10-en elérhető, stb...
A "bányaomlásra én is kíváncsi lennék, kivéve ha addig hajtják az össze kártyájukat, míg az összes meg nem pusztul.(#35835) t72killer: Szerintem nyugaton sem szórják a pénzt ész nélkül, ezek az árak már nálunk jóval módosabb országokban is kiverik a biztosítékot. Néha olvasgatom a külföldi fórumokat, ott is az árcsökkentésre várnak.
[ Szerkesztve ]
https://howbad.info/
-
válasz TTomax #36045 üzenetére
Hova akarsz elmenni? Adott a Polaris vs 1060, eddig simán elment, kész. Ugyanez igaz a Vega vs 1080-ra is.
Ha a fentiek közül választasz, akkor hol érdekeljen, hogy az 1080 Ti illetve 2080 (Ti) kártyáknak nincs konkurenciája? Nem utóbbit akarod megvenni, hanem egy kisebb kártyát.
[ Szerkesztve ]
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
Kvg
senior tag
válasz TTomax #36051 üzenetére
Pont te nem hitted milyen könnyen kitol 120 fps t a Vega 1440p több címben is. Konkrétan azt modtad ezek a vga mar csak 60 70 fps képesek futtani a PUBG t. Lehet neked 1080Ti kell hozzá ez van és sok streamerne aki relative olcsó 1070 tolja rendesen diavetités sokszor. Ne az tényleg közepkategóra.
Egy kérdés a szerintem is fölöslegesen jövő 590 (ilyen az AMD marketing) milyen kategória kb 100k árával?
-
Televan74
nagyúr
válasz TTomax #36055 üzenetére
Látod ez már egy tiszta teszt.AMD ott van különben is ahol lenni kell,a 1080 mellett.A Pascal egy nagyon jól sikerül arch. lett.
120fps/4K az egy kicsit merész kijelentés, vagy nem ultrán megy a game akkor.
[ Szerkesztve ]
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
válasz TTomax #36051 üzenetére
Ennek semmi köze nincs ahhoz, amit mondtam, lényegtelen konklúzió.
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
Kvg
senior tag
válasz TTomax #36053 üzenetére
Mar pedig nekem 100 fps ala nem megy a sankok mapon sem 225W szolid 1560Mhz en. Siege nél mar nemileg visszafogtam a scale t 120 144fps közzé belöve. Scum 480 on 25 max 40 fps volt vega 60 70
Lett. Minimum fps duplaja lett.
NV en is menni kellene ennyit, de window 7 en nem fog..
Windows 10 et nem baj ha megveszi az ember és rendesen frissíti driveresen és nem eszetlenül preloadolni hetente.A törlés meg a kialakult vita miatt.ennyi
[ Szerkesztve ]
-
válasz TTomax #36061 üzenetére
Vásárlásnál elsődlegesen az számít, hogy milyen teljesítményt kapsz és milyen áron. Ha nekem középkategória kell, átlagos gépbe, akkor 1060 és 580 közül lehet választani. Azonos áron mindkettő jó választás. A fogyasztás nem lényeges, mivel jó a hűtés, a villanyszámla meg elhanyagolható mértékben lesz több. Ez technikai dolog, ami elméleti, engem vásárlóként pedig a gyakorlat érdekel.
A technikai részletek akkor jöhetnek szóba, ha szakmai diskurzus van. Pl poor Vega, a GCN nem skálázódik jól felfelé meg sokat fogyaszt, így nincs a csúcskategóriában AMD kártya, stb.
Ezt két dolgot kéne tudni különválasztani. A vásárlásnál az ár / teljesítmény számít elsődlegesen, a fogyasztás sokadlagos szempont. Kivéve ha valami miatt ez a kicsi is számít, lásd nálam az ITX. Valószínűleg soha nem vennék bele GCN-t, vagy legalábbis 200 watt felett fogyasztó kártyát. De ez elég ritka eset, a legtöbb embernek sima toronyháza van, ami elvezeti rendesen a hőt, halkan.
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
Puma K
veterán
válasz TTomax #36348 üzenetére
Ha minden a terveim szerint alakul, akkor fogok csinálni egy mérés sorozatot a mostani driverrel (411.63) ami az alapot fogja adni esetemben és az utána lévőkkel is tesztelek hogy azokat feltelepítve (tiszta telepítéssel) mit produkál a kártya.
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
válasz TTomax #36350 üzenetére
Nekem ősrégi win10 buildem van (1607) és az egyelőre a gépben lévő 1050Ti-re tudtam vadonatúj drivert húzni, szóval elvileg lehetne adott windows builden (és WDDM verzión) maradni és csak a drivereket cserélgetni. Más kérdés, hogy gondolom nvidiáék az aktuális drivert az aktuális win10 verzióhoz csiszolják, thx M$zopsz a kalamajkáért.
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
válasz TTomax #36354 üzenetére
Gondoltam. Még amúgy javított is a helyzeten, a régi driverrel mindenféle baja volt a mediaplayer home cinemának, villogott, nem működött a felirat, stb. Mindez megszűnt az új driverrel.
Frissítenék amúgy wint, de így, hogy az aktuálisat visszavonták, tologatom még.
[ Szerkesztve ]
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
Abu85
HÁZIGAZDA
válasz TTomax #36370 üzenetére
Rendszermemória kell, de anélkül eleve nem működik a gép. A HBCC kijelöli a RAM-ban a CPU és a GPU által elérhető részt, amit a GPU-hoz illeszt, így annak menedzsmentjéről hardveresen gondoskodik a normál szoftveres forma helyett.
(#36371) NewHope88: A Middle-earth: Shadow of War többet kér bizonyos beállításokkal 8 GB-nál. Durván kimaxolva 18 GB-ot, de ott már a felbontás miatt az erővel is gond lenne.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
válasz TTomax #36700 üzenetére
Egy normálisabb házban sincs vele semmi gond, ez a 150-200W még nem a nehezen kiszellőztethető kategória. Nekem egy régi, kifejezetten csendes működésre optimalizált gépházban van (SilverStone FT01) az 580 Nitro+, és iszonyat csendesen teszi a dolgát, ugyanezzel a hűtéssel, és igen hasonló TDP-vel.
(#36701) Petykemano:
Én amúgy a nagyon gáz tápok mellé tápcserét szoktam ajánlani inkább, mint 80W-al kevesebbet fogyasztó VGA-t. Ha bekrepál a táp, drága móka lehet belőle. -
do3om
addikt
válasz TTomax #37028 üzenetére
Szerintem meg lehet 250$.
Hisz mikor is jön? Aztán mennyi lesz a vetélytárs mert az nem a 2070 hanem a 3060.
Mivel azt kell nézni mi lesz akkor és gyanús hogy nem lesznek képesek kiadni hamarabb.
Szóval a leggyorsabb AMD akár az közép-alsó szinten is felveheti a versenyt az nv-vel.Ha érdekel valami szerelési anyag írj privátot. Eladó Schneider Mágneskapcsoló 18,5kW/38A
-
félisten
válasz TTomax #37028 üzenetére
Hat utána kerestem és a legolcsóbb GDDR5 ram ar 2017 Ben 14 Euró volt.RX is azzal operál.tegyuk fel annyi a GDDR6 most akkor is majd a felet kiteszi ha igaz a 250 $.De azért elég hihetetlen,hogy annyira leesett az ára.
De szerintem mindegy is ,én nem táplálék hiú reményeket .Ha igaz akkor jól járunk,ha nem akkor meg csak a szokásos.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
GodGamer5
addikt
válasz TTomax #37192 üzenetére
Az alap rtx2060 vagy gtx1160 is 1070-es szint lesz minimum, akkor min kéne meglepődni, amikor egy Vega 56 is ez a szint és valószínűleg az rx580-590-et ez fogja váltani, csak éppen Naviba. Attól, hogy a középkategória teljesítménye évek óta beállt a gtx1060-as szintre, még nem marad így örökre...
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
-
GodGamer5
addikt
válasz TTomax #37194 üzenetére
Mivel a gtx1060 a közép kategória ami 80-100k között mozog, így ez sem mehet fölé árban, főleg úgy, hogy a Geforce-oknál úgy néz ki lesz rtx (2060) és gtx (1160).
[ Szerkesztve ]
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
-
félisten
válasz TTomax #37198 üzenetére
Mondjuk én azt mondtam hogy ha 2018 ban adott volna ki valamelyik gyártó 300 dolláros/ alatti áron 1070 / Vega 56 teljesítményt az aratott volna.Most már kb annyiért kellene adniuk ezt, szóval annyira nem irreális elvárás lenne szerintem a 250-280 dolláros áron árult 1070 teljesítmény. Most már ez remélhetőleg a középkategória alja lesz.
persze a csúcs 2060( 6GBDDR6) szerintem 350 $ lesz.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
HSM
félisten
válasz TTomax #37200 üzenetére
Pontosan. Sajnos semmi olyan esemény nem történt, ami hirtelen indokolna komolyabb árcsökkentést. Hirtelen nem lett piszok olcsó a memória, nem olcsóbb a NYÁK, a VRM, a megmunkálás, és a kétszerakkora GPU többszörös gyártási költségét is valahol be kell hozni. Ez esélytelen, hogy egy bejáratott, eléggé kicsi és emiatt olcsón nagy tömegben szuper kihozatallal gyártható GPU-s kártya ára közelében nyisson az RTX2060.... Legalábbis egy 450mm2-es GPU-val garantáltan nem. Az RTX2070 500 doláros ára alapján jó lesz az mondjuk egy GTX1070 szintű 350-400 dollárnak is a memória kivitel függvényében. Összehasonlításul egy GTX1060 most bő 200 dollár.
[ Szerkesztve ]
-
Petykemano
veterán
válasz TTomax #37200 üzenetére
Figyelembe véve azt, hogy itt már többszázmilliós fejlesztési költségekről van szó, szerintem a volumen legalább annyira fontos, mint a jó profitráta.
Lehet a többszázdolláros drágulást a nagy és egyre dráguló wafer és megmubkálási költségekkel szétkenni, de egy közepes lapka esetén is az egy működő lapkára ilyen $20-50 jön ki. A fix költségek egy lapkán viszont jelentősek és nagyon nem mindegy, hogy 1 egység vagy 2 egység mennyiségre tudod teríteni.
Számoljunk egy átlagos 7nm-es lapkával, aminek abtervezési költsége az iparági megmondóemberek szerint $300m. Ha ebből eladsz 5m-t, akkor egy lapkára $60 jut, ha 15m-t, akkor $20
Az egész kártya árából ez a $40 persze nem hangzik soknak, de hát a lapkákra ilyen $60-100 szoktak számolni, ez meg egy AIBnak már nem mindegy.Ezzel együtt természetesen nem gondolnám, hogy a kereslet az egyes gyártók kártyáira ezen a $20-30-40 különbségen múlna, vagy másként fogalmazva $20-30-40 alacsonyabb ár nem fog 3x akkora keresletet generálni.
Ennél összetettebb ez a viszony.Mindenesetre szerintem az AMD ezúttal nem a kellemes profitrátára fog menni, hanem a volumenre.
Találgatunk, aztán majd úgyis kiderül..
-
HSM
félisten
válasz TTomax #37206 üzenetére
Az 580 egészségeset emelt az órajeleken, TDP kereten, plusz fejlesztettek annyit a csipen, hogy kb el tudták felezni a videólejátszási fogyasztását, ami azért szerintem fontos fejlesztés. Az egy korrekt döntés volt szerintem új néven kiadni, az emelt TDP miatt amúgy is új kártyák kellettek alá.
Ami az 590-est illeti, szerintem nem rossz, hogy így minimális befektetéssel tudtak a partnerek, gyakorlatilag a meglévő Rx580 prémium kártyákra egyből egy mégjobb GPU-t tenni. Így az Rx580 mehet majd kicsit olcsóbb régióba, a prémium 580-asok meg így most erősebb GPU-t kaphatnak. A baj szerintem egyedül az árazással van, kicsit lejjebb kéne vinni, de nyilván lejjebb fog. Ők se hülyék, meglovagolják az újdonság erejét.
[ Szerkesztve ]
-
Petykemano
veterán
válasz TTomax #37212 üzenetére
Igen, a kérdés nem egyszerű. De nézzük a másik lehetőséget: az nvidia sok esetben 1:3-1:5 arányban értékesíti túl az amdt. Ez azt jelenti, hogy egy ugyanakkora lapka (~azonos változó költségek) fix fejlesztési költségeit 3x-5x akkora volumenen tudja teríteni. Ez a differencia szerintem rugalmatlan, tehát szerintem természetesen némiképp elmozdulna, de semmi esetre sem fordulna egy épphogy jobb termék esetén. Persze lehet ezt célként megjelölni és törekedni mondjuk egy 1:1 arányra.
De az igazi volumen valószínűleg nem is a hagyományos boltokból jön, hanem az oemektől és a notebookokból.
Az Adoredtv leakben szerintem pont olyan termékek szerepeltek, amik akár oemeknek és notikba is célozható. Legalábbis ma. De még egy év múlva is ez a kategória jelentheti a legnagyobb volument. Extraprofitot meg úgyis csak akkor lehet elkérni - egy kisebb volumenű, drágább termékre - ha sikerül áttörni a márkahűséget, a marketing előnyt. Ez meg más tészta.
Találgatunk, aztán majd úgyis kiderül..
-
#45997568
törölt tag
válasz TTomax #37546 üzenetére
Rosszul ertelmezed, nem a tegnapi lepest kritizalom, sot, szerintem jo dontes volt engedelyezni az adaptiv sync-et vegre
Ami nem tetszik, hogy eddig is megtehettek volna hogy ugyanugy tamogassak ingyen es bermentve az adaptiv sync-et, ehelyett eloalltak egy fizetos megoldassal Most mar mindket megoldas ott lesz januar 15-tol, ez remek
Szaby: persze, a vicc kategoria amikor megjelennek NV altal szponzoralt jatekok, es a GSync honapokig nem mukodik (lehet meg most sem) a kirakat jatekokban, ala Destiny 2.
Freesync-el is vannak gondok, volt/van hogy bugos, lattam en mar 1080-on GSync monitoron ledadogni Wildlands-t is 35FPS-en
-
HSM
félisten
válasz TTomax #37730 üzenetére
Semmi nem akadályozta volna meg őket, hogy támogassák a saját megoldásuk MELLETT az ipari szabványt is a kezdetektől, mint ahogy most teszik....
Nekem nincs bajom a saját megoldásokkal, azzal van bajom, ha az kényszerítve van, ipari szabvány megoldással szemben, mesterségesen korlátozva a vásárlók döntési szabadságát.[ Szerkesztve ]
-
HSM
félisten
válasz TTomax #37733 üzenetére
Ezzel egyet értek, szerintem is jóval komolyabb követelmények mellett lett volna szabad csak a FreeSync plecsnit odaadni. Oké, legyen minden Vesa Adaptív sync monitor támogatva, meghajtva, de valahogy ki kellett volna szűrni a silány minőségű megvalósításokat.
Nem is feltétlen a panellel láttam én a gondokat... Sokkal inkább az elektronika nem volt szvsz sok esetben a helyzet magaslatán FS-el (pl. overdrive).
Ugyanakkor ez nem menti fel a másik céget, hogy nem támogatta az Adaptív sync Vesa szabványt.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz TTomax #37834 üzenetére
Az nem jelent igazán problémát. A gond inkább az allokációk kezelése. Az az optimális, ha a textúrákra egy nagy allokációt használsz, mert azon belül az adatokat igen hatékonyan lehet kezelni, defragmentálni, stb. De ugyanakkor a nagy allokáció gond is, mert gyakorlatilag egyet létrehozhatsz a VRAM-ban, és abban kell megoldani mindent. Emiatt terjedt inkább az a nézet, hogy a kis allokációk a jók, és abból legyen sok. Így viszont a memória szemetelése harapta meg a fejlesztőket. Az igazság valahol a kettő között van, de nem tudsz mondjuk alkalmazni egy optimális 2 GB-os allokációt, mert azzal nehezen kezeled a kevés VRAM-mal rendelkező kártyákat. Emiatt dolgozta ki a Capcom ezt a megoldást, mert így gyakorlatilag a felhasználó dönti el az allokációk nagyságát. Csak ezt a program oldalán nem nem könnyű ám megírni, hogy ez a rendszer működjön is mindhárom gyártó driverének, amúgy teljesen eltérő memóriavezérlésével.
Az előnyei viszont egészen egyértelműek. Ha nem ez lenne, akkor egy nem HBCC-s 8 GB VRAM-os kártyán csak benyomnád szimplán a High beállítást és kiírná, hogy nincs elég memóriád hozzá. Így viszont egyrészt kiválaszthatod a High 8 GB-ot, amivel azt jelzed, hogy a maximum lehetséges VRAM-ot akarod adni a programnak, amit az alkalmazás ki fog számolni, kb. 6,5 GB lehet, és arra létrehoz egy 6,5 GB-os egybefüggő allokációt, amit könnyű menedzselni. De akár azt is mondhatod, hogy kérsz 4 GB-os allokációt, és akkor lesz neked egy 4 és mellé egy nagyjából 2,5 GB-os allokációd. Az hardver- és driverfüggő, hogy melyik működik jobban, a lényeg az, hogy kapsz egy rakás választási lehetőséget, aminél nem biztos, hogy tényleg megkapod a maximális részletességet, mert a memória fizikailag hiányzik a kártyádról, de jóval jobban jársz, mint a medium opcióval, ami minden textúrát visszavenne közepesre, így viszont csak a textúrák egy részének a minősége csökken, attól függően, hogy a hardvered mit enged.
Azt tudni kell, hogy a fejlesztők képtelenek a hardveren pótolni a hiányzó memóriát, de arra van befolyásuk, hogy ha már van mondjuk 8 GB-os VGA-d, de a medium igazából 6 GB VRAM-ot igényel, akkor azzal a maradék 2 GB-tal kezdjenek valamit. Mert ha szimplán visszavetetnék veled mediumra, akkor buknád ezt az erőforrást.
(#37833) b. : Ebben semmi görénység nincs. Ezzel jól jártok. Megkapjátok a lehetőséget, hogy ha kevés a VRAM, akkor ne kelljen szükségszerűen a közepes részletességet választani, hanem valamelyik magas részletességű opció tud biztosítani bizonyos felületekre magas részletességű textúrákat. Hardverenként eltérő, hogy melyik működik igazán jól, de ki lehet próbálni. Full részletességet amúgy sem kapnának a kevés VRAM-mal rendelkezők, de nem mindegy, hogy minden textúra közepes részletességű lesz, vagy csak egy részük. Ennél jobban ezt nehéz megoldani, mert nem tudod úgy kiszolgálni a 11-16 GB-os hardvereket, meg a HBCC-t, hogy az ne jelentsen hátrányt a 8 GB-os hardvereknek. De a hátrány mértéke csökkenthető. Megcsinálhatták volna azt is, hogy 8 GB VRAM mellett kiválaszthatatlanra rakják a High beállítást. Nekik ez sokkal egyszerűbb lett volna hidd el.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Teljesen új Xiaomi 13 8/256GB DS (5G) Black eladó (bontatlan+garancia)
- ELADÓ MacBook Pro 2017 13" KÖZÉPSŐ MODELL 16GB RAM i5 2.3GHZ 256GB SSD 66 CIKLUS + Magic Mouse
- ÚJszerű Samsung Galaxy S20 Plus 5G (83e-től)
- Eladó Cablemod kábelszettek tápokhoz, moddinghoz a bolti ár töredékéért!
- Beszámítás! ASUS Prime B450M-A R5 5600 16GB DDR4 500GB SSD RTX 3070Ti 8GB CM MasterBox MB530P 650W
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs