- Linux - haladóknak
- Ubiquiti hálózati eszközök
- Linux kezdőknek
- Már nem hisz a nagy európai EV-forradalomban a Ford
- Android programozás, Android alkalmazások készítése
- Aliexpress tapasztalatok
- Xiaomi AX3600 WiFi 6 AIoT Router
- Sikeres volt a teszt, elpusztítja internetes műholdjait az Amazon
- Vodafone otthoni szolgáltatások (TV, internet, telefon)
- Hálózati / IP kamera
Új hozzászólás Aktív témák
-
HSM
félisten
válasz ->Raizen<- #24670 üzenetére
Természetesen igen. Csupán arra akartam célozni, hogy hibás feltételezés a VGA-ra mondani a hibát, amikor a hibás alaplap is okozhatta. Akkor mondhatjuk, hogy a VGA okozta, ha hibátlan hardverkörnyezetben is produkálta volna a hibát.
(#24671) FLATRONW: Arra gondolok pl., hogy míg ha az AMD topikban valaki megold egy driverhibát azzal, hogy visszarak egy régebbi jól működőt, akkor 3 Nv-s kezd el fújolni, hogy igen, az ilyen meg olyan AMD driverek, amikor ugyanez történik Nv oldalon, akkor az a világ legtermészetesebb dolga. [link]
[ Szerkesztve ]
-
HSM
félisten
válasz ->Raizen<- #24681 üzenetére
Az sem az AMD hibája, ha neked egy hibás darabot adtak el... No mindegy...
-
HSM
félisten
"nekem volt 9700Pro-m: driverrel annyit azóta sem szívtam"
Mi? Ezzel ráhibáztál, mert nekem megjelenés után nem sokkal egy sima 9700 került a gépembe (BBA típus) és soha egyetlen driver bajom nem volt vele, pedig vagy 3 évig azt használtam. Ez volt a másik kedvenc VGA-m az 5850 utána.RX480 GTX1060 viszonylatában ne zavarjon az RX shader modell 6 támogatása, ami elég komoly szempont lehet a közeljövőben. (Rémlik valami a DX9C shader modell támogatásáról az akkori X-es Radeonok és a GF-ok között?)
GCN2-vel mégis mi a baj? 290X-em van, a játékok gyönyörűen szaladnak rajta, 4GB a 4GB memória, Async compute DX12 támogatás príma, Freesync támogatás és 4K60hz DP-on van, mi kéne még? Ma is ugyanúgy szaladnak rajta a játékaim, mint megjelenésekor.
Igen, tény, a referencia RX480 kicsit többet kér a kelleténél a PCIE foglalatból, de ennek is borzalmas egyszerű a megoldása, nem refet veszel és meg van oldva.
(#24697) ->Raizen<- : Érdekes, nem találkoztam elfüstölt alaplapi foglalatos referencia RX480-al, a topikjában sem panaszkodott rá senki, pedig páran rendesen meg is cibálták. Persze, ezzel nem elbagatelizálni akarom a dolgot, de korántsem akkora gondról van szó, mint egyesek beállítják, pláne, hogy amiről szó volt (csak berakod és használod) úgy gyakorlatilag belefér a PCIE szabványba a driveres korrekció óta. [link]
Ehhez képest elpukkant GTX1070-ről videók is futnak neten, ahogy épp kileheli a lelkét: [link].
Ja, és a 1070-eket érintő Micron memóriás gondokról nem is beszélve, aminek javításához BIOS-t kellett frissíteni a kártyákon a stabil működéshez.
NV fronton sem kell messzire menni, ha jól emlékszem pl. a GTX960-ból is volt ilyen, ami hasonlóan feszegette a slotot.
-
HSM
félisten
"Nyilván játszottál valamennyi megjelent játékkal ugyebár... "
Nem írtam ilyesmit.Silent Storm kimaradt. Oké, egyet mondtál. Ez lett volna az a rengeteg driver gond? Ami egyébként jó kérdés, az AMD driver, vagy a játék sara?
Szomorú, hogy megdöglött, nekem 3 év alatt semmi de semmi bajom nem volt vele, pedig elég gyenge szellőzésű házam volt akkoriban, egyszerű táppal, és ehhez képest elég sokat is használtam. Akkoriban még bőven volt időm játszani...
-
HSM
félisten
válasz Raggie #24758 üzenetére
Pont ez a gond, a 4K és a VR. Ehhez egyszerűen csirke a hardver, ami a konzolokban van. 4K-ban számolni alapból 4X annyi munka, mint FHD-n, és akkor ehhez a VR, hogy minimum 90FPS?
Ezt egyféleképpen lehet majd megoldani. Nevezhetjük optimalizálásnak is. Lebutítod a földig a játékot. A végeredmény meg az lesz, hogy VR-ben, 4K-n a játék egy okádék lesz egy jól összerakott FHD alkotáshoz képest. Mert a hardver sajna adott, és így tudsz optimalizálni.
[ Szerkesztve ]
-
HSM
félisten
válasz Raggie #24768 üzenetére
Az tuti, hogy rengeteg jó és kihasználatlan lehetőség van a konzolokban. De az is tuti, hogy komoly limit a beépített hardver korlátozott erőssége. Lehet okosítani, optimalizálni, újszerű algoritmusokat találni, de csodát azok sem fognak csinálni az elérhető grafikai minőséggel. Ez a véleményem.
-
HSM
félisten
"Emiatt a dolgozók is így állnak hozzá, az NV sikereit a magukénak érzik, lelkesek, sikerorientáltak, van egy NV életérzésük, kötődésük a céghez, büszkék, hogy ott dolgoznak. Az NV kifelé egy egységes, kompakt, erős rugalmas közösségnek néz ki, nem igazán találni rajta fogást."
"Unfortunately, we failed to communicate this internally to our marketing team, and externally to reviewers at launch." [link]
-
-
HSM
félisten
-
HSM
félisten
válasz keIdor #24912 üzenetére
Bizony, ahogy nekem nagyon hiányoznak a képminőségbeli eltéréseket kereső/összehasonlító tesztek is.
Én egyébként eddig egyetlen ezzel foglalkozó meggyőző tesztet láttam, elolvasva azért átjön, hogy mennyire nehezen mérhető ez a téma igényesen. [link]
Ilyen cikkeket nem lehet futószalagon gyártani... Plusz kell a drága kamera, módosított egér, gyors monitor, rengeteg idő kimazsolázni az eredményeket, és egy halom szakértelem, nem elúszni valami apró részleten.[ Szerkesztve ]
-
HSM
félisten
válasz daveoff #24930 üzenetére
Nem csak Abu írta, hanem más fórumokon is téma volt. Sokaknak igen nagy bánatot okozott, hogy ez az érték nem volt visszaszorítható sok esetben 1-re, mint régebben. Hogy manapság mi van ezzel a funkcióval, azt passzolom. És nem, állatira nem érdekel annyira, hogy itt keresgéljek, mert valaki nem hiszi el, és lusta magának megkeresni.
Az sem érdekel, te mivel gyanúsítasz meg alaptalanul. Akit érdekel a téma, majd szépen utánaolvas.[ Szerkesztve ]
-
HSM
félisten
válasz ->Raizen<- #24953 üzenetére
Ugyan csak egy jól beállított nem éppen csúcs hűtéses Asus 290X DC2, de nem úgy tűnik, mintha olvadozna mellette a gépház oldala... Így tolom vele a BF4-et.
[link]
Ja, és a hangját se nagyon hallani. Hangszigetelő habos oldallapos, szupercsendes gépházban.
Nagyon unalmas már ez a gépház olvadós "poén"...[ Szerkesztve ]
-
HSM
félisten
válasz ildiko1984 #24957 üzenetére
Miért próbáljam ki? Soha senkinek nem ajánlottam azt a típust, mert ránézésre is katasztrófálisan alulméretezett a hűtése. Akkor pedig miért szivassam meg vele magam? Ez nem a Hawaii/Grenada csip hibája, hanem a gyártó spórolása. Szerintem az a kártya a legbrutálisabb hűtésű házban se úgy működne, ahogy az elvárható lenne.
Nekem úgy tűnik, látszik a képmentésemen, hogy átlag kb. 120W-ot kért enni a GPU-m, ami a valóságnak megfelelő adat, a komplett kártya lehetett 170-180W körül. A komplett rendszer megáll játék közben (BF4, Mantle, FHD max grafikán) konnektorból mérve 370W körül, amiből durván 200W az áramzabáló húzott 6-magos CPU-m, mivel a BF4 a 64 fős szervereken amiken játszani szoktam kér rendesen a processzorból is. Akinek ehhez Paks kell, az használjon inkább valami IGP-s notebookot.
Ami a hangot illeti, az is ott van a képen. 2000rpm. Nem, nem néma. De igencsak csendes. Ez nem elvakultság, hanem tények és mérési eredmények.
Illetve módszerek, amivel lehet akár a 390-es Gigát is élhetőbbé lehetne tenni....[ Szerkesztve ]
-
HSM
félisten
Kinek mi. Nekem 2000-ig belefér a csendes kategóriába, azért is lőttem be úgy a ventilátor profilt, hogy kb. ebben a magasságban járjon a kártya. Mint látod, lehetne halkabbra venni, beleférne a hőfokokba, 80 alatt kitnően elvan. (Gyárilag a csendes profilja 94-ig elengedné.) Bár ami azt illeti, mivel az Asus lespórolta a hűtést a memóriacsipekről, így inkább kicsit jobban tekerem a ventit, minthogy esetleg rosszalkodjon. Gondolom, nem kell külön leírni, hogy ez sem a csip hibája, hogy az Asus kissé igénytelenül oldotta meg a hűtését.
(#24963) fules: )) : Ugyanaz a DC2-es változat hűtője az utolsó csavarig.
[ Szerkesztve ]
-
HSM
félisten
válasz Attix82 #24968 üzenetére
Itt csak annyi a gond, hogy ezek a számok nem igazán felelnek meg a mindennapi felhasználásnak. Az Nv irreélisan alálőtte a valóshoz képest a hivatalos TDP-t (cincogtak is a korai kiadások emiatt!), míg az AMD esetében inkább fölé van lőve. Lásd pl.:390 PCS+ átlag 231W [link] és egy jobbféle 970 pedig 182W [link]. De még egy PCS+-nál gyárilag magasabb órajelen járó Nitro is megáll 261W-nál. [link] (Csak a teljesség kedvéért.)
970-ből egy Asus Strix is 161W. [link]Gyárilag amúgy általában pocsékul vannak beállítva, sokat esznek. Azért hangsúlyoztam ki, hogy jól beállítva őket kis időráfordítással rengeteget lehet javítani a teljesítmény/fogyasztás arányukon.
(#24970) Abu85:"Lényegében az NV tervezett a hardvereibe egy rakás speciális funkciót a DX11-hez, amelyektől a DX12 és a Vulkan elvágja őket."
Pontosabban az Nv a DX11-re optimalizálta a dizájnt a DX12 rovására. Ezért is tudtak akkora fogyasztásbeli előnyhöz jutni, amekkorához.(#24962) Asbee: Ja, igen, még annyi adalék, hogy mint írtam is, hangszigetelt oldalalpos a házam, ami nyilván elég sokat elnyel a kártya zajából, a szellőzés rovására.
[ Szerkesztve ]
-
HSM
félisten
válasz Attix82 #24975 üzenetére
Maximum: We use Furmark Stability Test at 1280x1024 and 0xAA. This results in a very high no-game power-consumption reading that can typically only be reached with stress-testing applications. We report the highest single reading after a short startup period. Initial bursts during startup are not included as they are too short to be relevant.
Tehát ez minden, csak nem releváns játékok alatt. Tápegység méretezésnél van értelme kalkulálni vele. Gyakorlatilag a beépített teljesítményfelvételi limitet tesztelik itt. Az Nv kártyákon sokkal szigorúbb limitek élnek, néhány kivétellel. Pl. Giga 970 G1 több beszámoló szerint is játék közben akár 200W-ot is kérhetett, mert nem fojtották úgy le, mint a legtöbb, Nv ajánlásait jobban követő modellt.
Ezért is hivatkoztam az átlag fogyasztásra, ami a következő: "Average: Metro: Last Light at 1920x1080, representing a typical gaming power draw. Average of all readings (12 per second) while the benchmark was rendering (no title/loading screen). In order to heat up the card, we run the benchmark once without measuring power consumption."
[ Szerkesztve ]
-
HSM
félisten
válasz TTomax #24979 üzenetére
Már hogy a viharba ne lenne köze a coil whine-nak a fogyasztáshoz? Ha alul van tervezve a VRM (pl. mert a GPU többet fogyaszt, mint amire a gyártó a specifikált TDP alapján számolt), akkor könnyen fut túl nagy áram a tekercsekben, amik ettől jobban dalra fakadnak.
Egyszerű ok-okozat. -
-
HSM
félisten
válasz FLATRONW #25017 üzenetére
"Az ilyen tesztek nagyon át fogják b*szni a kevésbé hozzáértő vásárlókat."
Pedig ez már nagyon rég így megy.
Én először a HD4850-esemnél találkoztam ezzel. Mindenhol azt leheettt olvasni, elég az 512MB-os. Először nekem is olyanom volt, aztán 1GB-s. Ehhez képest Crysis-ben minden zoomolásnál, vagy hirtelen fordulásnál akkorát akadt az 512-es, mint a huzat, plusz GTA4-ben is 10 másodperces lemaradásban rajzolódott körém a táj még viszonylag alacsony látótávolság melleltt is. Ehhez képest az 1GB-ossal utána vajsima Crysis-t kaptam, és a GTA4 jóval magasabb beállításon is azonnal körém rajzolta a világot. Igaz, emiatt paradox módon még némileg kevesebb FPS-em is lett.
Ahogy nézem, ez lassan 8 éve.... [link][ Szerkesztve ]
-
HSM
félisten
Egyébként 380-ból tényleg gáz volt kiadni 2GB-osat, főleg, hogy az elődje is már 3GB-os volt. Azt nem volt szabad megvenni szvsz. Egy 270/7870 kaliberű kártyára még oké.
Amúgy bár egyértelműen látszik pl. az előbbi DOOM-os eszmecseréből, hogy sok játék tud mit kezdeni a 8GB-al, de nekem pl. teljesen jó a 4GB-os 290X, mert nem is játszom olyan játékokat, amik igényelnének többet.
Szerintem jól beosztva amúgy ebben az erő-kategóriában is elég sokmindenre elég a 4GB is.
Mindenképpen megnéznék amúgy erről valami részletesebb elemzést, pl. milyen képminőségbeli kompromisszum egy ilyen VRAM zabáló játékban, ha csak 4 GB ram van, nem 8.
[ Szerkesztve ]
-
HSM
félisten
válasz bivalyolo #25021 üzenetére
Hát nem. A Thaiti csip GCN3-as utódja a Tonga, ami a 285-ön dolgozott, azt csak szépen átcímkézték 380-ra. A Tahitik pedig 3GB-al jöttek.
(#25022) fules: A vicc egyébként hogy bennük volt ugyanúgy a 384bites vezérlő, csak mégis inkább 256bittel adták ki. Sanszosan fogyasztási, és üzletpolitikai okoból.
(#25023) V!ck: Előbb utóbb lehet. Akkor majd váltok.
[ Szerkesztve ]
-
HSM
félisten
válasz Ren Hoek #25057 üzenetére
Én boldog vagyok a 290X-emmel is FHD-n. Pedig fele anniba sem került, mint egy GTX1070....
"6 évre rá szinte mértani pontossággal ugyan ezt kapod"
És még csak nem is igaz. 6 éve 50K-ért még PWM-es szabályzású, lassúcska panelos IPS járt ennyiért, hagyományos háttérvilágítással. (U2311) Ehhez képest már a 3 évvel ezelőtt vett ilyen kategóriás monitorom is már flicker-free, LED háttérvilágításos, és masszívan láthatóan gyorsabb a panel az elődjénél (most P2414H-m van, előtte U2312hm volt). Manapság meg már Freeesync is kezd felbukkanni bennük, és a 60hz+ is... Bár a specifikációk kb. egyeznek, mégis jól érzékelhetően kellemesebb az újabb.[ Szerkesztve ]
-
HSM
félisten
válasz #00137984 #25063 üzenetére
"Igen majd a játékok pont a gyorsabb RAM-tól fognak gyorsulni."
Igen, nagyokos, én kimértem, veled ellentétben nem csak a levegőbe hadonászok. Nagyjából 10%-ot sikerült. [link]
Az is látszik az OSD-n, hogy a 4,5Ghz-re húzott i5 4690K-m ennél a jelenetnél 94%-on pörög, miközben a VGA igen messze van a 100%-tól, tehát kőkemény processzor limit...
Úgy látszik, nem ment át, amit mondani akartam... Ha CPU-limited van, rakhatsz bele akárhány, akármilyen erős VGA-t nem fog gyorsabban menni a játék. Hacsak nem butítod le a grafikát, ami a processzorigényt is csökkenti.
Ez nem a VGA hibája, hanem a gyenge platformé, amiben benne van. Esetleg user error, ha ezt képtelen kimérni és a VGA-t hibáztatja.Ami pedig az AMD procikat illeti, az eddig elérhető infók alapján az érkező Ryzen éppen eléggé erőmű lesz ilyen játékok meghajtására is.
[ Szerkesztve ]
-
HSM
félisten
válasz Ren Hoek #25117 üzenetére
Hatalmas szerencse, hogy durván 24"-ig bőven elég a FHD, 32"-ig pedig az 1440P. ("Szerencsére" elég tökéletlen látószervünk van.) Márpedig azért 32" már elég tisztességes mammut egy íróasztalon. Persze, értem én a luxus igényeket, hogy valaki az ágyban fekve akarja tolni az 50"-os fél autó árán vett óriás vackon fél méterről is tűéles képpel, de szvsz ezt erős túlzás "középkategóriának" beállítani.
[ Szerkesztve ]
-
HSM
félisten
válasz cyberkind #25122 üzenetére
Sajnos a 120-144Hz-es vagy gyorsabb monitorok még lassabban terjednek, mint a 4K csodák. Pedig lényegesen hasznosabbak szvsz.
Amúgy elég jól ki lehetne ezeket hajtani adaptív sync technikával, 80-120FPS között. Monjduk ehhez prociból is szvsz jóval erősebb kéne, mint a mai középkategória, és API-ból sem árt DX12/Vulcan, szintén a proci korlátok és a DX11 végett.
A 120Hz kihajtása amúgy a FHD 60Hz-hez képest csak dupla erős VGA-t kíván, viszont processzorból szintén dupla erőset. A 4K 60hz más, mert ahhoz elég ugyanaz a proci, mint FHD 60hz-hez, viszont VGA-ból durván 4X olyan erős kell azonos FPS-hez.
[ Szerkesztve ]
-
HSM
félisten
válasz daveoff #25153 üzenetére
Én mondjuk egy fürgébb 80Hz-el is már elvagyok, sync-ek nélkül is, 80-120FPs-el.
(#25154) FollowTheORI: Éppen ezt írtam, hogy aki inkább a 120Hz-et célozza és nem a 4K-t, annak dupla erős procira is szüksége lesz... Ami azért nem olcsó móka. Maradjunk annyiban, hogy ide azért minimum egy magas órajelű i7 kell. Nekem sem viccből van 4Ghz-es hatmagosom, bár sajna kevés játék tudja rendesen kihasználni, de remélem ez majd jó irányba változik a Vulcan/DX12 címekben.
Ebben egyet tudok érteni Zsébernardo-val, manapság egy tuningmentes i5 elég vérszegény egy erőseb GPU alá, ha nem 60hz a cél. Annak idején évekkel ezelőtt is már BF4-hez/Crysis3-hoz 4,4Ghz-re kellett húznom az i5-4690K-m, gyors ramokkal, hogy nagyjából tartsa a lépést a sima tuningmentes R9 290-esemmel és az igényeimmel... Pedig ma már azért vannak annál masszívabb kártyák is....
[ Szerkesztve ]
-
HSM
félisten
válasz Szeszkazán #25170 üzenetére
Így van. Mondjuk nem mindig releváns amit a feladatkezelőben látsz, nálam pl. kikacsolt HT-val 6 maggal 50% körül jár BF4-ben (Manlte, FHD, max), mégis simábban, kiegyensúlyozottabban fut, ha engedélyezem a HT-t, és 12 szál megy. Pedig akkor már csak ilyen 30%-oknak mutatja az átlagos CPU használatot.
Amúgy a 4 szálat már meglepően sok játék ki tudja használni DX9 alól is, a 4690K-mon nem volt ritka a 290 mellett a 80-90% használat+enyhe CPU limit, pedig 4,4Ghz-en járt, 16GB 2133Mhz ram társaságában...
[ Szerkesztve ]
-
HSM
félisten
válasz #00137984 #25246 üzenetére
Halkan jegyzem meg, egy HD7970-el évekig remekül el lehetet játszani, illetve egy 280X-el is, ami mondjuk kb ugyanaz. Én a Crysis 3-at is azon toltam végig, teljesen jó volt. Szerintem ami vakvágány volt, az a 380-as széria, főleg a 2GB-os. Egyedül az Apple gépeibe volt értelme.
Ami pedig pl. a BF4-et illeti, vígan lehetett játszani egy 7870XT-n is (2GB-os, 1536 shaderes Tahiti), igen korrekt grafikával, jó sebességgel (60-80FPS). Nem Ultra-n, csak High-on, MSAA-val. De hogy igen pöpecül nézett ki úgy is, az 100%. Fél évig így játszottam. Szerintem a Te készülékedben van a hiba, mert ez minden, csak nem elvérezés. Pedig ez csak a középkategória teteje volt, egy fullos 7970 megette ezt a kártyát reggelire. Lehet, nálad ott is a processzorod volt a szűk keresztmetszet, nálam a 4Ghz-re húzott hatmagos i7-el nem volt ilyen gond.
"A Gemer konfigokba egy RX 460 már egy vicc kategória"
Erre pedig csak annyit mondanék, hogy nem mindenkinek a kimaxolt Crysis3 jelenti azt hogy gaming.
Rengeteg játék van, amit milliók játszanak, és vígan fut egy ilyenen.[ Szerkesztve ]
-
HSM
félisten
válasz schawo #25252 üzenetére
Szerintem a fórumtársnál amúgy a procilimit és a user error egy sajátos kombinációjával állunk szemben.
Crysis3, BF4, amiket többször említ, mind zabálja a procit. Nekem a 290-esem alá sem volt elég ezekben a címekben jópár helyen a 4,4Ghz-re húzott i5 4690K 2133Mhz ramokkal, fórumtársnál pedig valami hasonló motyó van, az se biztos, hogy tuningolva, úgy meg aztán végképp csirke.
[ Szerkesztve ]
-
HSM
félisten
válasz #00137984 #25254 üzenetére
"Majd még elhiszem, hogy mindenkinél milyen jól futott ez-amaz videókártya a Battlefield 4-ben, Crysis 3 magas grafikai részletességben vagy Crysis 1 High Texture módban, de igy erős kompromisszumos beállitásokkal ez engem nem érdekelt akkor sem és most sem."
Persze, idejövünk, és mind hazudunk. Képekkel. Íme: [link]
Ott van rajta minden bal felül ezen a két éve lőtt képemen. 94%-on a proci, 86%-on a VGA és 52FPS. Ha nem lenne egyértelmű, masszív CPU-limit. Elárulom, ezen a részen bemész a fűbe, ez azonnal leesik 40FPS magasságába, a GPU használat meg 30-50%-ra, a procié meg durván 100-ra. A pontos beállítások: VGA R9 290-es Radeon 1040/1350Mhz-en, CPU i5 4690K 4500Mhz-en, 16GB dual channel 2133MHz CL11 rammal, power limitek mindennél feltolva. C3 grafikája maxon, SMAA 2X TX-en, felbontás FHD. Én így játszottam végig.
Szerintem mint a nap olyan fényesen látszik, hogy itt ez a proci iszonyat kevés. És 99%, hogy az RX470 alá is éppen ugyanennyire kevés, és ha egy Fury-X-ed lenne (vagy épp GTX1080-ad) is ugyanezt az ocsmány akadozást kapnád.
És ez nem egy kiragadott pici rész, hanem jópár komplett pálya.(#25255) schawo: Vagy a 270X helyett minimális plusszal egy 7970-et. Vagy a 380 helyett egy 290-et, azok is piszok olcsók voltak már akkor, jó sok garival még.
(#25257) Laja333: Nincs meg hozzá a procija. Nekem már azzal az agyig butított Tahitivel megvolt High-on a bő 60FPS.... Pedig csórikám, 256bites busz, 1536 shader, alig volt több egy 7870 OC-nál....
(#25259) Zsébernardo: Alaposan túlárazott volt a 380 4GB, azért nem is értjük itt, miért ahhoz ragaszkodtál. Teljesítmény/fogyasztásban sem volt jelentősen jobb a 290-nél. [link]
" Azért nem egy gyenge gép ez az i5 konfig"
Futtass le rajta egy Cinebench R15 tesztet [link], egyből látni fogod, hol a helye a procidnak komolyabb terhelés alatt. Referenciának íme a 7 éve bemutatott procim teljesítménye: [link]
Nem gyenge az i5, de messze nem olyan erős főleg húzás nélkül, mint ami ezekben a játékokban kellene ilyen erejű VGA-k mellé.[ Szerkesztve ]
-
HSM
félisten
válasz Ren Hoek #25264 üzenetére
Ez nem az a pálya...
Ide feleannyi proci sem kell.... Itt nekem olyan 50FPS-em volt így beállítva kinn az esőben, 50% körüli processzorhasználattal, GPU-limit nélkül azzal az említett konfiggal, beállítással.
Jól megjegyeztem azt a pályát, mert valamiért sokkal jobban megharapta a VGA-t, mint a játék többi része. Az akkori driverrel nem annyira szerette a 290-em, emiatt jópárat teszteltem ott is.[ Szerkesztve ]
-
HSM
félisten
válasz Malibutomi #25346 üzenetére
Vagy csak simán úgy gondolta... A Polarisnál is azért elég komoly működésbeli változások lettek eszközölve a motorháztető alatt, ezt rendre kihagyták a Veag cikkekből, amit olvastam.
-
HSM
félisten
+1, csak nálam 290/290X-ekkel. Még 2 éve kb. volt egy ideig, hogy win7-en laggolt, addig toltam csak DX11-el, de aztán az is meg lett csinálva.
Amúgy a 7870XT-m nem szerette, stabil volt, de azon jobban hasított a DX11 mód. Elvileg szűkös volt Mantle-nek azon a kártyán a 2GB. -
HSM
félisten
Mikor kijött a Mantle patch, utána kb. fél év volt, mire négymagos proci+win7-re kijavították. i7-ekkel HT-val és win8-on viszont jó volt ahogy írod, már 3-4 hét után is. Nekem sajnos akkoriban még kellett a win7 és csak i5-öm volt, szval maradt addig a DX11. De mikor megcsinálták végre, nem kicsit lett frankó a Mantle. Ma is azzal játszom, príma.
[ Szerkesztve ]
-
HSM
félisten
válasz schawo #25407 üzenetére
Hát ezaz... Olcsó, egyszerű kártyák, egyedül a GDDR5X lehet ami picit hozzáad az előállítási költséghez a 1080-on, ehhez képest meg iszonyat magas áron adják őket.
A pénzügyi jelentéseikkel sajna nem igazán vagyok képben. De semmi kétségem, hogy ezeken a GPU-kon/kártyákon iszonyat profitokat realizálnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs