- Tarr Kft. kábeltv, internet, telefon
- Delphi programozás
- Megvédenék a gyerekeket az agresszív algoritmusoktól
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Synology NAS
- Mikrotik routerek
- Bocsánatot kért az Apple, mert nagyon mellélőtt a legutóbbi reklámjával
- Már nem hisz a nagy európai EV-forradalomban a Ford
- Több stúdiót is bezár költségcsökkentésként a Microsoft Xbox részlege
- SamKnows és NMHH internet sebességmérés
Új hozzászólás Aktív témák
-
nagyúr
válasz sayinpety #9235 üzenetére
Ezeknek mind nagyon tudok örülni, amikor éppen nem a "vásárló" feliratú sapka van rajtam. Vásárlóként viszont a jobb gameplay / fizika / stb., aminek amúgy nagyon örülnék, megint csak belógatott ígéret, amiből egy jó darabig semmit sem látok. Valamint az AotS alpha ezt egyáltalán nem demonstrálta - innen indult az egész téma.
Emellett még egy dolgot nem értek. Ha fontos a jobb gameplay, akkor miért nem csökkentik a stúdiók a grafika komplexitását annak érdekében, hogy több erőforrás maradjon más célokra?
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz sayinpety #9250 üzenetére
Az remek, hogy tetszik az AotS, de ettől az alpha még nem alkalmas a DX12 előnyeinek demonstrálására
A második szakasz megosztását köszi Ez viszont azt is jelenti, hogy a 3 IHV közvetetten kikényszerít egy olyan vizuális komplexitást, amire a DX11 nem alkalmas. Arra, hogy ez a vizuális komplexitás megfelelő sebességgel szaladjon CPU oldalon, az nVidiának van megoldása, a másik kettőnek nincs. Az nVidia megoldása miatt csökkentenetek kell a gameplay komplexitást - míg ha az nVidia megoldása nem lenne, akkor (esetleg) nem kellene csökkenteni a komplexitást, viszont bizonyos jelenetek akkor sem mennének 4GHz-es i7-nél gyengébb CPU-n 30 fps felett, ha megfeszültök. Kellemes dilemma, és nagyon szépen látszik belőle a 3 cég piaci hozzáállása:
"N" felhasználja a saját vásárlói bázisának erősítésére
"A" előhúz valami innovatívat, amiből egyszer majd lesz valami, de a jelenben csak a pénzüket viszi
"I" teljesen mást csinál, mint a többiek, és abból vagy nem lesz semmi, vagy ha igen, akkor az mindenkinek nagyon sokba fog kerülniPedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Televan74 #9262 üzenetére
Szerintem egyik sem jó. Userként az nVidia megoldása a legjobb, de akkor tudnám azt mondani rá, hogy jó, ha a játék tudná szabályozni, hogy hány mennyi fizikai erőforrást vihet el maximum a driver.
(#9263) HSM: a BF4 messze nem a legszélsőségesebb eset. A többit ld. fentebb.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Mire gondolsz lényegi rész alatt, a 2. bekezdésre? Utaltam rá, hogy arra ugyanaz a válasz, mint amit Televannak írtam.
Btw. arra már van valami magyarázat, hogy miért megy az AOTS ennyire gyökérül az FX-ekkel? Ez egy elég fontos infodarabka lenne...
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Az, hogy nem lehet szabályozni, az implementáció hibája, nem a modellé, ezért nem értem az első mondatot. Nekem pont az a véleményem, amit a végén írtál, hogy egy kicsit túltolták a szekeret ezzel a fene nagy szabadsággal, de láthatóan az inercia-törvények pont ugyanúgy működnek szabványok esetében, mint fizikai tömegekkel
Arra azért kíváncsi leszek, mit fog mondani Johnny C. Duty, amikor először szembesül a hosszú évek óta nem látott BSOD-dal játék közben...(#9318) Abu85: igen, ezt hallottam én is, de ez nem magyarázza, hogy mitől kétszer gyorsabb i7-6700K mind az i3-4330-nál, mind az FX8370-nél.
(#9316) cain69: A 4 magos elmélet is ugyanúgy beteg - az FX-i3-i7 relációkör közül az egyik párt magyarázza, de a másikat nem.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Mivel a jelen CPU-oldali működésben az ILP extraction nem terjed ki több magra, a szabályozás egyszerűen mehetne lefojtással - kevesebb threadet kap a driver, aztán hello.
Abban persze igazad van, hogy a járt út egyszerűbb a járatlannál, de a PC-n uralkodó húszmillió variációs lehetőséget járt útnak tekinteni igen bátor dolog. De mindegy, mert most már úgyis erre haladunk - szerintem lesz ebből még mozgás visszafelé, szabályozottabb irányba, de ez biztosan nem lesz rövid folyamat.A PCI-E magyarázat a 6300 és a 8370 között sántít, de már jobb egy kicsit. Viszont így meg nagyon ciki, ha az egyik szűk keresztmetszet helyett behozunk egy másikat
(#9339) Malibutomi: azért azt ne felejtsd el, hogy a neten olvasott tesztek VGA-limites szituációkban készülnek. Gyengébb CPU-val, kevésbé VGA-orientált scene-nel és beállításokkal eléggé más a kép.
(#9347) cain69: a C2C teljesítmény annyival nem gyengébb az FX-ben, hogy az i3 így lenyomja egy olyan helyzetben, ahol 4 fizikai mag megy 2C/4T ellen. Nincs amúgy jobb elméletem, de szívesen látnék egy olyat, amin nem találok fél perc alatt egy hatalmas lyukat...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
A gameplayt nem is kell skálázni. Azok az alap (ahogy a geometria is), és ahhoz kell(ene) hozzálőni a rendszer függvényében, hogy mennyit kaphat maximum a driver.
Az nVidiára fogni ezt a dolgot alsó hangon is hülyeség - nekik volt megoldásuk egy helyzetre, amire az AMD-nek nem. Nem volt jó megoldás, de a semminél jobb. Ha azt hiszed, hogy az nVidia aggresszíven multithreadelt drivere nélkül jelentősen jobb lenne bármi gameplay fronton, akkor igen naiv vagy.A BSOD-ban semmi gumicsont nincs - a játékok tele vannak hibákkal, és egyes hibák a nagy szabadság miatt meg fogják borítani a rendszert.
"Rendesen megírt programokat kell használni, és nincs gond."
Akkor innentől el lehet felejteni az AAA játékokatHa limitálom a szálak számát, akkor nem teszek nekik félre erőforrást, hanem maximálom, hogy mennyit vihetnek el. Ha ez nem elég a grafikára, akkor kevés lesz az FPS, és vissza kell venni a beállításokból.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Nomenklatúrán sokat ne vitatkozzunk, de kompromisszum kb. = nem tökéletes megoldás.
Az Intel nem csinált semmit, úgyhogy az nem kompromisszum. Eleinte az AMD sem, aztán követte az nVidiát, mert röhej tárgyává vált volna.
De, fog BSOD-ozni. Látom a mostani játékok állapotát launchkor, ezen felül rengeteg szoftverfejlesztési projektben részt vettem (nem gaming) - mindkettő alapján nyilvánvaló, hogy lesz BSOD.
Yup, félreérted. A driver próbáljon indítani annyi szálat, amennyit csak szükségesnek érez, viszont a szoftver tehessen erre korlátot. Amit akár kipublikálhat a user felé is valamilyen formában. Ily módon a driver-játék közötti kompromisszumba bele tud szólni az IHV, aki ismeri a hardvert és a drivert, a fejlesztő, aki ismeri a játékot, és a user, aki ismeri a gépét és a saját elvárásait.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Petykemano #9385 üzenetére
Úgy tűnik, a cikk írója nem látta a tesztek eredményeit
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Validátorral kontextusfüggő (adatfüggő) hibát nem fogsz elkapni, a maximum, amit elvárhatsz tőle, hogy jelez kockázatot egyes programszakaszoknál erre. A többi, amit leírtál, meg tovább cizellálja a dolgokat.
Nincs ebben amúgy semmi extra, drasztikus változások meglépése mindig sok kiegészítő problémával jár. Végig kell szenvedni őket, aztán néhány év múlva napfény lesz és tengerpart[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Malibutomi #9505 üzenetére
Na ez egy érdekes műsor. Kérdések:
- Honnan került elő hirtelen egy olyan mondás, hogy a Maxwell nem támogat aszikron compute-ot? Eddig arról volt szó, hogy támogat, csak bizonyos korlátokkal.
- Ha az nVidia kártyákon nem ment az a-c, és ezzel együtt a Radeonok alig lettek gyorsabbak, akkor mire jó az a-c? Vagy, ha a Radeonokon nem ment volt az a-c, akkor jelentősen lassabbak lettek volna?Sokat segítene, ha a benchmarkban lehetne kapcsolgatni, hogy használjon-e a-c-t vagy ne...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Malibutomi #9524 üzenetére
Aha. Ebből nekem az jön le (amit aztán Abu85 postja részben meg is erősít), hogy nem univerzálisan tiszta, mit is értünk aszinkron compute alatt. Eszerint lehetnek olyan fizikai leképződései, amit az nVidia kártyák a felépítésük miatt (és itt most nem a spórolásról van szó, hanem arról a koncepcióról, amit a Fermi óta visznek) nem tudnak normális sebességgel futtatni.
(#9531) Abu85: Köszi, ez informatív volt De még mindig kérdés, hogy miért nem hozott gyorsulást az a-c a GCN kártyákról. Volt már szó arról, hogy a driver sorosít, de akkor mitől dőltek be a Maxwellek?
Összességében azt tudom mondani, hogy 3 csomag popcorn és két Nuka-Cola rendel
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz daveoff #9543 üzenetére
Azt azért ne felejtsétek el, hogy ha a 2048 ALU-val rendelkező 980 gyorsabb, mint a 2816-os 290X, akkor ott ALU kihasználtságban komoly különbség lehetnek (még órajellel kompenzálva is). Ha ezen segít az a-c (márpedig ha ezen nem, akkor semmin), akkor abból valóban kovácsolhat előnyt az AMD.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Le lett írva az elmúlt 24 órában két realisztikus magyarázat is. Nyilván nem tudjuk biztosan, mennyire pontosak, de mindkettő magyarázza a jelenséget, és mindkettő kezelhető programozói oldalról. Igazából elvileg a driver is megfoghatja ezeket az eseteket - afelett is van kontrollja, hogy egy GPC akar-e feladatot adni egy másiknak, és afelett is, hogy compute feladatokat összegereblyézzen egybe, és a következő ciklusban azok menjenek.
De az is lehet, hogy a fejlesztőknek is oda kell figyelni erre - too early to tell.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Dr. Bubó #9621 üzenetére
Lehetne kicsit visszaolvasni
Jelenleg senki nem tudja megmondani, mennyi az igazságtartalma a clickbaiter híreknek. Egyelőre annyi biztos, hogy jelenleg van probléma, és nincs rá kapásból válasza az nVidiának (ha lenne, akkor nem így festene a kommunikációjuk). A probléma mértéke terjedhet egy szar drivertől egészen bizonyos hardware-képességek hiányáig, és azért jó, hogy ez felszínre került, mert számos lelkes (és valamennyire hozzáértő) programozó most azt kutatja, mi is a helyzet, ill. az nVidia sem ülhet a babérokon, muszáj cselekedniük.
Egyébként az nVidia simán van annyira "szar" cég, hogy egy ilyen scamet előadjanak, de ettől még egyáltalán nem biztos, hogy ez a helyzet. A következő 2 hónapban sok popcorn fog fogyni
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz tibcsi0407 #9641 üzenetére
Azért érdekes ez a műsor, mert ha az nVidia valóban csak sorosan képes végrehajtani, az nem magyarázza, hogy miért ment le a teljesítmény a béka segge alá az Oxide-nál.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz tibcsi0407 #9649 üzenetére
Igazából bármennyi is lehet - ha előtte sorosan hajtott végre a GPU, és utána ők megerőszakolták a kódot, hogy mindenképpen sorosan hajtson végre nVidia GPU-n, akkor nem kellene nagyon különbségnek lenni...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz FollowTheORI #9659 üzenetére
Egy időben több ezer feladat fut egy GPU-n. Abban szinte biztos vagyok, hogy nem a 31+1 a probléma a Maxwellnél, mert az Oxide "mérsékeltként" aposztrofálta a saját a-c használatát. De amúgy csak az a biztos, hogy az AOTS csinált valamit, amire a Maxwell + driver kombó nincs felkészülve. A jelenségből én olyan problémára gyanakszom, ami vagy driver oldali hiba, vagy driver oldalon kezelhető - ha az előbbi, akkor vihar a biliben, ha az utóbbi, akkor az lehet komolyabb gondok előfutára is.
Nem volna rossz, ha sayinpety kolléga erre járna, mert ő már programozott ilyesmit, és ha jól rémlik, volt valami szívás náluk is...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz FollowTheORI #9688 üzenetére
A queue-kat nem kell csomagokra bontani, ott jönnek be a feladatok, és onnan "viszi el" őket a scheduler. Azt mondjuk nem tudom pontosan, mit jelent fizikailag a 31-es limitáció átlépése (talán csak annyit, hogy vmi contex switch kell, ha több van, talán többet).
Könnyen lehet, hogy az AOTS 1 grafikai és 1-2 compute queue-t használ - többnek csak akkor van értelme, ha valamiért foghíjas mind a gfx, mind az összes compute queue.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Itt igenis elmondhatom a véleményem az AMD-ről...
Abszolút, ha ezt megfelelő szakmaisággal teszed...
és azokról, akik használják
... nem annyira. Ilyesmiből könnyen lesz személyeskedés (még ha nem is annak szántad), azt meg inkább próbáljuk elkerülni. Peace.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Malibutomi #9860 üzenetére
Pontosabban eredetileg is a 16-bites teljesítményről volt szó, csak a sajtó ügyes szalagcímeket kreált belőle. Pontosan, ahogy a Mantle esetében. Érdekes megfigyelni, hogy melyik cég hogy kezelte a szituációt, tanulságos.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Petykemano #9979 üzenetére
Jó kis írás, érthető, és nem utolsósorban magyarázza az összes eddigi jelenséget / állítást. Ha az "üzemmódváltás" tényleg up tp 1000 ciklust igényel a Maxwellen (ez azért egy elég súlyos állítás), akkor a gyakorlatban frame-enként nem lehet több 1-2 ilyen átkapcsolásnál (sőt, ALU-limitált esetben 1-nél sem nagyon), azaz a schedulernek nagyon komolyan rendezgetnie kell a feladatokat. Ezt meg lehet csinálni egészen addig, amíg a graf és a compute feladatok nem használják össze-vissza egymás eredményeit. Ezzel meg is van a recept, hogy hogyan lehet megcsinálni a földalatti óceán AMD-s megfelelőjét
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Ren Hoek #9982 üzenetére
Nem a compute queue-k száma az izgalmas kérdés, hanem (feltéve, hogy tényleg ekkora overhead a CS) a szükséges váltások száma. Ha pl. az összes compute queue scene-előkészítési feladatokat végez, amik mind lefuthatnak a grafikai taskok előtt, akkor nyugodtan lehet több queue, először azokat hajtja végre a GPU - aztán vált, és jöhet a grafika (mellesleg ez nagy előnye a félig szoftveres megoldásnak). Ennek persze előfeltétele, hogy a frame-re vonatkozó összes feladat meglegyen, amikor elkezdi a számítást - ezt nem tudom, hogy így van-e, ill. ha nincs, akkor megoldható-e egyáltalán. Ez egy második, ellenkező irányú nagy HA.
Az önmagában nem gond, ha az adat ide-oda vándorol a compute és a grafikai queue-k között - miután ezek az architetktúrák erősen latency-állók, szerintem a GCN-en ez csak akkor gond, ha eszement mértéket ölt. Ami inkább kérdés, hogy a gyakorlatban mennyi értelme van ennek - nem vagyok grafikus programozó, úgyhogy erről inkább véleményt sem mondok.
(#9983) HSM: kicsit túlpörögted azt az egy mondatot, nem? Nem a két szituációt hasonlítottam össze, csak annyit jegyeztem meg, hogy most már az AMD oldalon is van csodafegyver.
Az, hogy a gyakorlatban mi lesz, attól még nagyon messze vagyunk. Egyrészt ott voltak sayinpety fórumtárs saját tapasztalatai, ahol a Maxwell is gyorsult az a-c hatására, tehát elvileg működésre lehet bírni a dolgot normálisan. Másrészt B megoldásként ott lesz a lehetőség, hogy mindent a gf queue-ba tesz a program, mint az AotS esetében - így az aszinkron sebességnyerés elmarad, de ez úgyis kisebb lett volna, mint a GCN esetében. Harmadrészt pedig, ki tudja, milyen meglepik jönnek még elő...
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz velizare #9988 üzenetére
A jelen téma szempontjából teljesen mindegy, milyen mértékben, az a lényeg, hogy gyorsult, nem pedig stagnált, és főleg nem ment át mocsári csigába, ahogy az AotS-es srácoknál. Az érdekes, hogy hogyan csinálta, de lehet pl., hogy vmi speciális experimental development drivert használtak, vagy ilyesmi.
(#9986) Ren Hoek: mindegy igazából, ez a bench csak egy katalizátor volt ahhoz, hogy egy probléma a felszínre kerüljön. Következtetéseket nem az eredményeiből kell levonni, hanem pl. abból, amint lejjebb linkelt Petykemano.
(#9990) HSM: azon sok meglepődnivaló nincsen, hogy a Radeonok többet gyorsultak - az ilyesmire jobban kihegyezett uarch mellett több is a kihasználatlan erőforrás bennük. Ugye a GCN tervezésekor az AMD már erre az irányra gyúrt, csak lassabban jött el, mint gondolták. Biztosan lesznek is fájdalmak emiatt a Maxwellel - a két fontos kérdés pedig ugyanaz, mint eddig:
- Mikor?
- Mennyi extra munkát fektetnek majd a fejlesztők abba, hogy ezeket enyhítsék?[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Urak, a gépösszerakós témát kérném áttelepíteni a megfelelő topicba
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz tibcsi0407 #10052 üzenetére
Pont a Maxwell a legékesebb bizonyíték arra, hogy üzletileg működik ez a megoldás. Teljesítményben ráhoztak egy alig-javulást a 780Ti-780-760 hármasra, és vitték az emberek, mint a cukrot. Fogyasztói társadalomban élünk, a built-to-last megközelítés (sajnos) nem tesz senkit sikeressé
.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz TTomax #10088 üzenetére
Ez mind szép, és hosszabb távon igaz is, de abból a szempontból, amit írtam, semmi jelentősége. Amikor megjelent a 980, akkor annyiba került, mint a 780Ti, és sebességben kicsivel volt jobb. Vették, mint a cukrot? Igen. Az nVidia vonzóvá tette a kártyát, az emberek pedig megvették. Ennyi.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Még mindig ugyanaz a gond, ami februárban - egy olyan problémából építesz Nagy Zöld Apokalipszist, ami az emberek nagy részét egyáltalán nem érdekli. A dolognak 3.5 éve nincs semmi gyakorlati látszata (ugyanis az a "GCN is king" mozgalom a Kepler megjelenése óta megy) - a jövővel kapcsolatban pedig van, aki azt gondolja, hogy ha lesz is probléma, akkor az első körben kevés esetben fog felbukkanni, van, aki hisz a 82% meggyőző erejében, és van, aki azzal sem foglalkozik, mi lesz holnapután. Szóval AMD tulajként azon problémázol, hogy milyen gondjai lesznek a Maxwell tulajoknak, akiknek a nagy részét ez az egész egyáltalán nem is érdekli. Szerintem ez nagyon humoros
(#10126) HSM:
Ilyen szemétrevaló hulladék alsókategóriás gagyi tápra...Öööööö.... whut? Konkrétan mi is a nagy gond a CTG-500-zal? Teljesen jó táp, egyetlen "bűne", hogy kétágas, azaz 200-210W-nál többet fogyasztó VGA-t nem feltétlen tanácsos rátenni. Lehet, hogy elviszi, lehet, hogy időnként restartol. Én egy kevésbé eleresztett 970-et vagy 980-at simán rákötnék, a Hawaii GPU-s kártyákat már inkább nem.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
-
nagyúr
válasz rocket #10248 üzenetére
Hát, talán mert ő volt a bal kéz, és nem tudta, mit csinál a jobb, aki a drivereket fejleszti? Más szóval, business as usual
Az idézet meg... nyilván. Senki nem a saját maga ellensége.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Szeretnék többeket megkérni, hogy a következő post megírása előtt legalább 30-cal csökkentsék a vérnyomásukat
Egyrészt a kártyákkal kapcsolatban próbáljunk tárgyilagosak maradni, másrészt egymás személyére vonatkozó megjegyzéseket kéretik mellőzni. Utóbbiakat különösebb ceremónia nélkül törölni fogom.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz TTomax #10645 üzenetére
Pontosan erről beszélek,akkor minek a 4K?
Természetesen annak, hogy a jelentősen nagyobb PPI sokkal jobb képminőséget jelent...het. Persze ez függ a kijelző méretétől - 27-28"-en lehet, hogy nem hoz annyit, mint egy jó soft shadow implementáció. Mondjuk ebben a méretben eleve nem sok értelmét látom WQHD-nél nagyobb felbontásnak.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz TTomax #10653 üzenetére
Lehet, hogy nem pont ugyanazt látjuk nagy különbségnek Futólag láttam 4K-s kijelzőt 27" vagy 28" méretben, annyira nem nyűgözött le - 48-50"-on annál inkább. Ill. a legtöbb játékban a High és a Very High fokozatok között nem sok különbséget látok - míg az FPS különbség akkora, hogy a WQHD-4K különbségnek legalább a felét megugorja, ha nem többet.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz TTomax #10667 üzenetére
Az első bekezdéssel nagyjából egyetértek, nem minden játékban elég a High fokozat a 60 FPS-hez (bár elég sokban igen) - csak azért írtam, mert nekem igazából onnantól kezdődik a kompromisszum, hogy a High-ből engedek. Játéktól függően akár az FPS-ből is, de mostanság a DoF és az AO elég gyorsan repülni szokott - néha nem is a teljesítmény miatt.
A méreteknél kissé félrecsúszott a dolog - azért mondtam a 27"-et és a 48"-et, mert olyat láttam már élőben. 32"-nél talán, 36"-nél meg biztosan erősen számítana már a PPI differencia nekem is. Inkább az a kérdés, hogy egy 32"-es screent idetennék-e az orrom elé monitornak - a 27"-es játszani jó volt, de desktopnak nem volt igazán komfortos. Lehet, hogy nekem az ideális célfelbontás a WQHD, még nem vagyok 4K-Ready
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz proci985 #10694 üzenetére
Igazából nem sokkal rosszabb az a kártya, mint a 950, 20 dollárral olcsóbban akár meg is érné, de az AMD valahogy úgy áll hozzá, mintha saját maguk is szégyellnék. Ennél még az is jobban menne, ha kiadnának egy 7850 nosztalgia editiont (still going strong, vagy valami hasonló nyálas dumával), és akkor még égni sem kellene...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Malibutomi #11117 üzenetére
Szereti a sávszélt, úgy fest.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Kérnék mindenkit, hogy az erőviszonyok pár %-os mozgásából ne kerekedjen se farokméregetési verseny, se temetkezési vállalkozás
A grafika még a videokon is baromi jól néz ki, több, mint két éve ez az első játék, amire emiatt vagyok kifejezetten kíváncsi élőben. Ehhez képest szépen simán szalad, és a leggyorsabb kártyákkal akár még 4K-ban is játszható (bár azért nem 60fps-sel). A sávszélességet láthatóan szereti, úgyhogy ez ad egy kis előnyt a Radeon campnek, de semmi drámai - egyedül a 960 küszködik kissé. Én örülnék, ha ilyen lenne a következőkben a trend az AAA játékokban...
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Gainka #11157 üzenetére
Akkor szelektíven olvasol, sajnos. Folyamatosan van valami topik, amiben az AMD 3-4 hónap múlva alázni fogja az nVidiát. Tavasszal a Fiji GPU volt, utána nagyon rövid ideig a DX12, most pedig a VR. Persze az alázós dumákat jellemzően nem ugyanazok nyomatják, akiknek most nem tetszenek az nVidiás megnyilvánulások, de azért jellemzően nem 0 az átfedés...
(#11160) Abu85:
Alapvetően emiatt vezették be a GameWorksöt, ha jön egy új architektúra, akkor szoftveresen képesek legyenek mesterségesen kivégezni az előzőt.Talán korrektebb lenne azt írni, hogy ez az egyik mozgatórugó a GameWorks mögött. Nyilván ez is benne van (ha nem is ennyire élesen), de van pár egyéb célja is a rendszernek.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
(sóhaj) Szépen részletesen leírod, hogy mi a fontos különbség a GW és az AW között (ie. a GW-nek van olyan része, amit nem szeretnének nyilvánosan mutogatni), és ebből előre levonod a teljesen rossz következtetést, miszerint a GW semmi másra nem való, csak arra, amit takargatni akarnak benne.
Nyilván, a zárt rendszernek az a célja, hogy teljes kontroll legyen felette. Ebből sehogy nem következik, hogy ez az egyetlen célja. Számos hasznos vonása van a GW-nek - csak kár, hogy a manipulációs eszközökkel árukapcsolva kapod.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Ó, lehetőséget kaptam, hogy alátámasszam, amit sosem mondtam? How very generous (ld. még szalmabáb).
A GameWorksnek is az a célja, hogy megkönnyítse a fejlesztők dolgát. Annyira, hogy még az optimalizálás terhét is leveszi a vállukról Meg az is, hogy az nVidia kártyákon jobban fussanak az effektek. Meg az is, hogy az újabb nVidiákon még jobban fussanak. Ezt mind tudjuk. Viszont azt állítani, hogy a GW-nek az utolsó egyedüli célja, az nettó marhaság, hiába csavarod a szavakat bármilyen irányba.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Tarr Kft. kábeltv, internet, telefon
- Módosít a memória sebességének jelzésén a Microsoft
- Fél tucat Core Ultra CPU jöhet az asztali piacra
- Gitáros topic
- RAM topik
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Autós topik
- Toyota Corolla Touring Sport 2.0 teszt és az autóipar
- Diablo IV
- Fűnyíró topik
- További aktív témák...
- Netac NV7000 4TB M.2 NVME PCI-E 4.0 x4 - Új, Tesztelt - 7200-6850 MBs - Eladó!
- Modolt Magyar ASUS ROG Strix Scope II 96 Wireless keresi gazdáját
- Eladó Legamaster Airserver Connect 2 - 2 darab!
- MacSzerez.com - iPhone 11 / 128GB / Kártyafüggetlen / Zöld / Új akkumulátor! / Garancia!
- Laptophoz keresek 8GB-os DDR4-es modulokat több darabot
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen