Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz szasanyi #1393 üzenetére

    Én nem a Mantle sebessége miatt vagyok derűlátó. Az önmagában őrületes előrelépés lesz. A gond inkább az a lavina, amit az API elindít. Az már nem tetszik, és így igazából már a Mantle sem kedvező.
    Nyilván szoktál olvasni engem és régóta mondom, hogy a DX/OGL már korlátoz és kellene a reform. Egyik szememben a Mantle maga a reform, de a másik szemem sírásra áll, mert én nem ilyen reformot képzeltem el. A Mantle amennyire jó, annyira agresszív beavatkozás a PC-s játékpiac alakulásába. Én valami olyan reformot szeretnék, amit anno a DX10-re váltás jelentett.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TechArtist #1406 üzenetére

    Igen arra gondolok. A Mantle egy radikális beavatkozás a piac normális fejlődési ütemébe. Értem én, hogy erre Carmack szerint is az lenne a legrosszabb válasz, ha az NV is kihozna két éven belül egy saját API-t, és ezzel együtt jönne mondjuk az Intel, és még a többiek. Ezzel megvalósulna a low-level elérés, de minden gyártónak külön API-ja van. Ezt még Repi sem akarja, hiszen ő is azt mondta, hogy ez rossz jövőkép. De mi a lehetősége az AMD konkurenseinek? Gyakorlatilag vagy válaszolnak a Mantle-re, vagy keresnek új piacot, mert olyan szoftveres előnyt szerez az AMD, amit nem lehet hardverrel kompenzálni. Ezen a ponton változtat meg mindent a Mantle. Vagy radikálisan szegmentált lesz a piac, vagy Mantle és egyben AMD monopólium lesz. Mindkét opció rémisztő. Ennél is nagyobb baj, hogy amelyik szoftverfejlesztő támogatja a Mantle-t, olyan technológiai előnyt szerez a többiekhez képest, hogy a szoftveres oldalon zajló versenyhelyzet a konkurens fejlesztőktől is kikényszeríti a támogatást. Ezért nagy dilemma itt az, hogy az AMD konkurensei válaszoljanak-e a Mantle-re, mert a fejlesztői oldalon a támogatás öngerjesztő folyamat lesz. Maguk a kiadók sem fogják nézni, hogy az EA technológiailag föléjük nő.
    Az AMD pont ezért akarja korlátozni a Mantle használatát. Mert egy olyan palackba zárt szellemről van szó, aminek a szabadon engedése beláthatatlan károkat okozhat. A többiek biztos osztanak szoroznak, hogy mi a legjobb lépés erre, de nagyon meg kell azt gondolni, mert minden támadásból kijöhet jól az AMD, ami nem kedvező a konkurenseknek. A legbiztonságosabb lépés egyébként a kármentés. Ennek az első fázisa arról szólna, hogy a fejlesztőknek fizetnek egy rakás pénzt csak azért, hogy ne használjanak Mantle-t. A Mantle így is terjedni fog, de az öngerjesztő támogatási folyamat lelassul. A második fázis pedig egy szabvány API a Mantle helyére. Ezt nem kell magyarázni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz =WiNTeR= #1411 üzenetére

    Nem nagy dolog áthozni az Xbox One DirectX 11.x API-ját, az nagyjából az ami a Mantle. De semmit nem érnek el vele, mert azt a GCN tudja támogatni és kész.
    Bonyolult a helyzet, nem csak szoftverben kell fejleszteni, hanem hardverben is. De egyébként ha már újítani akarnak, akkor újítsanak nagyot. Ott a C++AMP. Azt ki kell egészíteni a fix-funkciós egységek kezeléséhez szükséges funkciókkal, és létre kell hozni egy kompatibilitási réteget lehetőleg alacsony szinten. Aztán C++ sablonban mindenki megírhatja azt amit akar.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz szasanyi #1416 üzenetére

    Az NV-nél az árcsökkentés elsősorban attól függ, hogy a TSMC-vel hogyan állapodnak meg a következő évre. A Q3-ra árcsökkentést nem fognak berakni, mert az rontaná a negyedéves eredményt. Ha akarnak árcsökkentést, akkor arra üzletileg november közepe az ideális időpont.
    A Maxwell elsődleges feladata az ARM-os integráció. Fontos az NV-nél látni, hogy ők nagyon gyúrnak a mobilra. Azért ilyen a Kepler compute teljesítménye, mert így lehet jó a rendszer teljesítmény/watt mutatója. Az AMD GCN ebben nem jeleskedik, és nagyobb is ez a mutatójuk minden kártyán, cserébe nagyon extrém a compute teljesítményük. De ez csupán tervezési eltérés. Az NV-nek a Kepler és a Maxwell kell mobiltelefonba is, míg az AMD tabletnél lejjebb nem gondolkodik, tehát alapvetően úgy alakíthatják ki az architektúra dizájnját, hogy az IGP fogyasztása úgy 1,5 wattról induljon. Az NV-nek olyan dizájn kell, ami 0,5 watton belül is működik. Itt jön elő, hogy honnan legyen meg az a -1 watt, és elsődlegesen a mobilban érdektelen compute hatékonyság kerül elő. Egy top Mali-T600, PowerVR G6000 vagy egy Adreno 400 sem lesz hatékonyabb compute-ban a Keplernél. A GCN előnye csupán ott van, hogy máshova tervezték, a nagyobb fogyasztást megengedő felépítés kevésbé köti meg a mérnökök kezeit.
    Mivel ez egy tervezési eltérés, így a Maxwell sem lesz a GCN-hez hasonlítható, de az NV nem is akarja olyanra csinálni. Sőt, ez igazából nem is számít annyira. A GCN technikai tudása a Mantle-lel használható ki, ami szoftver oldali előny. Esetleg, ha látunk majd olyan játékokat, amelyek 20 compute shadert is használnak, akkor az a GCN-nek nagy extra lesz, de egyelőre 3-5 compute effektnél leragadtak a játékok. Ennyi fér bele a DX11-et támogató hardverek képességeibe. Csak az AMD érkező új Ruby demója tartalmaz 23 compute effektet, de az meg nem játék. Igazából 3-5 compute effektnél többet az NV amúgy sem ajánl. Az Intel mondja azt, hogy a Haswell IGP-nél el lehet menni 15-20 effektig, de csak ésszel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Departed #1560 üzenetére

    Eddig sem jelölték a steppingváltásokat. A fogyasztás nem lesz jobb, mert ugyanaz marad a TDP limit mint most. Maximum az új lapkák képesek majd többre elméletben, de ennek nem látod majd az előnyét. Esetleg egy X nélküli 280-on.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz HSM #1581 üzenetére

    Az XTL verzió előrelépés lesz. Le tudnak menni 80 wattos TDP alá, vagyis jó lesz mobilba. Viszont a más tervezésű dizájn miatt nem lesz jó magas órajelre, és ezért van egy picit visszavéve a 280X órajele. Erre már készült az AMD. Aki 280X-et vesz lényegében nem veszi majd észre a különbséget az XTL és az XT2 között. Illetve tuningban az XTL valamivel kevesebbet fog tudni, mint a mostani, de az eleve nem alapszolgáltatása ezeknek a rendszereknek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz bombibmw #1584 üzenetére

    A tuning így is úgy is szerencse kérdése lesz, de ha 1100 MHz fölé akarsz menni, akkor nagyobb esélyed van arra egy XT2-vel, mint egy XTL-lel. Igazából fogyasztásban nem lesz különbség a kettő között, legalábbis ez maximum +/-3 watt körüli szinten marad.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Ahogy nézem specifikus problémával állunk szemben. A gyártók egységesek abban, hogy betartják azokat a paramétereket, amelyeket a memória beszállítója megad. Pusztán azért, mert egyszerűbb a tesztelt értékekkel beüzemelni a memóriát. Az ASUS speciel jól alkalmazza az 1,6 V-ot a 6+ GHz-es memóriára, mert 6 GHz-ig ajánlott az 1,5 V. Fölötte érdemes többet adni a memnek.
    Itt az a kérdés, hogy a VGA-k hány százaléka érintett. Mert ha csak 5-8%-ról van szó, akkor az egy reális hibaarány a gyári OC-s termékeknél.
    A gyári OC eleve egy érdekes terep. Az OC lényegében egy új BIOS. Erre vannak alapvető tesztek, de mindet nem tesztelik le, mert drágább lenne egyből kiszűrni a hibásakat, mint garanciában cserélni azokat. Ha valami hibás, akkor azt gariztatni kell és kész. Ezt mindenki így csinálja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Habugi #6015 üzenetére

    Az R0C-t eleve nem hitelesíti a Hynix 6 Gbps/bin fölé. Az ilyen vagy megy vagy nem dolog. Ezt minden gyártó eldöntheti maga, hogy bevállalja a 6 GHz-nél nagyobb órajelet vagy nem. Ezen az sem változtat, hogy 1,6 V-ot adnak neki, amit amúgy meg lehet tenni, csak az a memória nincs erre hitelesítve.

    Gyári tuning mellett minden gyártó esetében az a hozzáállás, hogy nem fognak minden egyes dobozba kerülő VGA-t több napig tesztelni. Ez túl költséges lenne. Mivel nagyrészt ugyanazok az alkatrészek kerülnek rá, mint a nem gyári tuningosra, így várhatóan valamivel nagyobb lesz a hibaarány is, de ez még így is jó, mert a gari olcsóbb, mint a teszt. Szóval itt az lehet, hogy páran kifogtak egy-egy hibás terméket, és nem valós szériahibáról van szó.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ALONSO11 #6023 üzenetére

    A hűtés alkalmazása nagyban függ attól, hogy a memória beszállítója milyen hőmérsékleti értékeket szab meg ideálisnak. Lehet, hogy az extra hűtő jobbnak látszik, de nem biztos, hogy szükséges. Túl kevés az információ ahhoz, hogy erről mi véleményt alkothassunk.

    (#6024) HSM: Kérdés, hogy mitől szemetel a kép egy idő után. Valójában ezért nem csak a memória felelős. Rengeteg oka van neki. Lehet mutogatni a memóriára vagy a tervezésre, csak nincs elég információ hozzá.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #15016 üzenetére

    A Vulkan nincs a Windows 10-hez kötve. Az úgy működik, hogy a program indításakor lefagyasztja a WDDM-et. Arra létrehoz egy virtuális erőforrást, amin újra elindítja a WDDM-et. Ezen a virtuális erőforráson keresztül elérhető lesz maga a Windows minden gond nélkül. A játék ezután felépíti a WSI-t (Linux esetén ez LSI, de ugyanarra való), amely elérheti a fizikai erőforrást. A WSI-n belül kérhető fullscreen vagy windowed mode, illetve exkluzív fullscreen, ha nem akarja a fejlesztő, hogy a felhasználó ALT-TAB-ozzon. Ezt akármelyik WDDM-re implementálni lehet, akár a Windows Vista is jó. Ez a fő oka annak, amiért többet a Vulkant szemelték ki és nem a DX12-t.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz kokenyattila #15014 üzenetére

    A kettő közül az R9 285 a jobb. Teljesítményben lényegében ugyanaz a kettő, de ez a hardver időtállóbb, mert támogatja a DirectX 12 és a WDDM 2.0 még be nem jelentett hard-preemption funkcióját. Minden más VGA-n csak a soft-preemption érhető el. Azért például a virtuális valóságban nem mindegy, hogy a kontextusváltás ezerszer gyorsabban megvan.
    A sok ACE nem feltétlenül jelent majd lényeges előnyt. Persze a 3DMark API Overhead tesztben számít, és ott meg is alázza az R9 285 az R9 280-at, de ritka lesz az a játék, amely ennyire extrém front-endet igényel majd. Leginkább csak a Nitrous motoros játékokra lesz jellemző, azokból sem mindegyikre.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz szasanyi #15021 üzenetére

    Ez egy hatalmas tévhit. A low-level API pont arra van, hogy jóval kevesebb VRAM igénye legyen egy programnak. A BF4 nincs erre konfigurálva, de Repi is elmondta még 2014 márciusában, hogy egy streaming stratégiát egy low-level API-val nehezebb felépíteni. De ezt már megtették, csak a BF4-nél erre nem volt idő.
    Ott van példának a Middle-earth: Shadow of Mordor, ami PC-n High textúrához 3 vagy 4 GB-ot igényel, már nem emlékszem pontosan mennyit. Ugyanakkor PS4-en ugyanaz a High minőség egészen pontosan 256 MB-nyi előre allokált területbe fér bele, amihez hozzájönnek a pufferek, de összesen nem használ 1 GB-ot erre a program. Ezt le kell programozni, hogy így működjön.
    A jövőben ez még kisebb gond lesz, mert a virtuális textúrázás felé haladunk. Én is ezért vettem csak 2 GB-os VGA-t.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz szasanyi #15029 üzenetére

    Most is megnézheted mi történt. A BF4-ben nem volt optimalizálás, bevallotta Repi is. Nem volt rá ideje. Minden más Mantle játék ugyanannyit, vagy kevesebb VRAM-ot igényel, mint a DX11-es verzió. Sőt, a Frostbite és az Asura motor esetében még a textúraminőség is javul az új streaming rendszerrel a DX11 opcióhoz képest, mert a pointerkorrekciós technika több magasabb minőségű textúrát enged benntartani az előre allokált memóriaterületben. A Battlefield Hardline és a Sniper Elite 3 esetében már ez a rendszer működik.
    Ezért szidják egyébként a Hardline-t. Nem értik meg az emberek, hogy attól, hogy Ultra minőséget állítanak be, még lehet, hogy a motor nem tölt be mediumnál jobb minőséget bizonyos textúrákra, ez a DX11 módra nagyon jellemző.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz szasanyi #15031 üzenetére

    Nehezen várhatták volna el, hogy elsőre csinál valaki egy low-level textúra streaming rendszert PC-re. Ez olyan strukturális változást igényel a motorban, hogy az legalább fél éves fejlesztés. A Thief is memóriazabálóként jelent meg, csak kiadtak hozzá egy nagyjavítást, míg a BF4-nél ez kimaradt. De a helyzet elég jó így is. Hét játékból hat optimalizált.

    Az NV esetében más a helyzet. Ott a problémák forrása a zárt middleware. Még ha valahogy rá is jön valamelyik fejlesztő a gyenge teljesítmény okára, a javítást át kell nyomni a jogi csatornákon, mert elvileg a fejlesztőnek nem szabad látnia, hogy hol lassú a kód, tehát biztosan visszafejtette, amit az NV nem enged meg. De még ha ez meg is történik, javítani már csak az NV tudja, tehát a kontrolljuk a sebesség felett megmarad.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz szasanyi #15033 üzenetére

    Nagyon kevés olyan motor van, amely ma még nem támogatja az előző generációs konzolokat. Nem tudsz olyan motort tervezni, amely tényleg a next-genre íródott, mert az Xbox 360 és a PlayStation 3 nem tud több ezer compute pipeline-t futtatni. Majd ha tényleg úgy készül a motor, hogy nem kell a régi konzolokra figyelni, akkor lényeges előrelépések jönnek.
    A Nitrous nagyon jó példa egyébként. Abszolút PC-re és abszolút low-levelre tervezték az egészet.
    A PS4 exkluzívokon egyébként látszik a lehetőség. Az The Order 1886 grafikájára sokan felkapták a fejüket. Komoly lehetőség lehet a nagy kiadóknál, hogy ezután saját maguk írjanak mindent. Ez megvalósítható PC-n, csak strukturálisan más működési modellt igényel, összedolgozó fejlesztőrészlegeket és komoly R&D-t büdzsét, külön csapattal.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz szasanyi #15035 üzenetére

    A PC-s előrelépés egyértelmű lesz, hiszen eddig szenvedtünk az API-tól, és mostantól nem fogunk. Persze ez nem jelenti azt, hogy mostantól jelentős különbség lesz a PC-s és a konzolos játékok portjai között, csak annyit jelent, hogy mentesül a PC azoktól a bajoktól, ami ma jellemző rá, mint a rossz támogatottság, a patchkényszer, a mikroakadások, az óriási gépigények. Ezekért csak az API a felelős.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dtomka #15037 üzenetére

    Semmire. Elég jó az még. Majd később, ha lesz jobb proci jó áron, akkor cseréld.

    Az a Frostbite hibája. Nem stabil a DirectX 11-es kódja, mert olyan kényszerített erőforrás-zárolásokkal él, amelyet a Microsoft nem ajánl. Okkal, ugyanis ezek a zárolások ilyen hibához vezethetnek. Ezt ki kellene patch-elni a motorból, csak akkor lassabban futna. Bizonyos beállítások egyébként csökkentik a hibalehetőséget. Például a grafikai minőség visszavétele.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz kokenyattila #15056 üzenetére

    A DX11-ben a full deferred render leképzőkben lehet csak előnye az R9 285-nek, mert minden Radeonnál nagyobb a gyakorlati pixel fill-rate-je, illetve az agyontesszellált játékokban nagyon jól kezeli a mikropoligonokat az LDS tiled kivágásának hála. De egyik sem olyan dolog, amerre tart az ipar, szóval ezek inkább elméleti előnyök, vagy pár régi játékban megmutatkozhatnak.
    A low-level API-kkal nagyon fog számítani az optimalizálás. Abba gondolj bele, hogy amit ma az AMD ma megír a driverekbe, azt a jövőben a fejlesztőnek kell megírnia beleépítve a játékban. Tehát nyilván számítani fog, hogy melyik architektúraverzióra optimalizálják a programot. Jellemzően az újabbakra fogják, itt a 285-nek előnye lehet, csak azért, mert a Tonga tovább marad a piacon, mint a Tahiti. Egyébként a legrégebbi GCN verzióra is pár nap alatt megoldható az optimalizált memóriamenedzsment, tehát ebből akkora baj nem lesz, de fókuszba mindenképp a legújabb GCN verzió kerül.

    Az optimalizálás mellett még mehet jobban a 280-on, bár a low-level API-val a front-end limitáló lehet, és a 3DMark Overhead tesztben látható, hogy a 285 front-endje mennyivel vaskosabb, mint a 280-é. Ez számíthat.

    Ha egy játék nem lesz optimalizálva, akkor bármi lehet. A motor karakterisztikájától függ, hogy melyik hardveren mit mutat majd. Aki úgy gondolja, hogy nem képes két tucat architektúraverzióra optimalizálni, beleszámítva a nem dokumentált architektúrákat is, mert sajnos az NVIDIA megoldásai ilyenek, akkor az a fejlesztő ne használjon low-level API-t. Persze enélkül is használni fognak új API-kat, csak azt tudni kell, hogy ha egy fejlesztő disassembler hiányában nem tudja az architektúra működősét elemezni, akkor ma azt csinálja, hogy FELTÉTELEZI, hogy az NV és az Intel grafikus vezérlők is ugyanúgy működnek, ahogy a GCN. Ez a hozzáállás legalább annyira káros, mintha nem is optimalizálnának. Rásütni két totál eltérő gyártóra, hogy pontosan ugyanúgy működik a rendszerük, ahogy a GCN nem egy életbiztosítás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák