Keresés

Új hozzászólás Aktív témák

  • HSM

    félisten

    válasz gbors #8380 üzenetére

    Több gyanús szempont is van. Egyfelől a csip mérete, ami pont akkora, mint a Tahiti, tehát elfér rajta a 384bit. Másfelől, gyanús, hogy ennyire semmi hír a 285X-ről. 256bittel nem lenne túl veszélyes a 280X bennragadt készletekre, 384biten, 48roppal viszont elég gyilkos cucc lenne, inkább loholna a 290 nyakán, mint a 280X-nek. Ez megmagyarázná, miért nem hallottunk eddig róla kb. semmit. Harmadrészt, a kiszivárgott Tonga-diák gyanúsan sok helyet hagytak a 256bites busz mellett. ;] Negyedrészt, ha már az AMD elhagyta a crossbart a memóriák és a rop-ok közül, és megduplázta a setupot is, akkor a ROP-okra is ráfért volna kis upgrade. Túl sok minden utal a 384 bitre. ;) Tökéletes középkategóriás cucc lenne egy 512bites, Tonga-okosított 64ROP-os Hawaii utód mellett. ;) A sima 285 a 256bittel meg ár/érték bajnok lehetne kicsit kevésbé elszállt árazással.

  • daneeeeee

    aktív tag

    válasz gbors #8476 üzenetére

    A fickó azt mondta hogy a Mantle 1.0 raw változatát bárki használhatja, sdk is pubkikus hozzá.
    Ezen felül kiemelte hogy még sokáig nem is akarnak változtatni ne, hogy az legyen, hogy a saját szájuk íze szerint alakítják az Api-t.
    A Mantle játékok is kint vannak, a GCN azért volt alapul véve mert ez volt dokumentálva. Természetesen az Nvidia-t ettől még semmi sem akadályozza, hogy megírja a saját Mantle driver-ét az adott játékhoz.
    Ehhez még csak az sem kell hogy dokumentálva legyen a hardver, a drivert az Nvidia írja, ők pedig tudják milyen a saját hardverük.

    A PhysX pedig rossz példa mert ez egy Nvidia feature ami csak Geforce-on aktiválható. A Mantle pedig ezek szerint egy nyitott dolog, az interjú alany szerint semmi akadálya nincs annak hogy Geforce alatt is működjön.

  • daneeeeee

    aktív tag

    válasz gbors #8478 üzenetére

    Tudtommal a Cuda nem egy nyílt GPGPU technológia, ez csak az Nvidia-é. De ha nem így lenne és Cuda-layer elérhető lenne Radeonokon sem hiszem, hogy megoldható lenne egy PhysX. Az AMD a Mantle-el nyitott a konkurencia felé is (bár ez nem ért túl sokat) NV-nél ilyen szándékot eddig még nem fedeztem fel mondjuk a PhysX-el kapcsolatban. Szóval nem hiszem hogy megadnának minden támogatást.

    "ha az nVidia írna egy Mantle drivert (ami ebben az esetben igazából egy driver és egy interface kombinációja), akkor elfutnának a jelen Mantle portok a GeForce-okon, de esetleg a DX-sebesség felével. ennek mennyi értelme lenne?"

    Ezt igazából nem tudhatjuk hogyan futna, nincs rá precedens.Mindenesetre az NVidia a DX12-t viszont támogatni fogja ami a Mantle-höz nagyon hasonló api. Szóval én nem vennék rá mérget hogy komolyabb difi kialakulna a két gyártó között DX12 alatt.
    Sőt a Maxwell-t többek között DX 12-es Fable Legends-el is reklámozták.

  • daneeeeee

    aktív tag

    válasz gbors #8480 üzenetére

    Közben utána néztem a Cuda valóban licencelhető, tehát pénzbe kerül ellentétben a Mantel-el ami ingyenes. Ez az AMD részéről egy komoly gesztus amivel kvázi nyit a konkurencia felé. A két cég hozzáállása tehát merőben különbözik ennyiben sántít szerintem a PhyX-es példád.

    "van precedens, sajnos. nézd meg az R9 285 tesztekben, hogy megy a Thief Mantle alatt. ha egy kis mértékben módosított architektúra begyűjt 10-15% hátrányt, akkor egy teljesen más architektúránál mi lehet a helyzet?"

    Tudtommal ez nem a VGA hibája hanem a low level api-k használatának egyik velejárója. Ebben az esetben a játékot kell optimalizálni, hogy támogassa az adott VGA-t Mantle alatt (vagy később ezt javítócsomagokkal pótolni). forrás
    DX 12 esetén is fent fog állni ez a probléma, szóval előbb-utóbb az AMD mellett majd az NVidia-nak is szembe kell néznie vele (ahogy Mantle mellett is kellene ha támogatnák). Tehát ez nyilván nem lehet akadálya egy Mantle támogatásnak az NVidia részéről.

    Szinte biztos hogy üzleti okokból nem állnak a Mantle mellé megvárják inkább a DX 12-t. Pedig jó pár kellemetlenségtől (pl: Wach Dogs, AC Unity) megkímélhettek volna minket. Akár az említett játékok mantle portjai is elkészülhetek volna ha anno beálltak volna az api mögé. Mennyivel másképp alakulhatott volna minden. Na mindegy ez már történelem.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8476 üzenetére

    Igazából nincs különbség a koncepciók között. Ugyanazt kell csinálniuk Mantle és DX12 alatt is, tehát effektíve mindegy, hogy lesz driver vagy sem, mert nem az API adja a hátrányt, ha lesz, hanem az alkalmazás, ami ugyanúgy lehet hátrányos DX12 alatt.
    Azt kell mérlegelni, hogy mennyit ér a Windows 7-es bázis. Nem véletlen, hogy a két low-level API esetén a Mantle-nek van nagyobb támogatása a DX12-vel szemben. Nézd meg a motorokat például:
    DX12: Unreal Engine 4, Nitrous
    Mantle: Frostbite, CryEngine, Nitrous, Asura, Gamebryo, LORE, Panta Rhei
    A helyzet jelenleg az, hogy a fejlesztők úgy számolják, hogy a Win7/8/8.1-GCN részesedés még 2016-ban is nagyobb lesz, mint a Win10-DX12 hardver részesedés. Ez nem mindegy, így két évig biztosan a Mantle a fókusz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8483 üzenetére

    Igen. Tök mindegy, hogy milyen API-val neveznek be a low-level versenybe. Az előnyök és a hátrányok ugyanazok. Az viszont nem mindegy, hogy melyik API mögött milyen a jelenlegi támogatás, mert az egyik mögött két, míg a másik mögött hét motor van. És a probléma az, hogy a DX12 felhasználóbázisa az új OS miatt kisebb lesz egy ideig. És a fókuszt nem a kisebb bázis szokta kapni. Ezeken agyalni kell, mert abban a két évben is történnek eladások, amíg ez probléma.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8569 üzenetére

    Kérdés mit nyernek vele? Mondjuk a legnagyobb PC-s kiadók lojalitását? Valószínűleg úgy vannak vele, hogy hol kell aláírni. Nagyon egyszerű a koncepció. A régi nagy NVIDIA fanatikus programozók, mint John Carmack vagy Tim Sweeney már nem a PC-s gamingre fókuszálnak, tehát van egy olyan réteg, amelynek az AMD mondhatja, hogy nézd, mi megadjuk, amire vágysz, és ezért cserébe csak a lelkedet kérjük. És mivel az NV a GameWorks után közutálatnak örvend e fejlesztők körében, nem is nehéz a meggyőzés. A mai top tízes fejlesztői csoport "I Am Mantle" pólókat visel a PC-s előadásokon. Van rá esély, hogy ezt az API-t támogassa az NV? Nem. Érdekli ezeket a fejlesztőket? Láthatóan kurvára nem. Sőt, John Kloetzli állandóan odaszúrja az NV-nek, hogy csináljanak végre egy low-level API-t.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz gbors #8589 üzenetére

    A DX10.1 volt az utolsó komoly upgrade DX szinten. A DX11 meg úgy beragadt, mint a huzat. Miért fejlesztettek volna, ha az Nv a DX11-et se hozza a VGA piaci igen komoly részesedésével? Ha a Mantle nem jön, sanszosan a DX12 se lenne még sehol....

    Pont ez a "gond" az Nv-vel... Arra mennek csak, ami feltűnő. És remekül csinálják. Ugyanakkor ez nem visz előre. Hiába jobbak a ma játékában, ezzel csak erősen fékezik az újszerű dolgok létrehozását...
    Gondold végig csak azt, milyen cég, hogy még az új GPU-ikat se dokumentálják... Vicc.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz gbors #8589 üzenetére

    Mert nem próbáltad ki sosem élesben. Én nem tudnék játszani a Thiefen 18 fps-sel, vagy a Dragon Age Inquisitionnel 12 fps-sel DX11 alatt, miközben ezekben a játékokban az AMD API-jával rendre 42 és 37 fps-sel játszok ugyanolyan beállítással. Ez olyan oltári bizonyíték a működésére, hogy konkrétan kiüti a falat.
    És a valóság az, hogy a tömegek által használt PC-k közelebb vannak az én gépemhez, mint a tesztekben használt 4,5 GHz-re tuningolt processzorral dolgozó konfigokhoz.

    A Civilization 6-ban egy picit más hatása van. Ott is nő a sebesség, de ami érezhetően változik az a körváltás, amikor már a világ nagy részét felfedezted. DX alatt sokszor 2-4 percig számolja az AI a lépését. Az AMD API-jával 10-20 másodperc maximum. Ez egy óriási előny számomra, mert nem zökkent ki a játékból.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz gbors #8594 üzenetére

    Bocsánat, a sima 10-esre gondoltam természetesen, úgy olvasd az előző hsz-em. :R

  • Abu85

    HÁZIGAZDA

    válasz gbors #8594 üzenetére

    Sajnos leesik. GTX 770-nel sem volt több, mint az R9 285-tel. Ez egy API limitáció. Nem tudsz ellene mit tenni.
    Dragon Age nehezebb ügy, mert ott van valami programhiba. Már jeleztem a Bioware-nek, hogy ledobja magáról a hardver. Írták, hogy tudnak róla, de jelenleg nem teljesen stabil a DX mód. Azt mondjuk aláírom, hogy ez nem a gyártók hibája.
    Nem veszek csak azért gyorsabb processzort, hogy teljesen felesleges számításokat végezhessen el egy elavult API.

    A Civ6 DX alatt az AI egy szálon számolja. Ráadásul négymagos procin azon a szálon, amelyiken renderel, mivel a másik három mag a driveré. Az AMD API-ján minden szálat igénybe vesz. DX alatt is próbálkoztak a többszálú optimalizálással, de csak lassabb lett, így végül maradt az egyszálú számításkorlátozás.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz gbors #8598 üzenetére

    Én a jelenről beszélek elsősorban... 3 éve jelent meg a Tahiti, DX12 Tier 3 azaz full tudással. Ehhez képest, az Nv a mai napig nem képes ezt nyújtani a legfrisebb Maxwell csipjeivel sem. Sőt, még dokumentációjuk sincs.
    Korábban, ahogy jöttek az okosabb hardverek, jöttek hozzá az okosabb API-k is rövid időn belül. Ez most megszakadt, ugyanis az egyik játékos a kvázi kétszereplős piacon nem igazán akarta tudásban követni a másikat, így semmi kényszer nem volt a Microsofton, se senkin. A játékfejlesztőknek pedig évekig együtt kellett élni a DX11 nyűgjeivel, amit mára már nagyon kinőttek a nagyobb koponyák. Gondolj bele, olyan talán még sosem volt, hogy ott legyen a HW-ben a tudás (GCN, ahogy mondtad korábban, "túl okos"), amit a mai napig nem lehet DX alól kb. semennyire kihasználni, és legkorábban a kiadás után 4 évvel lesz hozzá alkalmas API, a DX12....
    Ha az Nv is meglépte volna már a Keplernél, hogy okosabb csipet tesz le az asztalra, már rég előrébb járhatna ez az egész API-s történet és a PC játékok az én véleményem szerint.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz gbors #8598 üzenetére

    Más, hasonló teljesítményű CPU-val is így viselkedik. Athlon 5350-en is kipróbáltam, amivel DX11-ben csak 13-15 fps-t kaptam, de az AMD API-jával maradt 40 fps körül.

    Sajnos a mai driverek nem úgy működnek, mint a régebbiek. A Civ5-höz képest számos korlátozást kapott a Civ6. A mai driverek ahhoz, hogy elfogadható teljesítményt nyújtsanak nagyon agresszívek többszálú optimalizálásokat kaptak, ami azt eredményezi, hogy kíméletlenül elveszik a processzoridőt az alkalmazástól. Ma az az optimális, ha a legalább három magot kap a driver (ez az NV előírása, és az AMD is hajlik efelé). Ezért is ajánlanak ma minimum 4 magot a friss játékoknak, de inkább 5-6 kell. Így lesz a legjobb az általános folyamatosság. Persze a minimumok nagyon esni fognak, de a DX11 ma a kompromisszumról szól.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8610 üzenetére

    De mi a probléma ezekkel a CPU-kkal? A teljesítményük egy normális, hangsúlyozom normális API-val nem limitált. Nem a hardver a rossz, hanem a DirectX 11! Ma azért fizetsz, mert tíz éve képtelen a Microsoft összehozni egy olyan API-t, ami nem pazarolja el az elérhető erőforrás 90%-át.

    Az a baj a driverrel, hogy borzalmasan rosszul működik a virtuális szálakkal. Azért nem javasolják ma a minimum gépigényeknél az i3-at, mert a grafikus drivernek nem jó a Hyper-Threading. Ez persze nem a hardver hibája, hanem a DirectX 11 kényszerít a fejlesztőkre egy rossz programozási modellt. És egyszerű innen azt mondani, hogy változtassanak rajta, de a Civ6 azért olyan amilyen, mert a rendkívül rossz kialakítású szoftveres réteg mellett ez a valóban nevetséges működési mód a legjobb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8627 üzenetére

    Elmondom, hogy a Square Enix Steames felmérése szerint a Thiefet megvásárló személyek 72%-ának van az enyémnél gyengébb processzora. Sarokeset lenne tehát? Maximum egy szűk rétegnek, akik azt hiszik, hogy mert megengedhetik maguknak az erős négymagosokat a világ nagy része is ezt fogja venni. A statisztika viszont nagyon jól jön a fejlesztőknek, mert a Steam megmondja, hogy ki milyen gépet használ.

    Takarékra van véve a render. Az a gond, hogy a drivert nem akarják befolyásolni, mert úgy járnak, mint az EA. Le fog fagyni a program, ahogy a Dragon Age is fagy DX11 alatt. Ez rosszabb, mint a kávészünetnyi lépésidő. Ezért mondják azt ezek a fejlesztők, hogy a DX11 nagyon rossz API, mert kompromisszumra kényszerít.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz gbors #8627 üzenetére

    A low level API-k esetében ez az architektúrára optimlizálás nem tűnik akkora érvágásnak, mint amennyit nyerni lehet vele. Meglássuk, majd mi sül ki belőle. :R

    Azt felejted ki az érvelésedből, mennyi mindent csinálhatna az erősebb CPU is a felszabaduló CPU-időben. Gondolok itt komolyabb fizikára, AI-ra, csomó mindenre lehetne használni. De nem lehet, mert a DX esetére meg szabadon kell hagyni. :U

  • HSM

    félisten

    válasz gbors #8631 üzenetére

    Igenám, de az Intel vezérlőit leszámítva kellően kiforrottak a mai architektúrák alapjaiban, ilyen téren drasztikus változásokra nem számítok, persze, ettől lehetnek. De ha annyira más cuccok jönnének, akkor ott más API-kkal is lehetnének gondok. :) Vész esetére pedig lehetnek alternatív renderelési módok.

    A második bekezdésben erre próbáltam reagálni: "sure, elvi síkon szép, hogy pusztán szoftveres úton a legolcsóbb CPU-k is alkalmasak játékra, thanks to AMD...." ;)

  • Abu85

    HÁZIGAZDA

    válasz gbors #8631 üzenetére

    Azt is tudják a fejlesztők, csak a 285 túl új termék. Viszont arra állandóan panaszkodnak, hogy a mai gépvásárlási norma eltolódott a VGA-k felé. A fejlesztők összevont statisztikát is kérhetnek, és abból látszik, hogy akinek drága CPU-ja van az többnyire olcsó, illetve akinek olcsó CPU-ja van az többnyire drága VGA-t használ. Nagyon kevés a kiegyensúlyozott gép. Abszolút nem igaz az a norma a valóságban, hogy a drága VGA-k mellett drága proci van. Ez egy éve még rosszabb, mert az USA-ban elterjedőben van az a tévhit, hogy a konzolban gyenge proci van, és erős a GPU, tehát a PC-be elég a legolcsóbb proci, hogy minél több pénz maradjon a GPU-ra. És nem tudod megmagyarázni egy átlagembernek, hogy a konzolt máshogy programozzák.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8636 üzenetére

    Nyilván van egy törekvés arra, hogy a lehető legjobban biztosítsd a szoftvert megvásárló rétegnek.

    Az AI-ra és a fizikára nem tettünk magasról, csak nincs esély komplexebb számításra. Egyrészt lassú a processzorok fejlődése, másrészt a driverek egyre több processzoridőt igényelnek, hogy értékelhető sebességű legyen a megjelenítés. Tehát az elérhető processzoridő szempontjából effektíve évek óta nincs nagyobb teljesítmény a gameplay elemekre, sőt konkrétan romlik a helyzet. Eközben a kutatások futnak, bár nyilván csökkentett kiadások mellett, hiszen úgy sem lehet beépíteni az eredményüket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz gbors #8636 üzenetére

    Én azért ezt nem így gondolom. :N
    Az AI is azért fejlődgetett az utóbbi években és a fizika is. Pl. a BF4-ben is elég komoly a rombolható környezeti elemek, ilyen azért korábban nem sok volt... A fizika is fejlődő pályán van. A mai napig ott figyelnek pl. bizonyos játékokban a PhysX effektek, amik bár annyit nem érnek, hogy Nv-t vegyek, de igen szép dolgokra lehet felhasználni jó sok év óta, és fel is használják. :K

    (#8637) Abu85: Igen, pontosan így látom én is.
    Jut eszembe a gameplay dolgok vs CPU témáról, a TrueAudio-ról mi hír a fejlesztők oldaláról?

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz gbors #8641 üzenetére

    PH-nak. :D

    Egyébként csak egy példa: Kevin Floyer-Lea - sok mántlis szöveg ... stb ... de a lényeg:
    - ...
    - Scope for increasing scene and world complexity
    - Ability to increase the CPU budget for other systems like AI

    The last two points are more relevant to our future games, ...

    Tehát jelenleg a Rebellion, független stúdióként is elkezdte kutatni a jobb AI és jelenetkomplexitást, amire mostantól lehetőségük van.

    Egyébként a FEAR pont jó példa. Annál komplexebb AI-t PC-be nem igazán implementált játék, rosszabbat vagy közel hasonlót kaptunk, tehát lényegesen jobbat nem. És a FEAR 2005-ben jelent meg. Azóta kvázi nincs előrelépés, és nem a hardverekkel van baj, mert azok gyorsulnak, csak nincs lehetőség ezt az erőt befogni. És persze ebben benne van, hogy a DX11-nek a többszálúsítása az MS szerint is rossz, illetve nagy egészében vizsgálva az elmúlt nagyjából egy évtizedben a potenciális megoldások sorra elvéreztek a gyakorlatban. Ezért látjuk most a radikális megoldások előretörését, mint például az AMD és az Apple low-level API-ja.

    Viszont azt távolról sem lehet mondani, hogy a FEAR viszi az AI-ban a csúcsot. A PC-ből kilépve ott a PS3, aminek van Uncharted szériája, ahol a 2-3. részben például iszonyatosan látszik, hogy az AI csapatban dolgozik, bekerítenek, amíg páran folyamatosan tüzelnek. Visszadobják a gránátjaidat, és nem mindig rád, hanem esetleg a környezetre, hogy az rád omoljon. Megsemmisítik rakétával vagy gránáttal a potenciális fedezéket. Folyamatosan zárótűzben tartják az előnyös helyeket, hogy ne juss el oda. Tehát nem a programozók bénák, van lehetőség jó AI-ra, ha hozzátudsz nyúlni a gép erőforrásaihoz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8646 üzenetére

    Erről beszélnek kb. jó ideje a fejlesztők. Hiába nő a teljesítmény, ha ahhoz nem lehet hozzányúlni, mert valami megakadályozza. A DX API akadályozza meg ezt alapból, de ez a probléma többszintű, mert a DX API nem lenne annyira korlátozó tényező, ha a mai grafikus driverek úgy működnének, mint három éve, csak akkor meg a grafikát kellene lebutítani. Régebben nem igazán törődtek azzal a fejlesztők, hogy mik a grafikus driver igényei. Ma ezek annyira máshogy működnek, hogy követni kell a gyártók ajánlásait, mert más irányból megközelítve rossz lesz az eredmény. Főleg az NVIDIA ajánlásait érdemes követni, mert a GeForce driver nagyon agresszívan kisajátítja az erőforrást, így ha DC mellett nem kap három, illetve IC mellett kettő magot, amihez a program onnantól kezdve hozzá sem nyúl, akkor sok esetben káros lesz a sebességre és a stabilitásra a driver működése. Persze ezt nem minden modern motor követi, például a Frostbite 3 csak egy magot ad a drivereknek, és azért éri el így is azt a jó teljesítményt, amit tud, mert minden lehetséges módon megakadályozza a drivert abban, hogy elvégezze a feladatának egy részét. Azt a részét, amelyet amúgy a Frostbite már elvégzett, tehát felesleges lenne még egyszer erőforrást pazarolni rá. A Frostbite 3 ma az egyetlen motor, amely például DX11 alatt az állapotváltások szűrését csak egyszer futtatja, és azután a rendszer elzárja az adatokat a DX API és a driver elől, hogy az a programszál, amely arra létrejött ne futtasson több szűrést ezeken. A driver szimplán várakozásra van kényszerítve, és addig vár az adatra, amíg a program fut. Nem elegáns megoldás, mert ez a várakozás programfagyást eredményezhet (sőt egyszer biztosan fagyni fog, de kb. 20 óra után, ameddig nem sok ember játszik egyhuzamban). A BF4-nél vagy a PvsZ:GW-nél a DX11-es kód igen sokáig bírja anélkül, hogy a Frostbite 3 driver működését akadályozó modulja device hung hibát eredményezne, amivel ugye kilépne a program. A DA Inquisition az ellenpélda. Ott DX11 alatt sajnos igen sűrű a fagyás. Jelenleg 15% az esélye, hogy a program egy óra játék után device hungot dob és kilép. Ezen nagyon dolgoznak a fejlesztők, mert ez sokkal rosszabb arány, mint ahogy a korábbi játékok működtek, igaz azok nem a legújabb Frostbite 3-at kapták meg.

    Felelősöket nem érdemes keresni, mert a probléma többszintű. A legtöbb fejlesztő az új grafikus driverek agresszív erőforrásigényét nevezik meg problémaként, de valójában az, hogy ma öt-hét szálat simán futtat egy driver annak az eredménye, hogy a DX11 2000 batch/frame-es limitjét nem teljesítik a fejlesztők, tehát az NV-nek és az AMD-nek sincs igazából sok választása, valamilyen módon meg kell oldani, hogy meglegyen a 3000-5000 batch/frame-re is a teljesítmény. Nehéz azt mondani a fejlesztőknek, hogy márpedig butítsátok le úgy a PC-s port grafikáját, hogy beférjen a DX11 limitjébe. Saját maguknak ásnák a sírt, ha ezt mondanák a PC-ből élő gyártók, mert a konzolon ezt nem kell megtenni. Szóval a probléma alapja egyértelműen a DX11, amely képtelen kompromisszumok nélkül kiszolgálni a fejlesztők igényeit.
    Jelenleg nagyjából három opció van a fejlesztők előtt DX11-re:
    - betartani a DX11 limitjeit, így maga az API optimálisan működik, tehát viszonylag sok erőforrás marad a szimulációra, de cserébe a grafikát a konzolos szint alá kell belőni
    - túllépni a DX11 limitjeit, így a drivernek rengeteg magot adni, hogy egyáltalán optimálisan működjön, azaz hozható legyen a konzolos grafikai szint, cserébe a szimulációra nem lesz több erőforrásod, mint amennyi tíz éve rendelkezésre állt, sőt, lehet, hogy kevesebbel kell kalkulálni
    - kidolgozni egy olyan rendszert a motorba, amely nem engedi a grafikus drivert működni, így sokkal optimálisabban lehet a hardver kihasználása és grafikai butítás nélkül is lehetőség lesz több erőforrást kinyerni a szimulációra, cserébe nem lesz stabil a program, illetve egy ilyen rendszert csak a leggazdagabb fejlesztők engedhetnek meg maguknak, mert extrém mértékű tesztelést igényel
    És igen, az utolsó pontot fel lehet úgy fogni, hogy csak pénz kérdése a dolog, de valójában cseppet sem optimális az, hogy meghúzol egy határt, hogy mennyi potenciális fagyást tekintesz még elfogadhatónak. Hidd el pont annyira káros a PC-s játékosoknak, hogy DX11-ben 15% az esélye annak, hogy az új Dragon Age lefagy egy óra alatt, mintha lebutították volna a grafikát.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8651 üzenetére

    Akkor sem szartak rá, de nem nehéz meglátni az időpontok összefüggéseit. A FEAR 2005-ös. Tekintsük úgy, hogy ahhoz hasonló AI van a mai PC-s játékokban is (most ne számítsuk a picit jobb-picit rosszabb dolgokat, a konzolt meg pláne, mert ott jelentősen jobb AI is létezik). Ha Daniel Baker API-s előadásait megtekinted (amit ajánlok, mert ő az egyetlen játékfejlesztő, aki GAB tag, és iszonyatosan nagy rálátása van az egészre, hiszen ő maga is részt vesz a DirectX fejlesztésében), akkor láthatod, hogy szinte mindig elmondja a saját hipotézisét, hogy szerinte mi csúszott félre. Ezt az alábbi ábrán jól prezentálja:

    Ugye a narancs a GPU-k teljesítménye a GFLOPS oszlophoz mérve. A piros a batch teljesítmény a Batch/Frame oszlophoz mérve, ami a driverekből jön/jött, míg a szaggatott vonal a terv, ami nem jött be.
    És az egész pont az általad megjelölt 2007-2008 körül kezdődött, amikor a több mag elkezdett terjedni.
    És itt tartunk most:

    Az a kis kék rész maga a program, és az elméleti processzoridő pár százalékán fut, a maradék "Unused CPU Time" pedig azért van piros csíkokkal lesatírozva, mert nem lehet hozzáférni. A DirectX 11 és az API-hoz készült mai modern driverek nem teszik elérhetővé. Programozóként láthatod a profilozóban, de nincs semmilyen mód, hogy hozzányúlj ehhez az elméletben szabad processzoridőhöz.
    Ezek után mondhatjuk azt, hogy a fejlesztők a bénák, és ezért nincs fejlődés, de valójában igazságtalanok vagyunk velük, mert ők a DX11-gyel jelenleg egy olyan programozási modellre kényszerülnek, amellyel az elméletben elérhető erőforrások nagy része elérhetetlen.
    Ezt Daniel Baker bizonyította az alábbi képpel, hogy ne csak a levegőbe beszéljen:

    Látható, hogy egy alpha kóddal is képes használatba venni az elméletben elérhető processzoridő ~50%-át, de ehhez nem a DX11-et, hanem a Mantle-t használta. Ezzel bebizonyította, amit sokan sejtettek, hogy a probléma forrása a DX11 és a hozzá tartozó modern driverek.
    És amikor a lustaságról beszélünk, akkor vegyük figyelembe, hogy Daniel Baker már elérte a 85%-os kihasználást is az új motorverziókkal, ugyanis zölddel van jelölve az az "Unused CPU Time" rész a képen, vagyis optimalizálással a gyakorlatban is hozzáférhető, és a nagy részét már hasznosította is. Nehéz azt mondani rá, hogy lustaság miatt nem csinálja ezt meg a DX11 alatt. Főleg úgy, hogy a Nitrous, vagyis a saját motorja sokkal hatékonyabban működik DX11 alatt, mint akármelyik más fejlesztő motorja. Kvázi ő az egyetlen programozó a világon, aki nagymértékben optimalizál DX11-re.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8653 üzenetére

    #1 2007-ben kezdtek el normálisan terjedni a többmagos procik. Elsősorban kétmagosok. Viszont a program nem jutott több erőforráshoz ezekkel sem.
    #2 2010 után annyi változott, hogy a grafika fejlődött, és a DX túl lett terhelve, tehát olyan driverek kellettek, amelyek a 2010 utáni grafikát is megjelenítik, vagyis még több erőforrást elvettek a programtól. Ez a folyamat tart máig. Összességében nincs több processzoridő a szimulációra, mint régen.

    Két tény: a fejlesztők azt mondják, hogy a probléma az API. A Microsoft nem konkrétan a DX11-et látja gondnak, hanem azt, hogy a fejlesztők túlterhelik, és a gyártók ehhez igazodnak a driverekkel. Ez is bőven igaz. Az API tud valamit, és ahhoz lehet butítani a grafikát, de ezt fentebb megbeszéltük, hogy miért nem jó a PC-s gyártóknak.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8661 üzenetére

    Melyik erőforrásért? Amit a driverek elvesznek? Szapulhatjuk a fejlesztőket, de valójában a többszálú feldolgozásra van egy olyan rendszerük a DX11-ben, amit ma már a Microsoft sem ajánl használatra, mert káros hatásai vannak. A problémára az elvi megoldás valóban a deferred context, ami viszont a gyakorlatban a programfejlesztők és a Microsoft szerint sem működik. Érteném a logikát, amit írsz, ha valaki azt mondaná, hogy márpedig ez működik csak ki kell nyújtani a "kezet", de nem. Ilyet még soha senki sem mondott. De olyat már sokan mondtak, hogy: nézzétek, a konzolon ki tudjuk nyújtani a kezünket! És 2014-ben ki lett kiáltva bűnösnek az API, így kaptunk négy új low-level API-t, vagy egy részükre bejelentést, hogy készülnek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8663 üzenetére

    A driver mindig igényelt erőforrást a működéshez. Másképp aligha tudná ellátni a feladatait, a baj, hogy egyre több kell neki. Viszont ennek nem kellene úgy lennie, hogy erőltessük a DX11 határain túllépő PC-s grafikát. Elfogadhatnánk azt is, hogy ebben annyi van amennyi, és akkor lenne erőforrás a gameplay szimulációra. Viszont ezt nem fogadtuk el, és ennek az a következménye, hogy a fejlesztőknek nincs több erőforrásuk a programra, mint sok éve.
    De mondhatjuk azt, hogy a fejlesztők szimplán bénák DX11-ben, a Microsoft is csak félrebeszél, amikor nem ajánlja a deferred contextet, és a Mantle is csak azért működik, mert annak a 3000-4000 soros kódnak a beírását a fejlesztők tehetségesebb "skizofrén" énjük hozta össze.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8671 üzenetére

    Én igazából azt nem értem, hogy a problémán mit nem lehet érteni. Kiindultunk abból, hogy a FEAR AI-jához képest a mai PC-s játékok AI-ja hasonló szintű. Ezt a fejlesztők azzal magyarázzák, hogy a DX11 nem teszi lehetővé, hogy a processzoridőnek a nagy részét kihasználják. A konzolon ott az Uncharted 3 sokkal jobb AI-val, amivel a FEAR rendelkezett. Ott tehát működik a dolog. Mi az oka annak, hogy számos bizonyítékkal a hátuk mögött nem hisszük el a fejlesztőknek, hogy nem ők a bénák, hanem tényleg a rendszer dolgozik ellenük PC-n? Még ha egy fejlesztő lenne, aki az ellenkezőjét mondja, de nem, mindenki szerint rossz az a programozási paradigma, amit a DX11 rájuk kényszerít.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8676 üzenetére

    De volt rengeteg előrelépés. Csak nem PC-n. Ez a fontos. A PlayStation 3-on pár exkluzív címben sokkal jobb AI van, mint ami PC-n valaha is létezett. Ezzel példálóznak a fejlesztők évek óta. Nem tudják igénybe venni az elméletben létező erőforrást, ha gyakorlatban nem érhető el, és ezért ma egységesen a DX API, jelenleg DX11 van hibáztatva. Aztán ezt vagy elhisszük nekik vagy sem, de tény, hogy a PS3 és Xbox 360 exkluzív játékokban valamiért tudnak jobb AI-t csinálni, míg PC-n nem.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8682 üzenetére

    Akkor itt a félreértés. A deferred context nem feltétlenül kell a többszálúsításhoz, az csak a parancslistát kreálja több szálon, de a beírást már amúgy is egy szálon végzi. Az immediate context manuális többszálúsítással jobb eredményekre képes, és innentől kezdve az egész probléma megszületik, mert a kezdetektől ezt az irányt választották a fejlesztők, ehhez még DX11 sem kellett. A DC csak egy alternatíva volt, ami nem működött végül. Viszont a driverek már 2006-ban több szálon működtek, tehát az erőforrást elvették.
    Igazából a low-level API-k előnye nem is feltétlenül a többszálú modell megújítása, az is nagyon jó, de a legfőbb előny az, hogy a grafikus kernel driver nem futtat szerver szálakat a programszálak mellett, így az erőforrást sem veszi el.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • letepem

    aktív tag

    válasz gbors #8682 üzenetére

    Szerinted az nem válasz, ha leírja Abu, hogy mamár nem csak a dx működése és a program futtatása emészt fel erőforrást, hanem a növekvő kritériumok miatt még az aggresszív driver működése is? Valamint dx működéséből fakadóan a fejlesztő nem is látja a rendszer egészét rgo meg van kötve a keze! Emiatt választani kell, hogy az eyecandy grafikát választod, ami messzemenően túlnyúl a jelenlegi dx működésén vagy megtartod a szuper játékmenetet és ai-t. Gondolom észrevetted merre mentek el a stúdiók.
    Nekem ez jött le a mondanivalóból, a piti személyeskedést pedig inkább felejtsük el! Köszi!

    látok, hallok, érzek és gondolkodom.

  • letepem

    aktív tag

    válasz gbors #8690 üzenetére

    Egyszerű kijelentés melyben most Abu mellé álltam a vitában. Szimplán csak meg mertem jegyezni, hogy nem értem, miért pattog a labda ide oda ugyan azt az utat leírva. Sértő vagy értelmi képességre utaló mondatot én az írásomban NEM véltem felfedezni.

    látok, hallok, érzek és gondolkodom.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8685 üzenetére

    Az erőforrás tényleges elzárásához nagyon ritkán nyúlnak a mai driverek. Profil nélküli játéknál nem is alkalmazzák.
    De az elzárás nem is szükséges ahhoz, hogy gond legyen. Önmagában az is baj, hogy a driver feladatai szimplán futnak a program mellett. 2006-ban már készültek olyan driverek, amelyek 2 szálat is futtattak és ma az 5-7 szál az általános. A fejlesztőknek ezzel az a baja, hogy ha még nem is zárják el az erőforrást, akkor is összeakadnak a programszálakkal, és a driver annyira feketedoboz jellegű rendszer, hogy semmilyen lehetőség nincs a működését normális keretek között kontrollálni.
    Ezért alakult ki az az igény az új API-knál, hogy ne legyen kernel driver. A DX12-ben ugyan lesz, de az csak egy fail-safe dolog, vagyis csak azt biztosítja, hogy a program lefagyásától ne fagyjon le az operációs rendszer. Valójában nem fog erőforrást elvenni, mert tényleges számítást nem csinál majd.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz gbors #8694 üzenetére

    Én nem látok itt ellentmondást. Ott az erőforrás, de nem tudod használni, mert összeakadsz a driverrel és rossz lesz az eredmény. :)

    Tehát a driver elveszi az erőforrást, hiszen fenn kell neki tartani, tehát nem férsz hozzá, nem tudod használni.
    Tehát a jelenlegi modell rossz hatékonyságú emiatt. Ráadásul ott van még az API overhead-je is.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8694 üzenetére

    Pont ez a baj, amit leírsz. A driver önmagában nem félelmetesen sok processzoridőt, viszont a kiszámíthatatlan működésével hozzáférhetetlenné teszi azt. Ha optimális lenne a driver processzorkihasználása, akkor nem kellenének új API-k, mert elveszi magának az erőforrást, és amit nem használ az csak úgy elérhető lenne. Mindenki boldog lenne egy ilyen modellel, csak nem ez történik, hanem elveszi az erőforrást és ennek következményeként hozzáférhetetlenné tesz még egy csomó processzoridőt, amin valóban kimutathatóan nem csinál semmit, csak ettől még ez a processzoridő nem lesz elérhető a programnak. Lásd a korábbi slide-ok.

    Maga a rendszer black box jellege kiszámíthatatlanná teszi az egész feldolgozást, programozóként nem leszel ura a hardvernek, és így pedig borzasztóan nehéz elvárni a stúdióktól, hogy újítsanak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8697 üzenetére

    Te is pontosan tudod, hogy a programfejlesztés elmélete mennyiben különbözik a gyakorlattól. És itt jön elő az anyagiak problémája. Természetesen az egész levezethető egy elméleti alapon, hogy bizonyos, alapvető optimalizálással nem elérhető, de igazából szabad erőforrások hozzáférése mennyi munkaórát, pénzt, programozót igényel. Erre bárki képes, aki tapasztalt a modern játékfejlesztésben. És mivel jutunk előrébb, akkor, ha kiderül, hogy tudnak +10%-nyi erőforrást nyerni, ha még egy évet optimalizálnak? Maximum az EA engedheti meg magának, hogy erre pénzt áldozzanak, mert őszintén szólva +10%-ért baromira nem éri meg belekezdeni.
    Ha a Nitrousból való ábrákat felhoztad, akkor érdemes kiemelni, hogy ez egy három éves fejlesztés. Három év alatt jutott el oda a motor, hogy DX alatt az erőforrásokat úgy kihasználja, ahogy a képen van. Ezzel szemben a Mantle erőforrás-kihasználása hat hetes munka eredménye volt akkor. Tehát mit is várunk tőlük? Hány évet öljenek még bele az optimalizálásba? Ha egy kiadó lenne a hátuk mögött, aki időpontra kérné a programot, még ilyen kihasználást sem érhettek volna el, mert nem engedték volna őket három évig dolgozni. Egyedül Brad Wardell fanatizmusának köszönhetik, hogy minderre meglett az anyagi lehetőségük. Valljuk be a mai világban nem sok Brad Wardell szaladgál, inkább Bobby Kotick kaliberű cégvezetők vannak a szoftveriparban. És amíg ez az egész egy nagy üzlet lesz, addig nem fog ez a felállás megváltozni. Bobby Kotick is azt fogja nézni, hogy a low-level kóddal ötödannyi erőforrást sem kell befektetnie, kellenek a halálnak a pénznyelő API-k. Mostantól még olcsóbb lehet a következő Call of Duty, hurrá.

    Nem kell ahhoz várni, hogy meglásd mennyit fog fejlődni az AI. Csak elő kell kapni pár konzol exkluzív játékot. Ezeknél már rég túlléptek a PC-s szinten.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8711 üzenetére

    Senki sem a compute shadert bírálja, amikor a bajokról beszél. Sőt, ez a shader lépcső segít abban, hogy begyorsítsák a programot. Az egyetlen fejlesztés, aminek igazából haszna volt a DX11-ben. Ellenben jött még számtalan újítás. Például a deferred context, amit mindenki, ezen belül ma már maga a Microsoft is rossz megoldásnak tart.

    Az eddigi pipeline nem fog lebomlani a DX12-vel. A Microsoft csak az Xbox One-on engedi meg az egyszerűsített erőforrás-kezelést, ami minden shader lépcsőt egységesnek tekint.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8722 üzenetére

    Lehet, hogy félreértjük egymást. Tisztázzuk azt, hogy a DX11 pipeline modellje megváltozik. Tehát a különálló pipeline modell eltűnik, vagyis nem úgy működik majd a DX12, hogy a lépcsőkhöz (legyen az shader vagy fixfunkciós) hozzá kell rendelni egy hardver állapotot. Ehelyett lesznek a PSO-k. Maga a futószalag állapotobjektumként lesz reprezentálva, tehát a futószalag lépcsői be lesznek vonva egy objektum alá, amelyek a létrehozásuk után megváltoztathatatlanok. Ezt főleg azért vezette be az MS, mert a hardverek bizonyos DX11-ben még megkülönböztetett állapotokat az eszközszinten valójában egységes állapot alatt kezelnek. Tehát közelebb került az API működése a hardverhez és a sok többletterheléstől is mentesülünk. Ugyanakkor maga a DX12 még mindig megkülönbözteti a vertex, pixel, geometry, akármi shader lépcsőket. Ezeknek megvan a maguk szabályozása, hogy milyen erőforrásokhoz férhetnek hozzá, stb. Ebből a szempontból a Sony PS4 és az AMD saját API-ja másképp működik, mert ott igazából a vertex, pixel, geometry bár logikailag megkülönböztethető, de mindegyik shader ugyanarra képes, ugyanazokhoz az erőforrásokhoz férhet hozzá. Tehát nincs olyan, hogy a vertex shader nem írhat xy bufferbe, ha a fejlesztő írni akar oda, hát akkor írjon.

    Arról nincs szó az eddigi leírásokban, hogy a tesszellációs lépcsők a DX12-ben kivághatók lennének. A PS4-en és az AMD API-ján biztosan azok. De igazából már a DX12 PSO is ad arra lehetőséget, hogy olyan formában optimalizálj, ami korábban nem volt lehetséges. Például, ha egy vertex shaderben számolt értékre később biztos nem lesz szükség, akkor az kiszűrhető, és nem kell, hogy a futószalag többi elemét tovább terhelje. Ebből a szempontból a PSO is lényeges előrelépés a DX11-hez képest.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • 7time

    senior tag

    válasz gbors #8748 üzenetére

    hogy a 200-as lineup fele feature téren elavult kártyákból áll...

    Az Nvidia is volt hasonló helyzetben nem is 1x, most az AMD van ez nem egy tragédia a cég helyzete pedig olyan mértékben érdekel hogy legyen konkurencia és olcsón vegyek VGA-t, jelenleg ha ínovációról van szó az Nvidia az aki hátráltatja mert használhatna mindenki Mantle API-t ami sokkal jobb mint a DX de ebbe most nincs időm, kedvem belefolyni.
    Az a leg viccesebb mikor Nvidia fanok szólják meg durván a pirosakat hogy milyen hülyeség egy cég termékei mellett kitartani de a Fermi is fogyasztott 420W amikor az AMD 350 -et.

    [ Szerkesztve ]

  • HSM

    félisten

    válasz gbors #8750 üzenetére

    Óriási különbség a Mantle és a PhysX között, hogy az előbbi nyílt, míg az utóbbi zárt szabvány. Másfelől az egyik az egy óriási, évek óta létező, valós problémát olda meg, míg a másik kb. csak egy jópofa szem-kényeztető, egy teljesen nélkülözhető csomag.

    A GTX480 egyébként szvsz elég jó cucc volt, a fogyasztását, hőtermelését leszámítva. :) Mondjuk a GTX580-ra már egész emészthetőre kigyúrták, és jó hűtést is kapott.

    [ Szerkesztve ]

  • 7time

    senior tag

    válasz gbors #8750 üzenetére

    A Physx kb. semmi értelme nem volt és nem is szerettek a gyártók csak az Nvidia rájuk sózta a Mantle részletei meg a DX12 is bekerülnek és több gyártó is kérte, ennyi erről.

    [ Szerkesztve ]

  • HSM

    félisten

    válasz gbors #8768 üzenetére

    Nem vagyok teljesen benne ezekben a fizikás dolgokban, de a PhysX el nem terjedésének azért voltak tudtommal más okai is fejlesztői oldalról. Pl. a szándékosan egyszálúra hagyott CPU-s mód, illetve a GPU-kon is csak bizonyos eye-candy effektekre való alkalmazhatósága. Ugyanis míg a régi PhysX kártya teljesértékű gyorsító volt, addig tudomásom szerint a GPU-s megoldás nem az. Ezek együttesen terelték emlékeim szerint a fejlesztőket más fizikai motorok mellé.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8917 üzenetére

    A DX12 nem akar annyira mélyre menni. Bár alacsony szintű API, de inkább a Metal és a Mantle közötti absztrakcióval rendelkezik. Bizonyos legacy funkciókat próbálnak átmenteni és így pár területen kompromisszumra van szükség. Például a friss Win 10 érkezésével kiderült, hogy a memória menedzsmentje nem teljesen explicit. Nagyrészt az, de bizonyos pufferek fölött a WDDM fog babáskodni. Ez megnehezíti az explicit GPU menedzsmentet is. Nyilván nem lehetetlen, de nem olyan egyszerű, mint mondjuk az AMD API-jánál. Kell pár kiegészítés az API-ba is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Departed

    őstag

    válasz gbors #9028 üzenetére

    Köszönjük hogy leírtad, nagyon tanulságos. :R
    Manapság divat a forintot okolni mindenért, pedig ahogy leírtad, 7970-től elszálltak az AMD árai is. Eredmény: azóta nem is vettem tőlük kártyát, inkább elvagyok a mostanival. Remélem másokat is befolyásolja ez az elbaltázott döntés és remélem alaposan lecsökkentek az eladások. :U

  • Televan74

    nagyúr

    válasz gbors #9028 üzenetére

    Ha lehet hinni a pletykáknak,akkor a Fiji XT 599$ fog nyitni. :)

    Amikor nincs remény! Jusson eszedbe nincs isten, csak én!

  • HSM

    félisten

    válasz gbors #9028 üzenetére

    A fuckoff kategória az nálam amúgy a Titan és a Titan Z volt, 1000 meg 3000 USD, WTF? :DDD

    Én azért most is azt látom, van bőven verseny árban. :K

    (#9027) Televan: 3 év alatt vesztett a VGA-ja 100 000 forintot az értékéből, szerinted ez jó? Szerintem katasztrófa. Bár mindig ez van a csúcskártyákkal. Nekem 60K volt az 5850-es radeonom, amit 3 évvel később 25K-ért el tudtam adni, na az normális. Így +50K-ért kaptam akkoriban egy vatta új 7950-et, összesen 75K-ért, ami még ma is, 2 évvel később is megérne még 40-50K-t. Ezek normális értékvesztések, de 100 000K 3 év alatt, az nagyon nem.

    (#9029) Departed: 300 dollárért már 290X-et adnak, 250-ért meg sima 290-et, mint annak idején a 4850 nyitóára. Ez hol nem versenyképes? :Y

  • HSM

    félisten

    válasz gbors #9051 üzenetére

    Végülis jó cucc volt a Titán, 6GB ram, jó sok nyers erő, főleg kicsit húzva, minőségi és jó cucc volt, csakhát 1000 dollárért? Én a félprofi felhasználásban sem láttam benne túl nagy fantáziát, tisztességes duplapontosságot a konkurens Tahitis Radeonok feleennyiért hoztak. Persze, biztos volt olyan együttállás, amikor az volt a jó termék, dehát na... :DDD

  • Televan74

    nagyúr

    válasz gbors #9051 üzenetére

    Akkor én egy "állat" vagyok,mert én évente háromszor veszek új vga -t.És csodálkozom,hogy nem játszom.Mások meg milyen jól megvannak és játszanak az olcsóbb kártyáikkal.Jó lenne már visszalépnem a középkategóriás kártyához, és végre használni azt.És nem valami idillikus álmokat kergetni,dédelgetni. :B

    Amikor nincs remény! Jusson eszedbe nincs isten, csak én!

  • oliba

    őstag

    válasz gbors #9060 üzenetére

    FC3 most a tuningolt GTX580-asommal. FHD, minden max, kivéve nincs rajta élsimítás. Vsync és fix 60FPS. Ha nem találták volna fel a VSR-t és a DSR-t, akkor eszem ágában nem lenne, hogy cseréljek.

  • Departed

    őstag

    válasz gbors #9060 üzenetére

    Így van, ha nem a fix 60 fps minden játékban a cél FullHD-ban akkor még ma is tökjól el lehet lenni egy négyéves akkori felső kategóriás kártyával, a 6950/70-nel. Ha nem lennének ilyen cserélgetős emberek akik újra meg újra sokat buknak az egyre drágább kártyák vételével akkor végre rá lennének kényszerülve a vga gyártók hogy normális áron valódi fejlődés legyen. :U

Új hozzászólás Aktív témák