Keresés

Új hozzászólás Aktív témák

  • #85552128

    törölt tag

    válasz Abu85 #15 üzenetére

    Már hogyne hasonlítana ? Pont, hogy ahhoz van közelebb, mert az volt a Fast Sync lényege az adaptívval ellentétben, hogy minimális input laggal ÉS tearing nélkül jött végre egy megoldás.

    [ Szerkesztve ]

  • #85552128

    törölt tag

    válasz Abu85 #25 üzenetére

    Ja, hogy akkor abszolút nem kezeli a tearinget (az AMD slideon "occasional tearing" volt), így tényleg az Adaptívhoz van közelebb csak akkor a 3 közül még mindig a Fast sync a használhatóbb.

    [ Szerkesztve ]

  • Cifu

    nagyúr

    válasz Abu85 #63 üzenetére

    A gyári funkciók közül melyik is az, aminek én mint felhasználó hasznát látom? Radeon R9 390 tulajként. Hoz nekem hasznot a folyamatosan frissített PowerTune profil?

    Nekem nem tűnt fel ilyesmi, pár hónapig mazochistaként próbálkoztam pusztán ReLive-al élni, és Wattman-al tuningolni. Ez a tapasztalatom szerint Zuzu Petals szint alatti, egyáltalán nem volt élvezetes, inkább csak fájdalmas. Aztán visszamentem a Crimson driverekre és az AB-re. Az legalább használható és működik. Max. néhány újabb játékban szívás. Tök jó.

    Én, mint felhasználó azt látom, hogy van a ReLive driverben egy kvázi használhatatlan tuningfelület, ami se nem szép, se nem használható, de legalább még bugos is. A PowerTune változások vagy nem látványosak, vagy nincs is érdemi hatásuk a Hawaii GPU-s kártyákon. A Crimson, illetve az azt megelőző Cataclyst driverek sem nyújtották a tuningopciók garmadáját, de legalább a 3rd party szoftverekkel normálisan használhattuk és tuningolhattuk a kártyáinkat.

    Az mondjuk jó hír, ha lesz egy olyan 3rd party szoftver, amely kiválthatja az AB-t. De mielőtt elkezdek hullámozni, inkább megvárom, hogy valóban képes lesz-e erre...

    [ Szerkesztve ]

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • #85552128

    törölt tag

    válasz Abu85 #67 üzenetére

    Az AB ugyan nem cserél ki alapjáraton semmilyen profilt, van olyan opciója, de nem az az alapértelmezett, eleve nem csak az unofficial oc nem működik, hanem semmi.
    Az oka annak pedig, hogy megint nem működik az, hogy az AMD megint variált egyet a saját apijuk működésén, a frissített verzió dokumentációja/mintái pedig még nem voltak kint: [link]

    "With 17.7.2 AMD just ruined their next "new" ADL overclocking API, which they introduced with the very first version of Wattman. So any tool based on it like AB or WattTool stops working again. ADL2_OverdriveN_Capabilities_Get and ADL2_OverdriveN_SystemClocks_Get are no longer working at all, they are replaced with ADL2_OverdriveN_CapabilitiesX2_Get and ADL2_OverdriveN_SystemClocksX2_Get.

    Updating third party tools could make it working, but... AMD still provides SDK just for old and currently killed overclocking API. I'm wondering again, if "backward compatibility" terms mean anything for AMD deverlopers?"

    Nagyon fontos volt odatenni azt az "X2"-t a legacy lekezelése nélkül... Ilyen amatőr "partnerekkel" meg aztán elég nehéz fejleszteni vagy előre felkészülni. Nem kéne 2-3 havonta olyasmin variálni amihez jó esetben egyszer kéne hozzányúlni és nem lenne gond. Azt meg nem igazán lehet mondani, hogy ezektől a PT módosításoktól lényegesen jobb lenne a kártya. :U

    [ Szerkesztve ]

  • Cifu

    nagyúr

    válasz Abu85 #69 üzenetére

    Persze nüansznyi változásokról van szó, de minden extrák érdemes kiszedni.

    Szerinted ezt le lehet nyomni a felhasználók torkán a mellett, hogy ezért nem tudjuk az AB-t használni? :U

    Persze költői kérdés. Lenyomják, nekünk meg kuss van... :(((

    Erre egy régi meghajtó a megoldás, ahol még a fordító kevésbé hatékony AMDIL-t fordított, és azzal több volt a hardveren belüli üresjárat, több regisztert allokált, így kevesebb wavefront futhatott, stb.

    A magyarázat akár még vonzó is lehetne, csak az a baj, hogy az első ReLive driverrel, Wattmanban beállítva élből a desktopon szénné fagy minden, azonos beállítások (fesz, freki, stb.). Ismétlem, azonos beállítások mellett, amit korábban AB-ben állítottam be. Tehát nem terhelés alatt lett instabilabb...

    @Szaby59: Yepp, de szép....

    Nehéz az egészet nem úgy értelmezni, hogy az AMD-nek szúrják a szemét a 3rd party tuningprogramok, ezért ott gáncsolja el őket, ahol tudja.

    [ Szerkesztve ]

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • #85552128

    törölt tag

    válasz Abu85 #75 üzenetére

    Folyamatosan, de minek ? Milyen előny származik belőle mikor a régi kártyák még a wattmannal is szívnak a beragadó órajelekkel, meg az elfelejtett/nem alkalmazott beállításokkal ?
    Pont ez az ADL api lenne a driver által támogatott tuningfelülethez a kulcs, ami ismét egyik napról a másikra mindenféle előzetes infó nélkül módosult és a régi funkciók már nem működnek.
    Odaadják, csak legutóbb is 3 hónap késéssel a bevezetés után adták ki a dokumentációt és a mintákat: [link]

    Az ilyen elsietett, anti-fejlesztő hozzáállással csak saját maguk alatt vágják a fát. Ha hetekkel előtte kint lennének a minták vagy épp lenne egy "legacy" kiegészítése az új funkcióknak akkor már más lenne a helyzet és a program fejlesztőjén lenne a sor, hogy frissítse az alkalmazást.

    [ Szerkesztve ]

  • #85552128

    törölt tag

    válasz Abu85 #79 üzenetére

    Ez is egy olyan funkció ami csak a Polaris kártyákat érinti, de azok is szívnak miatta akik meg sem kapták.

    "Egyébként semmiképpen sem a 3rd party fejlesztők fogják ezt meghatározni. Ők azért léteznek, mert az AMD eltűri őket, nem azért, mert létezniük kell. Az AMD egy pillanat alatt eltörölhetné mind."

    Ők azért léteznek, mert igény van rájuk és a szoftvereikre, mert a gyári megoldások, hogy is mondjam, "kevésbé jók" ;)

    [ Szerkesztve ]

  • e00dgy

    aktív tag

    válasz Abu85 #15 üzenetére

    Az új Enhanced sync akkor működik ha az alkalmazásban is be van kapcsovla a V-Sync?

    Csak a zseni és az idióta töri át az emberek által teremtett korlátokat. Soha nem használtam reklám blokkolót... :) ;)

  • Cifu

    nagyúr

    válasz Abu85 #81 üzenetére

    Ez tök jó, csakhogy akárhogy is csűröd-csavarod, az AMD hozzáállása romboló szándékú, holott emberemlékezett óta, már az ATi-s időktől kezdve a 3rd party szoftverekkel lehetett csak normálisan használni a VGA kártyáikat.

    A Radeon 32MB DDR óta ha nem is folyamatosan, de használom a családot, és nem emlékszem olyanra, hogy nem kellett volna 3rd party szoftver a rendes használathoz (óóó... amikor még 3rd party programokkal kellett szórakozni ahhoz is, hogy ne villogjanak a textúrák a játékokban...). Nem véletlen, hogy annyi 3rd party megoldás volt melléjük.

    Most is itt tartunk! Vagy szerinted a Wattman egy normális használható tuningprogram?!?

    Persze, lehet hülyének nézni a felhasználókat, olyan sokszor bevált már ez a múltban is... :U

    [ Szerkesztve ]

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • Cifu

    nagyúr

    válasz Abu85 #88 üzenetére

    Idővel azokat is felkészítik az érintett fejlesztők az új csomagra, csak arra várni kell.

    Egy éve várunk... :U

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • Cifu

    nagyúr

    válasz Abu85 #90 üzenetére

    Nem csak az én problémám, mint említettem.

    Én csak a 290/390 topicokat nézem, de ott folyamatosan téma.
    Nem csak tuningnál, Habugi alulfeszelésnél is szembesült vele például.

    Nem ragaszkodom én az 1100/1575Mhz-hez, de gyakorlatilag Wattman-al cirka 40-50Mhz-et tudok húzni a GPU-n, a memórián pedig még kevesebbet. Mindezt magasabb feszek és (a tesztek alatt magasabb) hőmérséklet mellett, mint amivel anno a 1100/1575 betonstabil volt.

    Én elfogadnám azt, hogy a driver fejlesztése ezzel jár, ha cserébe olyan pluszt adnának, ami ezt ellensúlyozza. De nem adtak. Mint említettem hónapokig használtam és folyamatosan vizslattam a ReLive drivereket, és nem láttam semmi olyat, amitől nekem jobb volt. Kétlem, hogy a PowerTune profilváltások észrevehetően alacsonyabb villanyszámlát hoztak volna.

    Most a játékok optimalizációját / bugfixeit kihagyom a képletből, az ebből a szempontból nem releváns.

    Elhiszem, hogy a Polaris új megközelítést követelt meg, nem vagyok a fejlődés ellen.
    De itt gyakorlatilag a kompatibilitást és a használhatóságot nyiszálták meg érte, és szúrtak ki a régebbi felhasználókkal...

    [ Szerkesztve ]

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • Cifu

    nagyúr

    válasz Abu85 #104 üzenetére

    Abu, én ebbe belefáradtam. :DDD

    Tudod mit, tök jó a ReLive driver, a legjobb, amihez az AMD valaha is a nevét adta!
    Sőt! Köszönjük neki, hogy folyamatosan kirántja a 3rd party fejlesztők alól a szőnyeget, mert ezzel is csak nekünk tesznek jót, értünk teszik! :))

    [ Szerkesztve ]

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • janos666

    nagyúr

    LOGOUT blog

    válasz Abu85 #150 üzenetére

    Azt tudom, hogy az RTSS limit csak fps limit, ami nyilván nem váltja ki a kijelző-szinkront.

    A linkelt hsz arról szól, hogy állítólag minimálisra csökken a RAQ-ban pihenő képkockák száma, ha picivel a sync frekvencia alá limitáljuk az fps-t CPU oldalon (itt épp most azért RTSS-el, mert ez tud ma ismert módon ilyen ezred-fps precizitással limitálni, illetve a lánc kellően korai pontján dolgozik ehhez, amit itt el akarunk érni vele), mert ha csak maga a kijelző-sync ad egy limitet a lánc végén (ami már a GPU oldalon is a lánc vége, míg a RAQ a CPU oldalán él a GPU előtt), olyankor tervszerűen felduzzad a RAQ az (általában statikus értékként előre, és "liberálisan" kiszabott) maximális megengedett hosszára, míg ha valami CPU oldalon "folytja" az fps-t (vagy épp nincs használatban semmi olyan képernyő-szinkron, ami valamiképp limitálna a GPU oldalán), akkor minden képkocka csak minimális időre kerül a RAQ-ba (ideális esetben, ha egyik hardware elem sincs 100%-ra terhelve, és elég sűrű ciklusban fut a RAQ kezelése --- ez még egy érdekes kérdés lehet, hogy ez polling-szerű, vagy direkt elküldik aludni az algót sok ms-re, hadd' duzzadjon csak az a queue, legyen mindig tele), ezzel csökkentve a lagot.

    Nekem régen az volt az empirikus szubjektív meggyőződésem, hogy a hagyományos Vsync az egyben scene-pacing is (bár akkor valószínűleg még senki nem hívta így, és én sem találtam ki rá új kifejezést, implicit a Vsync részének tekintettem), sőt direkt ezért is ragaszkodtam hozzá még akár online multiplayer FPS-ben is (amit már >10 éve nem játszok, és azóta rengeteg minden változott).
    -> Ezt még ma sem értem igazán, főleg mióta látom azt is, hogy mit csinál a FastSync, mennyire nem folyamatos a kép akkor sem, ha az fps a frissítési freki durván duplája, míg sima Vsync-el nincs ilyen bajom (így fura elhinni, hogy ez nem ad egyfajta scene-pacing megoldást is), kivéve esetleg egy anomáliát [***].

    A saját szűk megfigyelésem alapján (Frostbite3: DAI és MEA, mert ezekkel sokat időztem, és itt könnyű ezt kapcsolgatni a játék újraindítása nélkül devkonzolból) a Hawaii-nak, Polaris-nak és Pascal-nak is elég RAQ=2 (3-ra emelve semmi számottevőt nem látok az fps számlálón), de a RAQ=1 valóban feltűnőben bünteti a Pascal-t (CPU idő az egekben, az fps romokban, míg az AMD csak tűrhetően lassul..., de nem tudom ezt be lehetne-e hozni erősebb CPU-val, hisz a GTX1070 eleve gyorsabb kártya mint a 290X vagy RX480, illetve elméletben hajlandó lehetnék erőseb CPU-ra költeni, ha esetleg emiatt lenne értelme), és lehet hogy ez placebó, de mint ha kevesebb lenne az a jelenség, [***] mikor végig 60fsp Vsync mellett egy néha hirtelen egérmozgatáskor (ha pl. épp folyamatosan jobbra húzom az egeret, de valamiért meggondolom magam, és hirtelen elrántom balra) "zakatolva megugrik" a kép (nem tudom jobban körbeírni, de mint ha egy pillanatra lefagyna, és aztán kicsit dadogva, kapna észbe), amit régen (mondjuk 5-10 éve) nem rémlik, hogy bármikor tapasztaltam volna. Ebből érzem úgy, hogy túl "lomha" lett minden, hosszú queue-ra és ezzel magas késésre kezdtek optimalizálni mindent (játékmotorok, VGA driver-ek, stb), hogy kisajtoljanak még pár fps-t az ÁTLAG mutatókban (nem törődve azzal, hogy a játékos ebből mit tapasztal, akár rosszabb lesz neki összességében) és közben máshol próbálják csökkenteni az elszabaduló lag-ot (pl. végletekig kisajtolni mindent a monitorokból, hogy valahol csökkenjen a lag, ha már máshol duzzad, ami win-win, mert el lehet adni a "gamer" monitort, és mutogatni az erekciót, hogy milyen jól "optimalizált" a játékmotor/driver ÁTLAG teljesítményre).
    Persze lehet, hogy csak én öregszem és leszek egyre háklisabb mindenre. :DDD

    Általánosságban szerintem ez most ugyan az a klasszikus buffer-bloat probléma, mint amit jól nyomon lehet követni iskolapéldaként a Linux network és később Block layer fejlesztésében. Először az egekbe lövik a bufferelést, aztán kitalálnak helyette valami okosabbat, mikor zavaróvá válik az egyre több latency spike, amit nem mindenki tud tolerálni. Lehetne jobban, csak nem akarja senki, míg nem sírnak elég sokan és hangosan, de közben mindenhol máshol próbálják ellensúlyozni a baki hatásait (és talán a megoldás alapja is ott van a "történelemben", akár épp a Linux network fejlesztői naplók).

    Azt hiszem van is valami kihasználatlan RAM a G-sync modulon, amiről már elmélkedett valaki, hogy mire lehetne jó (de pontosan nem rémlik, rég olvastam), és talán köze lenne ehhez. De nyilván jobb lenne valami szabványos megoldás (nekem személy szerint olyan, ami HDMI standard is lesz TV-k miatt).

    Ironikus, hogy részben pont emiatt akartam idén újra Geforce-ot, mert azt hittem itt jobb a helyzet ilyesmikben (az átlag fps alatt lapuló apróságokban), erre most az AMD tolja a driver fejlesztéseket ebbe az irányba. :))

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Abu85 #152 üzenetére

    Szerintem ha több képkockányi a hossza (főleg ha csak <=60fps-re nézzük a képkockaidőt, nem >=120fps-re és feltesszük nem minden motor olyan épeszű, mint a Frostbite és megy akár 3 fölé is), és üzemszerűen tele van csordítva (legalább is ahogy Vsync mellett állítólag tele van), akkor könnyen lehet probléma.
    Arra gyanakszom, hogy ettől van a hirtelen irányváltáskor a stabilan magas fps mellett is némi akadás/dadogás, hogy a RAQ-ban sorakozik pár képkocka, ami még nem ezt követi (és így késve reagál, ráadásképp kevéssé "simán", mint amit előtte megszoktunk a látványtól).

    :N Azért ne ess át a ló másik oldalára, az nVidia is foglalkozott ezzel. Sőt, szerintem ők kezdték ezt az FCAT-el és hasonlókkal (+ ősidők óta van RAQ beállítás a driver-ben [ha nem is mindig bírálja felül ténylegesen a játékmotort] és előbb kezdték a custom Vsync-et is, de még a FreeSync is csak a G-Sync után jött...).
    Az lehet, hogy az nV utána megállt egy nekik kényelmes ponton, miközben az AMD mára nem csak felzárkózott, hanem most épp akár messzebb is ért, de történelmileg nem ők ebben a nagyobb úttörők. :N

    -- Egy kis extra kérdés --
    Most Win10-en DX11-el (hagyományos Win32, nem "modern" progik) van lag különbség exclusive fullscreen + Vsync és borderless windowed + Vsync (mármint a játékmenüben is bekapcsolva, mert tudom, hogy a WDM ilyenkor mindig Vsync-el, és ha kikapcsolom a játékban, akkor lényegében FastSync folytonosságot kapok [ami már nem jó], de vélhetően teljes Vsync laggal [ami így rossz üzlet])? :F

    A FreeSync önmagában ma az én szememben nem sokat ér a G-Sync mellett.
    Ha meg tudnék barátkozni egy <42" LCD-vel (de túlzottan hozzászoktam az ~50" TV mérethez, és mindig rühelltem az LCD-k minden nyavalyáját), akkor biztos G-Sync monitort vennék, mert tudtommal FreeSync esetén semmi garancia nincs az alacsony lagra, míg úgy látom, hogy a G-Sync "matrica" gyakorlatilag beleszól ebbe is. Egyrészt ugye a külön modullal (ami garantáltan egyforma lesz minden G-Sync monitorban, míg FreeSync-nél tetszőlegesen változó, csak a gyártón múlik miből, milyet, hogy...), illetve úgy látom, hogy ha nem is kötelezi őket erre az nV, de mégis szinte minden mai új G-Sync monitor real-time scan-out megoldású (persze a csak FreeSync-es is lehet ilyen, de ott nem érzem erre a "nyomást", és mivel tágabb az ársávjuk is, így az olcsóban gondolom bátrabban spórolnak, ha pedig drága modellek közt nézelődök, akkor már miért ne fizessem meg a garantált megoldást nyomozgatás vagy lottózás helyett...?).

    Kíváncsi leszek, hogy jövőre mely kijelzők és VGA-k jönnek már HDMI 2.1-el, és azokon belül melyek támogatják majd a "Game Mode VRR"-t. (Érdekes lenne, ha esetleg real-time scan-out megoldást is kapna egy OLED a VRR mellé alacsony lag-al, de "álmodik a nyomor", ha az LG-től kell várni hasonlót, már most is túlteljesítik magukat.) Nyilván az nVidia döntése lesz érdekesebb.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • NandoXXL

    senior tag

    válasz Abu85 #115 üzenetére

    Csinálj inkább egy Ryzen 3 tesztet. Hiányzik már egy jó Abu teszt, az új padawant pedig tanítsd be, nincs mentora ;). Nyugodtan írd le 2-3xx elavult, nekem sincs már szerencsére, minek rá fejleszteni :DDD

    [ Szerkesztve ]

Új hozzászólás Aktív témák