Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Loha #536 üzenetére

    És hol van a grafikonon az, hogy az input lag mekkora, vagyis az, hogy az egéren leadott tüzelés mikor jelenik meg a kijelzőn?

    Minden játékban be van állítva egy pre-render frame paraméter. Van olyan program, ami CF-hez és SLI-hez szándékosan más paramétert állít be.

    [link] - 600 MB/s write kell. Ő is félreértette? :F

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #538 üzenetére

    Ne idézd magad, hanem mutasd meg azon a grafikonon.

    És gondolod az NV csak azért küldi ezt a kártyát, hogy az SSD-kre fellendítse a keresletet? Vagy esetleg lehet benne olyan dolog is, hogy ezzel a hardverrel működik a csomagjuk? :U Gondolod ha megoldható lenne hagyományos capture kártyával, akkor tényleg olyan hardverhez kötnék a rendszert, ami brutál SSD tárolót követel?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #541 üzenetére

    Én nem az input lagot látom, hanem a frame számításával töltött. A két dolog nem egyenlő. Arra vagyok kíváncsi, hogy hány frame jelenik meg, amíg az egéren leadott parancs megjelenik?

    Olvastad ezt? [link] - teljesen érthető dolgot ír, és minden alapja megvan annak, hogy azokon a csíkokon a részleteknek nem szabad elveszni.

    (#547) gbors: Az AMD erről a rendszerről, amit használnak 2010-ben beszélt, amikor elemezték az AFR-t, hogy melyik megoldás a jobb. Akkor írták le, hogy két opció van, és a profi játékosok visszajelzései alapján az input lag alacsonyan tartására gyúr a megoldásuk. Ez három évvel ezelött volt. Most csak elmondták, hogy a véleményük nem változott meg, de beépítik a másik módot is.
    Azon lehet vitázni, hogy hiba-e a profi játékosok véleményére adni, de valamelyik megoldás mellett dönteni kell akkor is. Mindkettőnek megvannak a hátrányai, így olyan nem lesz, ahol kompromisszum nélkül működik majd az AFR.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #549 üzenetére

    A marketing ezeket nem vette elő újra. Nem is részletezte. Ezt a CF megoldást azért választották, mert a profi játékosok erre szavaztak. Semmi másért. Nekik is teljesen mindegy, hogy hogyan oldják meg, mert az fps alapján ugyanott lesznek. Egyszerűen dönteni kellett, és az AMD a játékosokra hallgatott. Nyilván az elméleti alapja megvan ennek, és ez a döntés így logikus volt. Most beépítik a másikat is a tesztelők kérelmének megfelelően.
    Igazából ez az egész tök lényegtelen, mert az már rég rossz, amikor dönteni kell, hogy egységes legyen a megjelenítés, vagy alacsony legyen az input lag.
    Egyébként a smoothingot úgy számold, hogy minden képkockát késleltetve kezd számolni, pont azért, hogy igazodjanak egymáshoz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #551 üzenetére

    Input lagra gyúrt AFR mellett kb. olyan lagot kapsz, mint egy GPU-val. Picit többet. Amint kész az első GPU az első frame-mel rögtön fog nekifog a harmadiknak. Ami nagyjából olyan jelenetből jön, mintha az a második lenne egy GPU-s rendszernél.

    A smoothing esetében az első frame lesz normál lagos. Aztán a második egy kis eltolással lesz számolva. Ezután van két referenciaidőd, és ezekből lesz mindig számolva, hogy mekkora késleltetéssel lesznek számolva a következő páros és páratlan frame-ek, amelyeknek szintén lesz idejük, és így tovább. A cél az egyenletesség. Cserébe átlagosan 10-15 ms-os plusz lagot kapsz 60 fps mellett. Ha csak az egyik kártyát késlelteted, akkor sokszor az első kártya frame-jéből lesz kevés információ. A smoothingot általánosan kell csinálni, mindkét GPU-ra. Úgy lesz teljesen egyenletes.

    (#555) Loha: De könyörgöm jelöld már ki a képen, hogy hol méri az input lagot? Én csak frame time-ot látok. A frame time != input lag!

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #556 üzenetére

    Pont az a lényeg, hogy ki szerint mi a normális. Ez marad az alapértelmezett CF mód, míg a másik csak egy kiegészítő lesz, amire át lehet kapcsolni. Az AMD továbbra is úgy gondolja, hogy ez a jó mód.

    A smoothing esetén azért kell hangolni, mert ha fix értékkel tolod minden második frame számítását, akkor esély van rá, hogy rátolod a következő frame-re, és akkor lényegében nem tettél semmit. Ezért késleltet mindent a kiegyenlítés, így minden frame egyenletesen jelenik meg csak a normál AFR megoldás lagjához képest nagyobbal.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #558 üzenetére

    Az átlag frametime az elég rossz ötlet, mert az a játékokban eléggé ingadozó lehet. Ha ez alapján smootholsz, akkor a smooth nem biztos, hogy smooth lesz. A legjobb megoldás az előző frame idejét mérni, de még azelőtt el kell kezdeni a munkát, mielőtt ez kiderülne. Ezek jelentik a nehézséget.
    Illetve a smoothing sémának vannak kellemetlenségei, mert növeli a driverben a hibalehetőséget. Ha több process fut, akkor a driver balanszírozhatja a teljesítményt. Ez multi-monitor környezetben kellemetlen, mert a hardver nem adja le a teljes sebességet minden kijelzőn. [link] - látható, hogy az alkalmazások nem futnak ugyanazzal a teljesítménnyel. És ez egy GTX 460 GPU. Ez az NV smoothing megoldása miatt van így. Ennek 400-500 fps között kellene mindegyik ablakot futtatni.

    Nem olyan egyszerű ez, mert megold egy jelenséget, aminek lesz némi ára, de ugyanakkor a multimonitor környezeteket eléggé furcsán balanszírozza. Ezért is ragaszkodik az AMD ahhoz, hogy alapértelmezett módban ne állítson fel ütemezést.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #559 üzenetére

    Lehet, hogy Ruby nem csak techdemó, hanem játék szintjén tér vissza. Igazából abba érdemes belegondolni, hogy az Illfonic egy játékfejlesztő cég, és ők csinálják a techdemót. Lehet, hogy több az amit rájuk bíztak, csak még nem beszélnek többről, mint techdemó. Eleve a csapat összesen 12 fő, tehát a Ruby demó teljesen leköti őket, viszont ennyi erőforrást belefektetve, meg abból kiindulva, hogy az egészet játékként kezdték el dizájnolni, simán lehet belőle game. Az AMD ingyen osztogatja, az Illfonic pedig felrakja steamre és abból van pénzük.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #563 üzenetére

    Inkább az a kérdés, hogy hova menjenek. Nem azért van ennyi Gaming Evolved AAA konzolport, mert az AMD letarolja a piacot, hanem inkább azért, mert az NV-nek nincs rájuk erőforrása. Elviszik az embert a PC exkluzív projektek, a Tegra támogatása, ami marha sok embert kíván, és a saját motor fejlesztése, amit az NV a felhőbe szán. Ezek mellett nincs már elég erőforrás az AAA konzolportok kiemelt támogatásához. Az AMD-nek van. A Far Cry 3 is maradt volna TWIMTBP programos, de ez nem csak a fejlesztőkön múlik. Ha az NV-nek ez teher, akkor mennek máshova. Igazából az AMD is túlvállalja magát szerintem, 2013-ban mindenképp.

    Javítások lesznek még szerintem. Elsősorban az NV-nek kellene megoldani, hogy végre jól működjön a HDAO. És ezt nem ártana a fejlesztőknek elintézni, mert ők rontották el.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Whit3Rav3n #568 üzenetére

    Még a Ferminél beszéltek arról, hogy kidolgoztak egy olyan módszert, hogy késleltetve számolják a frame-eket egy kártyával, mert így tudnak reagálni a frame spike-okra. Gondolom ezt a megoldást terjesztették ki az SLI-re, csak AFR-rel kell csinálni a késleltetett számítást.

    Az NV-nek erről nincs mérése, de a Nixxes szokta azt csinálni, hogy a PC-s portokhoz az NV-nek más pre-render frame adatokat állít be, mert egy kártyával is késleltetve számolnak. Innen van az, hogy SLI-nél két kártyával az extra késleltetés az input lagra optimalizált AFR-hez képest +10-15 ms. Azt nem tudom, hogy más is így csinálja-e, igazából nem kötelező, csak érdemes a többletkésleltetésre a programból reagálni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz belinho #572 üzenetére

    Kynz-t állítja ezt. Ennél többet senki sem tud.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #574 üzenetére

    Pont erről írtam korábban, hogy az új driverekben ezt a lehetőséget elvették a felhasználóktól. Ezért háborogtak az SLI tulajok, hogy az új driverekkel nem tudják beszabályozni a lagot, mert a driver egyéni profilt használ minden játékra, vagy a játék alapbeállításait használja.

    (#575) siriq: a GPUView az ilyen. [link] - Ez marha jó tool, csak sokszáz frame-et kielemezni belőle eléggé időigényes, mert statisztikát, vagy egyszerű grafikont nem csinál.
    Az NV toolja az elég jó, csak kell hozzá egy marha gyors SSD-rendszer. Emellett néztem az időigényét. Kilenc játék helyett három férne bele. Tekintve, hogy alig tesztelünk AFR-t, így a több játékot választjuk, mert egy kártyával a külföldi tesztek sem látnak problémát.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #578 üzenetére

    Egy kártyánál nulla probléma van. Esetleg specifikus, amiről a driver nem tehet. Például a Far Cry 3-ban a MSAA mellett a Radenokra jellemzi, de ezt az fps korlátozásával meg lehet szüntetni. A konzolba kell beírni egy 999 alatti számot. A Sleeping Dogs is specfikus program. A GeForce-on nagyon pattog, de csak akkor, ha az Extreme AA rajta van a játékon. Ugyanez a gond a Sniper Elite V2-vel, de csak 4xSSAA-val jön elő GeForce-on.
    Az új patch-csel és GeForce driverrel a Battlefield 3 is mikroakadásokat csinál, de az NV már szólt, hogy ezt javítani fogják, ez rendkívül speckó hiba, amit a patch hozott elő.
    Szóval egy kártyával ez a jelenség jellemezően program oldalon keletkezik bizonyos beállítások mellett.

    Lehet, hogy csinálunk ilyen tesztet. Nem rajtunk múlik, hanem azon, hogy lesz-e hozzá hardver. Viszont erős ellenérzés az, hogy nagyon le kell csökkenteni a tesztelt játékok számát. Sok felhasználó már most is nehezteli, hogy alig van TWIMTBP AAA játék a tesztben. Szám szerint kettő maradt. Ezzel nagyon nehéz mit kezdeni, mert az NV lemondott az AAA konzolportokról. Nincs rá erőforrásuk, és a next-gen konzolokkal kapcsolatos bizonytalanság miatt a fejlesztők sem látják a helyzetet kellemesnek. A GDC alatt rengeteg vélemény alakult ki és nem vicc, hogy az AAA játékok portolását a fejlesztők jó része ahhoz köti, hogy az AMD Kaveri APU mennyire terjed majd el. Az alapvető gond, hogy a játékot PC-re rendkívül limitált funkciók mellett kell elkészíteni, mert az új konzolok képességei nem csak túlmutatnak a mai PC-s konfigurációkon, hanem a 8 darab Jaguar maggal arra vannak kényszerítve a fejlesztők, hogy az AI-t, a fizikát és a jól párhuzamosítható dolgokat nem a processzormagokon oldják meg. Ha átraksz az IGP-re olyan dolgokat, ami a játékmenetet befolyásolja, akkor csak az év végén érkező Kaveri APU lesz rá alkalmas, hogy játssz PC-n. Roppant kellemetlen probléma, és ezért fektet az AMD erőforrást a fejlesztők támogatásába, hogy akkor is adják ki a játékot PC-re, ha esetleg bizonyos funkciók Kaveri APU-t igényelnek. A többi gyártónak ez viszont nem jó, mert olyan irányba viszik a konzolok a fejlesztést, amire nem készültek fel. Az NV ezért ráállt a PC exkluzív játékokra, mert azoknál a konzolok felépítése nem számít. Mivel jellemzően AAA játékokkal tesztelünk, így gyakorlatilag három-négy játék mellett csak Gaming Evolved címeket fogsz látni. Nem csak a mostani felhozatal alapján, hanem a következő pár hónap megjelenései miatt is, mert az AMD partnerprogramjának a része a GRID 2, a Total War: ROME 2, a Company of Heroes 2, és jórészt az összes AAA cím. Később a Battlefiled 4, a Watch Dogs, a Raven's Cry, a Thief 4 ...
    Egyszerűen az AAA játékok esetében kell 9 játék, hogy legalább egy TWIMTBP címet berakjunk. Hárommal csak AMD-s játékok kerülnének be.
    Még a kilenc is nagyon kevés, mert jórészt a Metro 2033 tartja magát egyedüliként, hiszen az UE3-as Batmant fel fogja váltani az UE3-as Bioshock Infinite. Vannak persze TWIMTBP játékok is, de a Sniper: Ghost Warrior 2 még a készülő DX11-es patch-csel sem alternatíva, míg az MMO-k (például Neverwinter) elképesztően körülményesek (ahány mérés annyi eredmény még azonos konfigon is).

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #581 üzenetére

    Az a baj, hogy a népszerűek és újak is AMD-sek. Az NV-nek az új konzolgeneráció betesz. Nem éri meg ebbe pénzt invesztálni, amikor a mobil piacon a Qualcomm is nagyon keményít. Ellenük van esélye az NV-nek. Az AMD hardveres felépítését követő konzolok ellen nincs. Ezt legalább két év, mire az NV is le tudja követni egy megfelelő hardverrel, és annak is ARM processzorosnak kell lennie, vagyis a legacy programok kiesnek.

    Elsősorban az idő a tesztelt hardverek szempontjából van megszabva. Nem mehet el egy VGA-tesztnél csak a mérésekre egy hét. Főleg akkor nem, amikor egy kártyával már nem lehet mérni lényeges különbségeket. Más sem mér.
    Akik csak VGA-kkal foglalkoznak azoknak ez értékelhető, de nekünk csak akkor válik azzá, ha a játékok számát annyira lecsökkentjük, hogy belefér az eddigi időkeretekbe. Ez számításaim szerint maximum négy játékot jelent. Jelen pillanatban ha négy játékkal számolunk, akkor eléggé meg lenne kötve a kezünk, de a Crysis 3, a Battlefield 3, a Tomb Raider és a Bioshock Infinite lenne benne. Ezekben totál sima minden, nem számítva, hogy az új BF3 patch elrontotta az új GeForce driveren az egyenletességet, amit javítanak.
    Pédlául az olyan innovatív motorok, mint ami a DiRT Showdown alatt van teljesen kimaradna. Ezzel alapvetően a jövőről gyengébb képet kapnánk. A Sleeping Dogs is érdekes abból a szempontból, hogy az AA használata rendkívül egyedi. Nem egy, hanem három megoldást vetnek be.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #583 üzenetére

    Mit? Azt, hogy az AMD a CF-nél az input lagot veszi figyelembe, míg az NV ezt növelve máshogy dolgozik. Szívük joga eldönteni. Más gond meg már nincs, ha megnézed a teszteket.

    Ez egy olyan dolog, mint amikor az NV beharangozta, hogy az AMD képminősége rosszabb az NV-nél. Mindenki lehozta, majd később az AMD elmagyarázta, hogy az NVIDIA a shimmering jelenség eltüntetésére törekszik, míg a Radeonok a Microsoft referencia raszterizáló minőségét követik. De mivel az NV szeretné, így beépítettek egy olyan módot a driverbe, ami úgy dolgozik, ahogy az NV megoldása. Az NV akkor vett vissza, amikor látta, hogy a Radeonokon ez a mód 10%-kal több sebességet ad. Azóta az van kommunikálva, hogy jó az alapbeállítás. :) Ezek mind csinált problémák, amik valójában nem is azok, csak másképp működnek. Ugyanaz lesz a vége, mint a képminőségnek. Az AMD a következő driverben belerakja, ahogy az NV dolgozik, és aztán az NV lekommunikálja, hogy jó lesz az alapbeállítás a CF-hez, mert gyorsulnak a frame smoothinggal.
    Alapvető stratégiák ezek arra, hogy az emberek ne arról beszélgessenek, hogy az NV nem támogatja a top AAA címeket. Ez a valós probléma és az új generációs konzolok.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #586 üzenetére

    Érthető volt. Kifejtettem rá a választ is. Ha nem elég, akkor az már a te bajod. ;)

    (#585) gbors: Főleg azért, mert az AMD árukapcsolást használ a termékeire. A CPU-kat és a Radeon GPU-kat csomagban is meg lehet vásárolni. Ez így jóval olcsóbb, mint Radeon helyett GeForce-ot venni. Ez természetesen üzletileg törvénytelen, de az NV pontosan tudja, hogy az ilyen árukapcsolások ellen nem tesznek a hatóságok semmit, aminek régebben például az Ion látta kárát, amikor az Intel féláron kínálta az Atomot, ha chipsetet is kértek hozzá a partnerek. Ez az OEM-eknél egy vesztes helyzet. Az Ion kicsinálta tudásban és sebességben az atomos ellenfelét, de mégis alulmaradt az eladásoknál. Én aláírom, hogy elképesztően tisztességtelen volt, amit az Intel csinált, de az AMD is megcsinálja, mert ez a cégérdek.

    Ezek mellett, ami az NV-nek kellemetlen lesz, hogy a DirectX 11.1-be kiterjesztésekre is van lehetőség. Ezeket természetesen lehet támogatni a konkurenseknek is, de ahhoz hardvert kell tervezni. A konzolok miatt a GDS kiterjesztett használatára és a PRT-re lesz az AMD-nek kiterjesztése. Mire erre hardveres választ adnak legalább két év. Az NV-nek most az a cél, hogy a konzolra kiadott játékokat lehessen játszani felhőből, mert más lehetőségük nincs a versenyzésre, leszámítva azt, hogy rábeszélik a fejlesztőket a PC-s port butítására és újradizájnolására, ha szükséges. Emellett nyilván nem árt leépíteni a konzolokat egy átgondolt marketingkampánnyal, ezt Tony Tamasi vállalta magára, mostanában mindenféle orbitális baromságokat nyilatkozik a konzolok kárára.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #589 üzenetére

    Adtam választ és kifejtettem. Ha nem tetszett, akkor ez van. Köszöntem érdeklődésed és továbblépek. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #591 üzenetére

    Már írtam, hogy kevered az input lagot a frame time-mal. Azt hiszed, hogy ez a két fogalom egyenlő, de valójában nem az. A frame time az csak egy képkockára vonatkozik, míg az input lag igazából nem meghatározható így, mivel a bevitt parancsot nem tudod követni, hogy először melyik képkockán jelenik meg.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #595 üzenetére

    Azért olyan dolog nincs, ami PRT-vel megoldható, de nélküle már nem. A PRT előnye a sebességben lesz inkább. Itt főleg azokra gondolok, hogy a nextgen Radeon és GeForce VGA-k is támogatják majd ugyanazokat a pointereket, amiket a CPU használ, csak a Kaveri x86/AMD64, vagyis az ARMv8-at támogató GeForce-ok ezzel nem fognak úgy működni, mint az x86/AMD64-et támogató Radeonok.

    Jensen nem fog könnycseppeket hullatni. Ha őt a PC-s konzolportok érdekelnék, akkor nem építette volna már ma le a fejlesztői támogatást ezekre a játékokra. Az NV-t a felhő, a mobil, és a PC exkluzív F2P/MMO játékok érdeklik. Ezért engednek át szinte minden AAA PC portot az AMD-nek. Ezt az AMD sem titkolja. Roy Taylor pont mondta, hogy az NV már inkább egy smarthphone cég. Ez teljesen hihető, nyilván logikátlan azt gondolni, hogy a régebben mindent vivő TWIMTBP csupán egy év alatt leépült. Nem, ez a partnerprogram szándékosan koncentrál más területekre, és a Gaming Evolved ebből építkezik. Ha egységesen küzdenének ugyanazért a játékokért, akkor nem lenne ennyire egyoldalúan előretörő a Gaming Evolved a PC-s konzolportok területén.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #594 üzenetére

    Akkor másképp magyarázom. Van egy lövés a játékban. Honnan tudod, hogy az a képen ugyanakkor jelenik meg CF-fel, mint SLI-vel? Mert a frame time erre nincs teljes befolyással.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #598 üzenetére

    Hogyne befolyásolná, ha a driver késlelteti a hardvernél a frame számítását. De eddig sem értetted, ezután sem fogod. Nekem meg nincs időm ezt magyarázni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #600 üzenetére

    Rossz ábrát nézel. Ez azt mutatja, hogy egy motor a jelenettől a képkocka megjelenítéséig mit csinál. Azon belül mit mér a FRAPS. Az FCAT Display részben eltelt időt méri. Viszont az új frame számításával a motor nem várja meg a T_Displayt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #603 üzenetére

    Akkor a leírás rossz. Az FCAT Display időt méri. A T_present a színezett képkockákon nincs rajta. Egyszerűen lehetetlen ezt az információt képkockán megjeleníteni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #605 üzenetére

    Ha lehetőségünk lesz az FCAT-hoz szerezni hardvereket, akkor megfontoljuk a lehetőséget, de akkor előre beszéljük meg, hogy nem lesz abból sírás, hogy ha a kevés játék miatt az új programokkal a Radeon sebességelőnye túlzottan nagy lesz összesítésben.
    A BF3 az mindegy. Az egy kommunikációs hiba a DICE és az NV között. Nem az ilyenek miatt aggódom, hanem a Tomb Raider eredményi miatt, ami az új patch mellett nagyon nem a GeForce-oknak kedvez. De jön még idén ehhez hasonló játék.

    (#608) Loha: Ebben nem látom, hogy hol írják, hogy a T_presenttől mér. Azt írják le, hogy a képkockákat color barozza. Ezt írom én is. Ez a display idő.
    A Far Cry 3 beférne, ha méltóztatnának a fejlesztők javítani a HDAO-t az NV kártyákon. Az a baj, hogy simán beraknám a játékot, de a HDAO problémás megjelenítése és lassú számítása nem az NV hibája, hanem a játéké. Sportszerűtlen lenne ezért az NV-t lehúzni, hogy nem tudja hibátlanul futtatni a játékot.

    (#618) TTomax: A GCN az attól még GPU, hogy a CU-k elnagyolt logikai felépítése hasonlít egy CPU-maghoz. A feldolgozási elvet kell nézni. A CPU-k magjai LCU-k, azaz késleltetésre optimalizált magok, pár szállal és nagy gyorsítótárakkal. A GPU-k magjai TCU-k, vagyis adatpárhuzamos végrehajtásra optimalizált magok, baromi sok párhuzamosan futó szállal és relatíve kis gyorsítótárakkal. A GCN az utóbbi csoportba tartozik, csak a mai viszonyokhoz képest fel van okosítva a rendszer, hogy amitől egy hagyományos GPU kikészül, attól ez már ne készüljön ki (például feltételes elágazásokkal és soros for ciklusokkal tarkított kód). Gyakorlatilag egy működő Larrabee, az AMD lemásolta az Intel ötletét.

    (#616) TTomax: Nem VRAM limites a Bioshock Infinite. Az UE3 motor nagyon finoman bánik a VRAM-mal. A gond ott kezdődik, hogy a motor streaming rendszere széles skálán paraméterezhető. Na most az amit eredetileg beállítottak arra van szabva, hogy a Radeonokon jól működjön, az NV pedig ezt használja, és a GeForce-okon nem működik jól. Ezt nagyon egyszerűen lehet módosítani az engine-höz tartozó ini fájlokban, és rögtön jól megy GeForce-on is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #621 üzenetére

    Mármint a Bioshock finomhangolása? Én láttam a neten ilyen leírásokat. Az eredményét nem tudom, mert most nincs nálam GeForce, de valószínű, hogy van hatása.
    Abban igazad van, hogy a fejlesztőknek nem így kellett volna hozzáállni, hanem egy köztes értéket keresni, ami mindkét hardvercsaládon jól működik. Jellemzően így szokás paraméterezni az UE3-as játékokat. A Bioshock-ot is illett volna így beállítani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #623 üzenetére

    A következő generáció ugyanaz a GCN lesz, mint a mai. A lényegi különbség annyi lesz, hogy ugyanazokat a pointereket kezeli majd, amelyeket egy AMD64-es processzor. Ez reálisan PC-n egy VGA-val nem lesz kihasználható, ahogy a multi queue compite támogatás sem. Ezeknek a funkcióknak a lényege az új generációs konzolokban lesz, illetve a konzolportok butítását megelőzendő az AMD minden konzolba tervezett funkciót belerak a Kaveri APU-ba. Ebben a lapkában lesz értelme az új GCN fícsőröknek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ETOM #625 üzenetére

    Pont azt jelenti, amit leírtál. Erre panaszkodnak.

    (#626) TTomax: [link] - itt leírtam, hogy nagyjából miről van szó. A Nixxes előadása nagyon jól értelmezhető. Mondhatni alapmű ebből a szempontból.
    Na most a PS4 egy full integráció, míg PC-n a CPU és a GPU különálló. Rendben, hogy egy AMD64-es procival és egy későbbi HD 8000+-es Radeonnal támogatva lesz az egységes címtér, de ez nem olyan egyszerű a PCI Express interfészen keresztül. Egyszerűen túl lassú az összeköttetés ennek a fícsőrnek a hatékony használatához. Ezért nem lesz ez a VGA oldaláról reálisan kihasználható. Ha egy játék követeli az egységes címteret, akkor ahhoz Kaveri APU kell majd.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #627 üzenetére

    A FRAPS és az FCAT nem függ egymástól. Az FCAT semmit sem igényel a FRAPS-tól. De már unom, hogy ezt sokadjára le kell írnom. Vagy elolvasod, amit írok, vagy nem. Ennyi. Ha nem, akkor azt hiszel innentől, amit akarsz.
    Igen a CF funkcionálisan nagyjából olyan eredményt ad a kimenetnél, mintha egy GPU-s lenne a rendszer. Pontosan ezért alacsonyabb az input lag, mintha a smootholás miatt eltolnád a frame-számításokat.

    A HDAO a Far Cry 3-ban a legjobb képminőséget nyúltó AO megoldás. Teljesen szabványos effekt, csak valamiért az utolsó patch óta nem jó GeForce-on. Pont az FC3-mal készítettem összehasonlítást az AO effektekről. [link]
    Az meg, hogy ront a látványon ... hát egyáltalán nem, maximum akkor, ha fake árnyékokat csinál, de ez a HDAO-ra pont nem jellemző.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #634 üzenetére

    A FRAPS az funkcionálisan csak arra jó, hogy kiírja az FPS-t. Ennyi. Semmi mást nem lehet vele ténylegesen vizsgálni.
    Az FCAT az jobb, hiszen megtudod belőle a displayidőt. Ezeket nem kell cáfolni.
    Input lagot senki sem mér, mert ahhoz egy marha nagy sebességű kamera kell. De igazából mérni sem érdemes, mert az elvben is benne van, hogy a smoothing a számítás késleltetésével jár. De mindegy. Fentebb olvashatsz arról, hogy miért. Ha az nem elég, akkor ennyi.

    Dehogy szubjektív. Nézz a való világba, és a látottakat ültesd át a virtuális világba. Egyértelmű, hogy olyan erős árnyékokat nem látsz mint az SSAO-nál és a HBAO-nál az FC3-ban. A HDAO megoldása jellemzően fake árnyékoktól mentes ebben a játékban. Hogy ennél a legkisebb a változás? Hát talán azért, mert ez dolgozik a legtöbb mintával, és nem rak oda árnyékot, ahol nem keletkezne a valóságban.
    Az AO az abszolút nem a fake árnyékokról szól. A szimulált screen space opciókat azért használjuk, mert az eredményük messze elég jó, és az erőforrás-igényük nem sok a scene megoldásokhoz képest.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #635 üzenetére

    Az AO-ra nem. A fake az nem jó szó. Az AO lehet scene space és screen space. Előbbi baromi jó, de ki tudja azt kiszámoltatni ugye. Utóbbi csak egy szimulált hatás, de nem fake ettől. A fake ott keletkezik, ha túlzott árnyékolásba megy át. A szimulálás jellemző minden SSAO-ra.
    A fake hatás az SSAO-nál ott lehet megemlíteni általánosan, hogy nem veszi figyelembe a fény színét. Erre való az SSDO. Az új Ruby demóban nagyon sok mintával lesz használva és teljes képernyőre, így ott durván látható lesz az előnye.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #639 üzenetére

    Az AMD ilyet nem mondott, csak 4 éve, amikor beszélték, hogy az AFR implementációjuk azért ilyen, hogy az input lag alacsony legyen. 4 éve volt ez. És eleve érthető, hogy ha késleltetés nélkül kezdődik meg minden frame számítása, akkor a késleltetéssel dolgozó megoldás több input lagot eredményez.
    Ez nem olyan egyszerű, már írtam. Eleve a smoothing egy GPU-ra is működik, tehát nem SLI specifikus. SLI-vel annyi a különbség, hogy két GPU-ra történik az egész rendszer feldolgozása.
    Nem. Az AMD azt mondta, hogy a tesztelők kérésére raknak egy olyan megoldást is a driverbe, ami úgy működik, ahogy az NV AFR-je, de a mostani AFR marad az alapértelmezett, mert a profi játékosok jobban kedvelik ennek az előnyeit. Egy kapcsolóval lehet majd a kettő között váltogatni.
    Az a baj, hogy azt hiszed, hogy az egyik AFR megoldásnak csak előnyei vannak, míg a másiknak csak hátrányai. A valóság az, hogy ami az egyiknek előnye, az a másiknak hátránya és fordítva. Olyan AFR nincs, ami minden szempontból előnyös. Ha lenne, akkor mindenki arra építene implementációt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz radi8tor #643 üzenetére

    A benchmark is röcög input lagra optimalizált AFR-rel, csak az emberi szem nagyon nehezen érzékel ilyen különbségeket. Ezért lassítják a negyedére a videofelvételekben ezeket a jelenségeket, mert teljes sebesség mellett nem igazán láthatók.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #673 üzenetére

    Tökéletesen elmagyarázták a speciális helyzeteket, de nem mindenhol vették a worst case szituációt. Mondjuk ezt single GPU és AFR összehasonlításánál nehéz is. A single GPU esetében nincs rosszabb input helyzet, míg AFR-nél azért van. Sajnos az ábra nagyon le van egyszerűsítve. Ugyanis a frame-t nem ott kezdi el számolni, ahol jelzik, hanem ugyanott, ahol az unmetered esetén, csak éppen eltolja a back és a frame buffer cseréjének idejét. Ez extra lag.
    Amit mutatnak, az akkor lehetséges, ha a motor fel van készítve az AFR módok megkülönböztetésére, ha ez nem lehetséges, akkor a metered és az unmetered AFR-nél is 2 frame a lag.
    Az unmetered ott kerül előnybe a lag tekintetében, hogy ha még a frame n+1 előtt volt az input, annak az eredményét ugyanis eltolás, azaz extra lag nélkül számolja. Tehát amit mutatnak az hazabeszélés, mint tényfeltárás. Nem mintha mást vártunk volna, hiszen nyilván nem fogják megmutatni a jellemző szituációkat, ahol az unmetered kisebb lagot mutat. Nagyjából ekkor hagytam abba a nézést, mert csak arról volt szó, hogy ha a motorba be van optimalizálva a metered AFR direkt kezelése, akkor mi történik, de egyelőre nulla ilyen játék van a piacon. Ami előny, hogy DX9 alatt azért egész jól bele lehet nyúlni a működésbe, de a DX10 után ezt már az MS eléggé megvágta, vagyis a program oldaláról kell optimalizálni.

    Bevallom engem jobban érdekel, hogy mikor lesz nextgen szintű a hardver, mert sokkal súlyosabb problémának érzem, hogy a nextgen konzolok API-ja ripityára veri a DX11.1-et is. Tök jó a PC-n minden szebben fut beidegződés, csak ez már az első körben sem lesz igaz, ha a DX11.1-et nem fejlesztik tovább sürgősen.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Tirexi #714 üzenetére

    Azért tekintik ezt sokan órajelcsökkentésnek, mert nulla mérnöki tudással mérnöknek képzelik magukat. De egyszer már leírtam, hogy az adott hardver kihasználásánál nem az órajel számít, hanem az, hogy a TDP limitet elért minden egyes szituációban. Ez adja majd a legnagyobb átlagos teljesítményt, mert mindig maximális a kártya kihasználása. A Hawaii új megoldása azért áttörés, mert soha semmi nem tudott még úgy működni, hogy minden szituációban képes volt hozni a beállított TDP limitet, és a legrosszabb kihasználtság mellett is csak 1 wattra volt tőle. És az érdekesség, hogy az NV a GK110-ben is ezért vezette be a hőmérsékletfüggő turbót, mert a normál turbóval volt olyan szituáció, amikor 15 wattra voltak a TDP limittől, ami azt jelenti, hogy teljesítmény maradt a rendszerben, amit hasznosítani lehetne egy GPU Boostnál jobb technikával. Erre volt jó a GPU Boost 2.0, ami legrosszabb szituációkban 10 wattra megközelítette a TDP limitet, de az NV akkor mondta, hogy ez még mindig nem elég jó, mert az lenne az ideális, ha 1 wattra kerülnének a TDP limittől. Ezt az AMD csinálta meg a Hawaii-jal. Technikai értelemben ez a megoldás az, amiért az AMD és az NV elkezdte ezt az órajelállítást, mert a limit minden hardverben megvan, de nem mindegy, hogy mennyire hatékonyan használod a lapkát a limiten belül. A régi hardverek 30 wattra is lehettek a limittől, ami akkor jó volt, de azóta eltelt 3 év, és milliókat költenek arra a cégek, hogy 1 wattra kerüljenek a limittől, vagyis elérjék a hardver maximális kihasználását. A Hawaii az első termék, ami ezt a célkitűzést hatékonyan megvalósítja, de a jövőben mindegyik hardver ilyen lesz, mert a maximális hatékonyságra kell törekedni.

    Az meg, hogy függ a hőmérséklettől az órajel. Nos, ezt az NV GPU Boost 2.0 vezette be. Pontosan azért, mert hőmérséklet fontos szerepet tölt be abban, hogy közel kerüljenek a limithez. A Hawaii ezt a rendszert csak továbbfejlesztette. Ráadásul ez a megoldás adja a legjobb eredményt az órajelzuhanásra vonatkozó fps-esésre. Mivel az órajel csökkenése folyamatos, és nem egyszeri. A legrosszabb eredményt a GPU Boost 2.0 adja, mert ott 150 MHz-et eshet az órajel egy ciklus alatt. A Hawaii maximum 10 MHz-es váltást enged meg.

    ---

    (#720) HSM: Az, hogy ezek a rendszerek így működnek nekünk jó, mert a hardver mindig maximális teljesítményt ad le. Ha ez a technológia nem lenne, akkor a Hawaii cGPU nem skálázna 1000 MHz-re, hanem 600 MHz lenne az alapórajele, illetve az NV-nél a GK110 sem mennek 900+ MHz-et, hanem be lenne állítva fixen 500 MHz-re. Ez azt jelenti, hogy a GK110 és a Hawaii sem született volna meg, mert nem lenne gyorsabb a kisebb GPU-knál.
    Ne képzeljük már magunkat okosabbnak azoknál a mérnököknél, akik óránként többet keresnek annál, amit mi egy nap összeszedünk. Az interneten mindenki olyan okos, csak azt tudnám, hogy miért nem az itt egybegyűltek ülnek ott a tervezőszékben. Talán azért, mert nem voltunk színjelesek fizikából, és nincs több mérnöki mesterduplimánk. Persze könnyebb beszólni, hogy ez így nem jó, de közben folyamatosan beszélni arról, hogy gyorsabb kártya kell, mert már nem fut 50x-es AA-val a Bátölfíld.

    Persze mindenkinek lehet véleménye a GPU Boost 2.0-ról és a Hawaii PowerTune-ról. Lehet anonim módon osztani, hogy fosok ezek a hőmérsékletfüggő rendszerek, ahogy mondjuk a prociknál is, hiszen azok is ugyanilyen boostot használnak. Viszont a GPU Boost 2.0 nélkül nem lenne GK110 és az új PowerTune nélkül sem lenne Hawaii.

    ---

    (#721) players111: Ez jól mutatja a színvonalat. Érteni nem érti senki, hogy miért olyan a GPU Boost 2.0 és az új PowerTune, de biztos rossz. Én voltam a hülye, hogy megmagyaráztam. :U Az meg külön érdekes, hogy a jobb megoldás van rosszabbnak beállítva. Ez annyira aranyos. Az NV mondta a GPU Boost 2.0-nál, hogy az 1 wattos limithatár elérése a cél. Itt láthatóan örültek ennek a célkitűzésnek. Az AMD elérte, most már ez rossz. Biztosíthatók mindenkit, hogy ezt az NV is el fogja érni, akkor már jó lesz?

    ---

    (#706) SzlobiG: A tekercs cicereg. Emellett ezeknek a hűtés nem számít, mert nem a meleg miatt csinálja, hanem azért, mert a gyártás során esetleg gyantahiányosak lettek, így a tekercs megmozdulhat, aztán ezzel meg is repedhet. Ez előjöhet az első használatnál, vagy esetleg egy-két év múlva … kvázi bármikor. Azt meg senki nem tudja garantálni, hogy egy tekercs tökéletes, illetve ez még nem is igazán függ a terheléstől. Szerencsére maga a gond nem okoz működésbeli problémát, amíg a tekercs a helyén marad (hova menne ugye :) ).

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz HSM #731 üzenetére

    Nem pont rád gondoltam a név nélküli részen. De túl általánosan fogalmaztam valóban. Elnézést érte.

    Nem VRM kell alá, az van alatta. Itt a 300 wattos fogyasztáslimit a probléma. Igaz, hogy ez 250 wattra van állítva, de a VRM amit aláraktak az 300 wattra van tervezve. Ennél többet nem tudsz rátervezni. Ezek azok a problémák, amelyek az életre hívták a DVFS kutatásokat. Kezdve az első PowerTunetól a GPU Booston át a mostani PowerTune-ig. Mindegyik megoldásnál az a cél, hogy ha a GPU-ra kiszabott TDP limit teszem azt 207,5 watt (ennyi a Hawaii-nál, de ez csak példa), akkor minden egyes munkafolyamatnál legyen legalább 206 watt fölötti a fogyasztás, és ezzel maximalizálva van a termék hatékonysága az adott limiten belül. Ha ezt nem teszik meg, akkor be tudnák állítani a Hawaii-t úgy 600 MHz-re, mert akkor egy nagyon irreális peak értéket kell figyelembe venni, de közben a normál feldolgozás mellett a 207,5 wattos limit elérhetetlen, így a GPU csak 150 watton üzemel. Nyilvánvaló, hogy benne marad a teljesítmény negyede.
    Ugyanez igaz a GK110-re a GTX 780 Ti-n, csak ott a GPU Boost 2.0 nem olyan kifinomult, így a 214,3, wattos limit a GPU-ra elő van írva, de sok szituáció lesz, ahol így is 201 watt a fogyasztás, mert a boost működése nem engedi meg, hogy közelebb kerüljön a limithez. A GTX 780 Ti esetében a GPU Boost 2.0 nélkül 500 MHz az az órajel, amit be lehet állítani, mert ott is a peak lenne kivitelezve a rendszer, ami a Keplernél, lényeges probléma, mivel az architektúra regiszterkezelése számos munkafolyamatnál elég jó, míg mondják más munkafolyamatoknál nincs elég regiszter, hogy az SMX-en belül a hat tömbből négynél több legyen aktív. Ezzel gyakorlatilag lennének olyan feladatok, ahol a GPU Boost 2.0 nélkül a GTX 780 Ti alig 90 watt mellett üzemelne.
    Szóval ez a PowerTune meg a GPU Boost 2.0 egy nagyon realista szemlélet a mai világban, mert enélkül a top R9 290 és GTX 780 hardverek teljesítményének csak a 60%-át kapnád meg. Aztán tuningolhatsz ahogy akarsz, de soha sem lennél képes elérni azt a teljesítményt, amit most nyújtanak a kártyák alapértelmezetten. Sőt, megközelíteni sem tudnád.
    A spórolásról meg annyit, hogy jelen állapotban jóval drágább egy kártyát előállítani, mint PowerTune és GPU Boost 2.0 nélkül. De megéri méregdrága vezérlőt és körítést alkalmazni, mert nagyjából +40% teljesítményt hoznak ezek a rendszerek.

    (#758) gbors: Az AMD minden anyagában Up To órajelről beszélt, illetve ha valakinek ez nem tetszett, akkor PowerTune Boost órajel is használható, vagy maximális magórajel. Ezek közül lehetett választani.

    (#776) Tirexi: Nagyon egyszerű a custom hűtőknek a gondja az R9 290 sorozaton. Ez nem olyan egyszerű, hogy hűtőt cserélsz és kész, ugyanis azokra a termékekre át kell paraméterezni a rendszert. Ráadásul az is gond, hogy a kártya a maximális teljesítményhatékonyságot 95°C-on éri el, tehát ha ennél lejjebb mennek a gyártók, akkor gyorsulni fog a termék, de ha a 95°C-ot lejjebb veszik a hűtési teljesítménnyel arányosan, akkor már nem fog olyan hatékonyan boostolni a hardver, tehát teszem azt 80°C-os limitre paraméterezéssel a kártya lassabb lesz, mint 95°C-os paraméterezéssel. Ezeket sorra ki kell tesztelni, ugyanis az AMD 3%-os varianciát enged meg gyári specifikációkkal.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #779 üzenetére

    Megnövelték az UVD órajellimitjét, így képes sztereó 3D-s 4K-s anyagokat is lejátszani. Mivel ezt az AMD szerint 4K-ra veszik a játékosok, így ez egy fontos szempont volt, hogy a 4K-s sztereó 3D-s filmekkel is megbirkózzon. Más hardver ma erre nem képes.

    (#780) gbors: A kézikönyvekben benne van, hogy miképp működik a hardver. A gyártóknak bele kell írni, hogy az órajel változása normális működés.

    (#781) Tirexi: Pedig ez a jelenség a GPU Boost 2.0 és az új PowerTune esetén is teljesen normális. Maga a kártya dizájnja a megadott hőmérsékleten működik a leghatékonyabban. Az NV is 80°C-on kezdte, de haladnak felfelé a GTX 780 Ti-vel, mert minél nagyobb lesz a hőmérséklet annál jobb lesz a hardver működése. Persze a GK110-ben nincs lehetőség órajelváltásra tíz mikromásodpercenként, így muszáj a tűréshatás alámenni, mert a túlmelegedésre a hardver 500 ms-on belül nem reagál. Tehát kell benne hagyni annyit, hogy a túlterhelés hatására az órajelet legyen ideje levágni 150-200 MHz-cel az egyik ciklusról a másikra. Ezt ők kitesztelték, és a 83°C, ahol ez még biztonságos és nem sül meg a hardver. Az AMD azért megy el 94°C-ig, mert nekik 10 mikromásodpercre van szükségük, hogy a hardver kiértékelje a változást, és csökkentsen az órajelen 10 MHz-et. Ezek nagyon átgondolt rendszerek, hónapok tesztelésének eredményei.

    Majd a következő körben már mindkét cégtől hasonlóan szoros működést láthatunk. ÉS alapvetően biztos, hogy a limittől mindketten 1 wattos határra kerülnek mindig. Ez azért nagyon fontos, mert a GPU Boost és a PowerTune is a biztonságra van paraméterezve, vagyis ha rezeg a léc, akkor mindkét rendszer órajelcsökkentéssel él. Minél pontosabb ez a csökkentés, annál jobb lesz a kártya hatékonysága.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Tirexi #798 üzenetére

    Attól függ, hogy milyen alkatrészeket használsz. A 290-ek az abszolút csúcsholmikat kapták. Az élettartamot a gyártók mindig a leggyengébb láncszemre alapozzák, ami így a 290-eknél 19 év. Ennél lehet, hogy továbbírják, mert a hitelesítés 120°C-ra van elvégezve, miközben a kártya 94°C-nál nem üzemel melegebben.

    Kétségtelen, hogy a 290-ekkel nem a magyar piacot célozták meg, ha ez érdekel. Ha valaki 4K gaminget akar, ott a 290-ek működnek a legjobban, és ha már van egy 3D-s 4K kijelzője, akkor van esély rá, hogy azt filmnézésre is használja majd.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz HSM #800 üzenetére

    Ma csak a GPU Boost 2.0 és az új PowerTune miatt létezik a GK110 és a Hawaii. Komolyan nem viccelek, amikor leírtam, hogy az előbbi 500, míg az utóbbi 600 MHz-es órajelet kaphatna a DVFS rendszerek nélkül. Azt persze stabilan tartaná, de fel tudnád húzni mindkettőt úgy 650-700 MHz-re, és ez a csúcs a tuningnál. Na most ennél mindkét lapka jobb paraméterekkel dolgozik alapértelmezetten. Szóval lehet utálni minden DVFS-t, de figyelembe kell venni, hogy ezekkel legalább 30-40% teljesítményt nyernek a gyártók.

    Az első ES Hawaii kártyákon volt a PowerTune kikapcsolható, mert akkor csak a lapkát mérték fel. Az 550 MHz-en üzemelt. Hiába volt mellette ugyanaz a tápáramkör, ami mellesleg 300 watt most is, akkor sem tudtak magasabb órajelet beállítani.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #814 üzenetére

    Aki nem olvassa el a kézikönyvet azt nem érdekli hogy működik a hardver. Ennyire egyszerű. Egyébként egy kézikönyvet alap dolog elolvasni a mai világban.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #818 üzenetére

    Miért kellene a vásárlókkal megértetni, hogy mit csinálnak? A vásárlóknak fogalmuk sincsen arról, hogy miképp működik egy ilyen hardver. Ők azt látják, hogy milyen teljesítményt ad le. Ennél tovább ezt nem kell ragozni, mert abból csak értetlenkedés lesz. Elég ha ezt a sokdiplomás mérnökök megértik, ők tudják, hogy mit miért csinálnak. Ez annyira mély információ, hogy felesleges is átadni a vásárlóknak, mert a többségük nem tanult egyetemi szinten fizikát.
    Aki meg bele akar képzelni ilyen-olyan dolgot, hát beleképzelheti. Az eredményeket a tesztekben ez sem befolyásolja, illetve ettől még ugyanúgy menni fog a Mantle is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz HSM #821 üzenetére

    Ennél jobb PCB-t nem fog kapni semelyik sem. Ez így is lényegesen drágább, mint minden ma létező VGA PCB-je. A nem gyári megoldások olcsóbb VRM-et kapnak. Ki van zárva, hogy bárki ezekre a csúcskategóriás alkatrészekre építene.

    Nem a VRM-mel van a baj, hanem azzal, hogy két munkafolyamat között olyan különbség lehet, hogy az egyiknél 750 MHz-en jó csak az órajel, míg a másiknál 1 GHz fölött is. Ha nincs DVFS, akkor mindenképp a peakre kell tervezni, vagyis a 750 MHz-re. Ezzel pedig számos munkafolyamatban sebességet vesztesz, mert jó lenne az 1 GHz is a szabványos, maximum 300 wattos határon dolgozó VRM-mel, csak nincs DVFS, amivel ezt elérhetnéd.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #824 üzenetére

    Ebből a fórumból szűrted le? :)
    Ez olyan dolog, hogy a google-on beírod az egyik VGA-t és keresel screen hibát. Mindegyikre milliós nagyságrendű találatot kapsz. A legnagyobb gond a black screen hibával, hogy a megfogalmazás teljesen általános. Gyakorlatilag minden hiba fekete képernyőt eredménye, függetlenül attól, hogy mi a hiba forrása. Ezért van minden hardverre milliós találat.
    Egyébként maga a gond az UEFI. A gyártók nem garantálják, hogy a fastboot eredményes lesz, csak akkor, ha azonos az alaplap és a kártya gyártója. Legacy módban megy, akinek ez a problémája.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz HSM #827 üzenetére

    Az, hogy hány fázisú a VRM nem határozza meg egzakt módon, hogy milyen erős a rendszer tápellátása. Nem csak a fázisok száma számít. Azokat azért szokás növelni, mert fázisonként lényegesen gyengébb kiépítést lehet alkalmazni, ami összességében olcsóbb, mint a nem spórolós referenciamegoldások. Az, hogy ebből előnyt kovácsol a marketing az mindegy, mert ettől a hardver nem lesz jobb.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #831 üzenetére

    A GTX 580 sokszor 40 wattra volt a kártyába épített TDP limittől. Ennyi teljesítmény maradt benne, amit a fix órajel miatt nem tudtak kihasználni. Ha kihasználják, akkor úgy jó 15-20%-kal gyorsabb lehetett volna, de ez már történelem, nyilván ilyen DVFS rendszereket nem könnyű fejleszteni.

    (#829) HSM: De minek akarnál rátenni 8-at, amikor 6-tal is megvan a 300 wattos szabványos fogyasztás. Attól, hogy raksz rá 8-at még nem mehetsz a 300 watt fölé, ha el akarod adni a kártyát az OEM-eknek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #833 üzenetére

    Nem. A Furmark szintű terhelés mellett a GK110 500 MHz-en üzemképes a 300 wattra tervezett PCB-vel. Ezért van driverből lefojtva a működése, hogy ne kelljen az órajelet csökkenteni.
    Ha nincs DVFS, akkor mindenképp peakre kell tervezni, ami még a Furmarknál is nagyobb terhelés.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz HSM #835 üzenetére

    Az alaplapgyártók sem nagyon örülnek a 300 wattnál nagyobb fogyasztásnak, mert azért van a szabvány, hogy azt betartsuk. A dobozos piac persze ellenőrizhetetlen, de arányaiban ide adják el a kevesebb hardvert és az OEM-be a többet.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Casanova* #864 üzenetére

    Ez nem ilyen egyszerű. A fejlesztő túl sok kontrollt nem kap a VRAM használat paraméterezésére. Minden egyes DX/OGL API object egy új memóriaterületet foglal le, még akkor is, ha lényegében ugyanaz az adat már vagy 4-szer benne a memóriában. Például ezért tudtak a korábbi generációs konzolok annyira kevés memóriával ellenni, mert nem pazarló módon bánnak a memóriával. Szóval még ha terveznének is a memóriahasználatra a GPU-nál, akkor is annyira kevés erre a kontroll, hogy simán mellé lehet lőni. Ennél egyszerűbb a megközelítés. Meg van szabva, hogy 200 dollár fölött már kell a 2 GB és 400 dollár fölött belefér a 4 GB is. Ennyire egyszerűen alakulnak ki a mai memóriasémák.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Casanova* #868 üzenetére

    Csak akkor lesz kevés, ha az észt lerakják a fejlesztők egy sarokban és csak a program megjelenésekor veszik vissza. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #35434496 #889 üzenetére

    Nincs semmi baj, csak paraméterezik őket. Olyan gyorsnak kell lenniük, mint a referenciamodelleknek. Ehhez teljesen más paraméterezés szükséges, mert mint írtam a szimpla hűtőcsere és a 80°C-os limit lassít a referenciához képest.
    Ez a termék nem olyan egyszerű, hogy csak raksz re egy másik hűtést és már mehet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #891 üzenetére

    Az, hogy átláthatatlanná teszi a termékskálát, mert az egyik cég 290X-je 20%-kal is gyorsabb lehet a másik cég megoldásánál. Ha nem OC-s a termék, akkor be kell tartani a szabályokat. OC felirat mellett azt csinálnak a gyártók, amit akarnak.

    (#892) HSM: A 80°C csak példa, de nyilván a DVFS-nek meg kell maradnia, mert ez biztosítja a hatékony kihasználást. Enélkül ott vagyunk, ahol kép éve, hogy 10-15 wattra is kerülünk a limittől. Ezért okozhat a hűtőcsere és csak a hőmérsékletlimit változtatása lassabb terméket a referenciamodellnél.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák