Keresés

Új hozzászólás Aktív témák

  • janos666

    nagyúr

    LOGOUT blog

    Egy gyors kérdés: ha mindenképp vízhűtésre cserélem a gyári léghűtőt, akkor számít bármit, hogy melyik variánst veszem, vagy keressem nyugodtan a legolcsóbb kombinációt (kártya+blokk)?

    Pl. most le van árazva az EK-nál az MSI Gaming (X) kártyákra való blokk (20-30 EUR-al olcsóbb, mint a többi hasonló blokk), de a most aktívan hirdetett használt kártyák közül az MSI Founders Edition a legolcsóbb (szintúgy 5-10 a különbség). Szóval kb. ugyan ott lennék az FE és a Gaming X verziókkal. Vagy van még Palit/Gainward blokk használtan, de olyan kártya csak bontatlanul eladó drágábban, így az még picit drágább is.

    Szokott lenni bármi jellegzetes különbség tuningolhatóságban, driver vagy tweak utility kompatibilitásban, stb, vagy teljesen mindegy, és minden más a véletlen szerencsén múlik (illetve csak a gyári hűtés lehetne érdekes, ha nem dobnám el kapásból)?

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz BandiT85 #21552 üzenetére

    Kösz.
    Az előbb megörültem, hogy egész baráti áron van az MSI Sea Hawk, de aztán rájöttem, hogy csak azon a Sea Hawk-on van EK blokk, aminek az EK szócska is benne van a nevében, azt pedig nem találok olcsón.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz hackeeeee #21616 üzenetére

    És lenne valami baja attól a 3-5 foktól? :F
    Én az az állatfaj vagyok, aki néha még a leszabályzott vízpumpa hangját is méltatja, szóval eszembe nem jutna hybridről always-on módra átszabni, hanem én csinálnék hybrid profilt (ami kis terhelésnél kikapcsolja a ventit, ha lehet).

    Végül találtam aprós kereskedőnél MSI 1070 Sea Hawk EK kártyát picivel a lélektani határáram felett, úgyhogy toltam egy piros ragequit-ot (elsóztam áron alul a 290X-et). Mondjuk van 15db Polaris VGA a padláson, de inkább nem hozok le egyet se (két RX480 biztos elég lenne játszani), mert mind hangos léghűtős, így inkább csak netezek és filmezek pár napig az iGPU-val, mint hogy azt hallgassam játék közben, ahogy süvítenek. :DDD

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Dogt #21622 üzenetére

    -> #21618: Már rendeltem közben, GTX1070-et 160k-ért, a GTX1080 nem játszott (igazából már a 1070 is túl drága nekem, csak elkapott a hév, hogy amivel most szívesen játszanék, az pont nem futott rendesen a régi 290X-en). Ami végül "behúzott", hogy ennél a kereskedőnél annyiba került kompletten az EK-s modell (bontatlanul, garanciával), mint egy átlagos használt GTX1070 (vagy a létező legolcsóbb kivitel bontatlanul) + külön az EK blokk (amire nem lett volna olcsóbb megoldás, mint a hivatalos EK Webshop). Így kényelmes és még elfogadható.

    (#21621) Puma K

    Eddig el sem jutottam a nézelődéskor (most sem látom a datasheet-en), de úgy rémlik hogy végső esetben egy grafitceruzával a "végtelenbe" tolható a TDP keret. ;)

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Puma K #21628 üzenetére

    Ha akarod, akkor forraszthatod is, esetleg kenhetsz rá elektromosan vezető pasztát, csak a ceruzás módszert már használtam valamikor VGA tuninghoz (meg nem mondom pontosan mikor és melyiken, vagy Radeon HD4870-en, vagy Geforce 8800GT-n, de akkor még nem TDP limitet lehetett így feloldani, hanem a feszültséget lehetett így emelni).

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    A vártnál lassabban, de végül ideért a 1070 Sea Hawk EK.

    Annak ellenére, hogy láttam róla képet keresgéléskor, mégis meglepett a mérete, de főleg az oldalak aránya (egy vaskos léghűtővel biztos igazi behemótnak tűnnek ezek a kártyák, mert még vizesblokkal is egy monstrumnak látszik a "négyzetes" arányai miatt).
    Kellemes meglepetés volt, hogy nagyon régóta először került a kezembe ilyen ránézésre is "minőségi" VGA (általában a relatív olcsóságra, nem a külcsínre megyek az "asztali" gépben se, a bányába pedig még inkább azt veszem, ami legolcsóbban a legjobban kalapál, nem azt ami szép is), szinte hiányoltam a PCB-ről a referencia Radeon-oknál megszokott "nyersebb" küllemet a tiszta felszín láttán. :DDD

    Házi fényképek: 1 és 2

    Nem meglepő, de nem egy tuning-bajnok, valahol kicsivel 2088/2288 alatt lesz a stabil órajel alapfeszen (ez már egész sokáig stabilnak tűnt, de aztán csak leállt így is a 3DMark teszt loop, de majd kiderül szép lassan), a feszültségen viszont nem látom értelmét emelni, míg nem látom mire elég a 1.26*TDP keret (meg úgy egyáltalán, hogy mit hoz így játékban, mert 1080p60-ra kell...), majd később piszkálom, ha lesz BIOS-mod és hiányzik az erő.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz RazoR #21911 üzenetére

    és "csak" FHD
    Szerintem stabilitástesztnél lényegtelen ekkora felbontáskülönbség, 640x480-ban is tesztelhetsz, ha úgy is sikerült terhelni a GPU-t, illetve hiába nézel 8k-ban olyat, ami úgysem pörgeti meg eléggé.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz keIdor #21982 üzenetére

    Nekem tessellation a kedvencem. Előrevetítette, hogy az nVidia hatalmas lemaradásban lesz az AMD sokadik generációs "lappangó" hardware egységgel szemben (ami már ATI időkben is pazarolta a tranzisztorokat, bár egy-két XBox játék állítólag használta az ottani variációt), aztán mire elkezdték használni a PC-s techdemók/benchmarkok a technikát, az AMD nem tudott se köpni se nyelni, mert lekörözte az nVidia első "szoftveres" megoldása (ami így sokkal rugalmasabb volt, nem volt fixen limitálva a diszkrét hardware egység visszafogott képességeire). :))

    A másik jóslat szerint már évek óta nélkülözhetetlennek kéne lennie modern játékokhoz az APU-knak, mert PCI-E csatin át nem lehet olyanokra használni a GPU-t, amire nem elég a CPU, de nagyon fontos lenne a játékok fejlődéséhez. (Ehhez képest most már az AMD is GPU nélkül hozta az első Zen generációt, és gondolom a "refresh" szériában is GPU nélkül jön a >4 magos). Annak idején ezért kellett volna Kaveri APU-t venni Intel CPU helyett.

    Most meg ugye megy a mese, hogy X hónapon belül játéktesztekben is úgy alakul majd a látkép, mint CineBench-ben, mert minden játékmotort azonnal optimalizálni fognak Ryzen-re, azt is amit b@sztak valaha is optimalizálni bármilyen CPU-ra, vagy úgy egyébként is frissíteni rajta bármit megjelenés után, akár bugok miatt. (Bár ez nem feltétlenül Abu mese, de nekem épp ezért rémisztő, hogy már magától gyártja le ezeket egy kaptafára a "közösség".)

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz sto1911 #22016 üzenetére

    Szerintem, ha most működik, akkor hagyd békén (nem hiszem, hogy garanciás probléma, ha hibátlanul üzemel), de ha nem muszáj, inkább soha ne szedd szét (főleg puszta heccből ne próbáld átpasztázni, végképp ne direkt "kiegyenesíteni", illetve inkább vizesblokkot se erőltess rá).

    Volt egyszer egy ilyesmi kártyám (régebbi Radeon), és majdnem eltörtem a NYÁK-ot, mikor próbáltam leszerelni a gyári hűtést. Mivel ferde, így nekifeszült a csavarmenetnek a NYÁK-furat éle, így a csavar kvázi "emelőként" viselkedett, tovább ferdült tőle a NYÁK kitekeréskor, mígnem "koppant" egyet, ahogy "leesett" a meneten, aminek olyan hangja volt, mint ha valami eltört volna. Aztán felfelé felment a rézblokk, de leszereléskor megint eljátszott valami hasonlót, csak akkor a blokk kis távtartó csavarja szorult be a blokk és NYÁK közé úgy, hogy későbbi leszereléskor letört a kis menetfuratos fej a menetes szárról (de visszagondolva talán eleve ferdén sikerült belekapnia a menetbe attól, hogy görbe volt a NYÁK). De csodák csodájára ezt is túlélte. :D

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Puma K #22058 üzenetére

    Az EK-s MSI-n nekem 126%-ig megy az AfterBurner csúszka, de még nem jöttem rá, hogy ez Watt-ban mennyi. Hol lehet ezt egyértelműen kideríteni?

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Puma K #22079 üzenetére

    Kösz, de mit csináljak ezzel a listával? :F

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz mlinus #22139 üzenetére

    Ezt mondjuk hiányolom is a Radeon-okhoz képest, hogy ott egyszerűen ki lehet olvasni a HWInfo programmal a VRAM ECC hibaszámlalót. Már akartam kérdezni, hogy itt van-e erre alternatíva, vagy hogy aktív-e egyáltalán az ECC (vagy az nVidia még mindig letiltja ezeken a Geforce-okon is).

    Rémlik valami CUDA-s VRAM teszt program, de nem ugrik be a neve, hogy előkotorjam (és nem is tudom az olvas-e ECC számlálót, de azt hiszem a CUDA-n keresztül el lehet elérni ezt az infót azokon a kártyákon, amiken aktív az ECC).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Ferdzsoo #22177 üzenetére

    Én kíváncsiságból elindítottam egyszer, aztán uninstall. Az AfterBurner mellé szerintem teljesen felesleges, nincs semmi funkciója, amit az ne tudna. (Talán néhány kártyájukon van LED világítás és azt ezzel lehet kapcsolgatni...? Talán az az egyetlen értelme.)

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz VTom #22197 üzenetére

    Ráadásul vannak olyan divatos effektek (ami szinte mindig default ON, és akkár kikapcsolhatatlan, netán még konzolparancs sincs rá, hogy kilője az ember), amit én akkor is kikapcsolnék, ha pont a kikapcsolásuk miatt vesztenék némi teljesítményt. Ilyen pl. a motion blur, depth of field, chromatic aberration, film grain (ezek csak szétmaszatolják a gyönyörű, tű éles képet is egy merő maszattá/zajjá, ráadásul több ilyen effekt egymásra halmozása extra "anomáliákat" gerjeszthet [külön-külön még elmennének, de együtt nagyon furán néznek ki néha]) és minden erre a kaptafára menő egyéb egzotikusabb post-process, ami élesít (azon, amin nincs mit, mert már tű éles), homályosít (pedig egy csomó erőforrásba került, hogy éles legyen a kép), maszatol (pedig van akinek az elsődleges szempont a megjelenítő vásárláskor, hogy képes legyen éles mozgóképet megjeleníteni, ne maszatolja el a mozgást, egyébként pedig a legtöbb megjelenítő úgyis motion blur-os külön effektezés nélkül is, szóval szerintem agyrák rátolni ilyen effektet a képre, ami még GPU időt is pazarol, mert legtöbbeknél úgyis van blur, a többiek pedig azért csengettek ki jó sok pénzt, hogy a kijelzőjükön ne, vagy minimális legyen a "beépített" motion blur, nekik biztos nem hiányzik a szoftveres...), beleértve a legtöbb post-process anti-aliasing is, ami mindent elken valamennyire, de alig simít magukon éleken (bár a Temporal-AA most tetszik a legújabb Frostbite játékokban, ez már alig maszatolja azt, amit nem kéne, viszont tényleg elkeni az éleket és kevés anomáliát okoz, ha ki van kapcsolva az összes többi post-process, de pl. a DoF-al még ez is "összegerjed").

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Laraxior #22222 üzenetére

    Gondolom azért van odabilincselve az a kis légkeverő (ami vélhetően valami nagy fordulatú hangkeltő), hogy fújja valami a bordát.
    Felkavaró egy kép az biztos, pedig én se merném megmutatni a sajátom. :DDD

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Laraxior #22237 üzenetére

    Ha az alkoholos vattával nem sikerül ledörzsölgetni, akkor utolsó próbaképp megpróbálhatod a NYÁK-ra ferde szögben telibe fújni féktárcsa tisztító spray-vel (célszerűen "álló" kártya pózban lefelé néző sugárral, hogy valami kártya alá tett rongyra mosódjon lefelé a cucc, ha megindul). Én ezzel szoktam lemosni a makacs ragasztókat üvegről és műanyagról (pl. szélvédőről autópályamatricák helyét, de akár a laptopok billentyűzete körüli reklámmatricák nyomát, stb). Két dologra kell vigyázni: egy hogy bizonyos műanyagokat, vagyis inkább azok lakk szerű felső rétegét/bevonatát is leoldhatja (de kisebb eséllyel, mint az aceton), a másik hogy erősen illékony és gyúlékony, illetve nagy mennyiségben belélegezve kábító hatású is lehet, szóval csak jól szellőző helységben, inkább nyíl téren, szikráktól/kanázoktól távol és nem cigarettával a szájban (:D).

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz TTomax #22329 üzenetére

    A 1080-on szűkösebb az ottani FE TDP, mint a 1070-en?

    Ha minden igaz, nálam 150W a 1070 TDP-je, ami elvileg kitolható lenne +26%-al, de ahogy kísérleteztem vele, olyan mint ha valójában nem is működne a PW limit emelés:

    A.) alapfeszen 2050/2278-ig tudom húzni, és így még csakis Util/Vrel-t láttam

    B.) +100 feszültségcsúszkával (1.043V -> 1.093V) azonnal 2088-ra változik a boost plafon (base clock emelés nélkül, ugyan úgy +101 GPU órajel beállítással) és emelhetem addig a base-t, míg 2100-ig is boost-ol, de ott már a homogén Util/Vrel helyett azonnal 5 színűre vált a grafikon, és el sem fér a másik oszlopmezőben a lista, hogy mi minden limitál vegyesen, és általában 2088MHz-et látok órajelnek (kisebb terhelésnél 2100-at), illetve tolhatom még tovább, de mikor megüti a 2122-t is, akkor instabil (úgy is, ha közben látszólag konstans visszahúz <=2100-ra a limitek miatt).

    A "gond" az, hogy (A) és (B)esetben is teljesen mindegy, hogy 0 vagy +26% a PowerLimit beállításom, mert (A) esetben mindig tartja a 2050-et, míg (B)-ben mindig 5 színű lesz a limit grafikon.

    Szóval értelem szerint (A) módon használom, de kíváncsiságból egyszer azért megnézném mit tud limiterek nélkül, csak egyrészt nem tudom van-e liberálisabb BIOS erre a PCB-re (MSI 8+6 tűs és egyetlen HDMI is elég, főleg átmenetileg), illetve úgy sejtem sokkal többet úgysem lehetne húzni rajta, és amit mégis, az is aránytalanul magas áramfelvétel emelkedéssel járna.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz TTomax #22331 üzenetére

    Ja, az adatlapom elavult, de írtam melyik PCB érdekel: 1070 SEA HAWK EK X
    A nevében van X, de papíron karcsú 150W a TDP-je és a gyári BIOS frissítő csomag Armor-nak ismeri fel.

    Találtam egy trükköt arra, hogy kiolvassam a BIOS-om limit-jeit (publikus reader/editor hiányában). Feltöltöttem GPUZ-vel az online adatbázisukba, az kiírja a limiteket a részleteknél. Ha ez hiteles, akkor nem csoda, hogy alapfeszen nem ütköztem még TDP limitbe: [link] 230W-ról indul és elvben 291-ig húzza a +26%.

    Eddig is gyanús volt nekem, hogy a gyártó weboldalán feltüntetett TDP az nem feltétlenül a BIOS-os limit is egyben. Azon felül pedig fura ez, hogy látszólag Armor PCB/BIOS az alapja, mégis Gaming X TDP limitekkel megy, ahogy a nevében lévő X sejteti. :U
    (Az alapján sem lehet Armor, hogy azon elvileg +8%-ig megy a PL csúszka, de nekem +26-ra engedi húzni az AfterBurner: Armor BIOS, Gaming X BIOS)

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz hackeeeee #22340 üzenetére

    A range az, amit a tweak programokban tudsz tologatni, csak pl. AfterBurner-ben 120% a 100+20% és 55% a 100-45%.

    (#22342) hackeeeee 200*1.2=240

    Én egyre inkább gyanakszom arra, hogy ha lefagy és újraindul a VGA driver tuning-teszt közben ("pislant egyet a kijelző" és lefagy a 3D-s cucc), akkor utána másképp viselkedik a kártya (akkor is ha, módosítom és ismét alkalmazom az AB-s beállításokat), legalább is a boost része (úgymond "óvatosabban boost-ol", egy lépcsővel alacsonyabbra szeret visszaesni a GPU freki már alacsony hőmérsékleten is, pl. 50 fokot elérve).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz salvation #22346 üzenetére

    Ahogy én nézegettem, a sima Sea Hawk az lényegében Founders Edition PCB (vagy legalább is hasonló, azt olvastam, hogy mehet rá a Founders Edition BIOS), csak a Sea Hawk EK X az a custom PCB, amit a többi egyedi hűtős X-es és Z-s MSI is kapott (a legegyszerűbb megszámolni a PCI-E tápcsatikat, hogy 8 vagy 8+6, a többi gyakorlatilag már szinte mindegy ilyen szempontból, ha jól látom).

    Továbbá, ahogy átnyálaztam a BIOS-okat, az összes 8+6 csatis MSI kártyának ugyan azok a TDP limitjei, szóval felesleges egymás közt cserélgetni a BIOS-okat (hacsak talán a Voltage limit nem tér el kicsit, amit most nem látok, de kétlem).

    Azon túl pedig, a szóló 8-as csatis egyedi hűtősek is nagyon hasonlóak TDP-ben (esetleg 5-10 W eltérés van ide-oda a nem X-es custom-ok közt, de lehet hogy az is inkább az adott BIOS revízió, és nem a konkrét SKU miatt, de passz, viszont szerintem mindegy is). Sőt, ezek nagyon hasonlóak a Founders-hez is: magasabb az alapértékük, de felfelé szűkebb a range, így ha AB-ben feltolod a PL limit csúszkát, akkor maximum 10-15W az eltérés (általában az FE javára).

    Szóval esetleg az FE BIOS-t lehet érdemes kipróbálnod rajta (az állítólag jó rá, és kicsit magasabb a TDP limit, ha AB-ben maximumig feltolod a PL csúszkát -> de csak akkor, egyébként az alapérték meg kisebb...)

    U.i.: Úgy látom nagy mákom volt, hogy "hirtelen felindulásból" vásároltam (magamhoz képest alig néztem utána az ilyesmiknek előre), de sikerült magas limitest vennem az EK X-el (ez ritka szerencse nálam). :D

    Ja, és még coil whine...
    Mikor tegnap letérdeltem a gép mellé, feltűnt hogy terhelés alatt most cirreg a VGA, amiben az az érdekes, hogy az előző VGA-mmal a táp cirreget, mikor dolgozott a VGA, de a táp most néma.
    Mondjuk mindegy, a fotelből egyiket sem hallom, elnyomja a mélyebben duruzsoló vízpumpa is, illetve idle sem cirreg, csak terhelve (ahogy régen is, csak most máshol).
    Annak idején az őrjített meg, mikor az egérmozgás függvényében cirregett valami.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz fuvi #22364 üzenetére

    Nekem kicsit melegebb, mert passzív vízhűtésem van (ráadásul "elavult" CPU és alaplapi VRM blokkal, sőt sok felesleges szűkítő toldozgatással, így csak lassan csordogál a víz), és 24/7 melegen tartom a radiátort (most sokat is játszom [azért cseréltem nemrég VGA-t], mikor nem használom másra, akkor pedig ZEC-t bányászgat), akár 50 fokig is elmegy a GPU terhelés alatt, ha "izzik" a széthajtott CPU is, és át van melegedve a radiátor.

    A GPU már valahol 40 fok körül visszahúz 2100-ra terhelve (nagyon kényes ez a boost, ha már a kitolt Voltage range-ben és 2050MHz felett mászkál/na), csak hidegen, vagy kis terhelés mellett megy el 2125-ig. Még nem sikerült kitapasztalnom a lelki világát ebben a régióban (feszültség korlát emelés nélkül és csak 2050-ig húzva még teljesen kiszámítható, de fentebb "erőltetve" már sokkal kevésbé).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz gaben88 #22366 üzenetére

    Szerintem ugyan az a TDP limit: QS - GX - 230/291W
    Azt lenne még talán jó látni, hogy a Voltage Limit esetleg eltér-e, de szerintem annak is csak vízhűtéssel lehet inkább értelme (nem szerencsés léghűtéssel szétfeszelni, mert vagy fülbántóan hangos lehet, vagy forró, és utóbbi esetben ha egyszerre van túl sok fesszel kínálva és magas hőmérséklettel kínozva, még a hosszú távú tartóssága is kétségessé válhat).

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz TTomax #22373 üzenetére

    Viszont a folyó másik partjáról nézve, ha nem adsz neki feszt, akkor VRel korlát miatt kevesebb lehet a maximális órajel, ameddig boost-ol. Persze nyilván rosszabb a helyzet, ha VRel helyett(/mellé) Power limit (is) bekapcsolódik, mert úgy talán még rosszabb is lesz (nem magasabb, hanem egyenesen alacsonyabb lesz a max órajel, ha magasabb feszre áll be a "közös" órajeleken is, hisz igen, a fesszel gyorsabban nő a fogyasztás, mint az órajellel...).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz abridabri #22486 üzenetére

    Csatlakozom a "majdnem, de mégsem 4000-res" szürke középréteghez. :DDD

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz TTomax #22554 üzenetére

    Egész addig, míg hiányosan definiálod a tökéletességet, mert a VRR és BFI (nVidia terminológiában G-sync és ULMB) jelenleg gyakorlatilag kizárják egymást (ha meg is lehetne csinálni valahogy némi kis kompromisszummal a kettőt egymás mellé, ma akkor sincs piacon olyan megjelenítő, ami ezt kínálná), ~120fps alatt pedig nincs éles mozgókép BFI nélkül, csak motion blur-os (sőt, egy pöpec strobing jobb, mint a sample-and-hold 120fps, szóval mondhatnék inkább 200-at 120 helyett, ha nem lennék kompromisszum kész). De másik oldalról viszont ~100fps felő kevés a jelenlegi G-sync polling rate (ami nem feltétlen baj, hisz minél nagyobb az effektív frissítési sebesség érték, annál alacsonyabb a sima Vsync-el járó lag, illetve egyre kevéssé észlelhetőek a random képkocka-ismétlődések, így szükségtelenné is kezd válni a polling mód -> csak hát hajrá, tartsd stabil 120 felett, inkább 200 körül az fps-t, gyerekjáték ;]).

    Persze nyilván felülbírálja a kérdést, hogy mire használod. Ha online "versenyszerű" lövölde, akkor mindennél fontosabb a lehető legalacsonyabb lag (és teljesen lesz@rhatod ha van egy kis motion blur, úgysem arra figyelsz), de nekem offline laza szórakozásra sokkal fontosabb a tű éles mozgókép, amiről elhiszi a szemem, hogy folyamatos és nem darabos mozgás, az pedig vagy 60Hz+BFI, vagy stabilan >120fps (BFI nélkül), de előbbit könnyebb kiszolgálni VGA+CPU oldalról is (és tágabb a választék is, nem vagy LCD-re korlátozva [lehet PDP vagy OLED, amin tényleg van fekete is, nem csak tejfehér szürke], illetve abból is vehetsz >=50" TV-t, nem csak 24-32"-os tepsiket, ha kényelmesen messzire akarsz ülni).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz abridabri #22562 üzenetére

    Pedig egyáltalán nem az. :N

    Személy szerint nem nekem való, illetve nem győzöm kiemelni a hátrányait (inkább azért, illetve akkor, mikor azt látom, hogy ezeket szívesen elfelejti azok, akiket "elvarázsolnak" az előnyei, még ha amúgy részben jogosan is), de ettől függetlenül szerintem így is kimagasló, példa értékű sikertörténet, illetve nagyon is megéri az árát annak, akinek passzol az igényeihez.

    Ha alacsony lagra lenne szükségem (pl. kedvem lenne 10 év szünet után újra online FPS-t játszani offline RPG helyett), akkor biztos, hogy azonnal a G-Sync felé fordulnék, és csak a teljesség kedvéért néznék szét FreeSync fronton (de a sima Vsync oda már kizárt, túl nagy hátrányba kerül az ember a G-Sync-es ellenfelekkel szemben, a képtörés pedig nagyon rossz dolog, rosszabb mint a motion blur).

    Szerintem a G-Sync hatalmas előnye az összes jelenlegi alternatívával szemben az, hogy explicit igényt támaszt a kijelzők összes részegysége felé, hogy minimalizálják a lagot (ne legyen semmi felesleges időhúzó bufferelés, vagy egyéb tökörészés a G-Sync modul után se, hanem fusson keresztül minden a lehető leggyorsabban a GPU-tól egész a pixelekig), így maximalizálva az élmény azon aspektusát, amit kitűzött a technológia (ha valaki azt hiszi másra való, mint a lag minimalizálás, arról nem a technológia vagy én tehetünk).

    Önmagában a magas valós képfrissítési frekvencia (120+) és/vagy VRR (G-Sync helyett FreeSync, vagy majd a HDMI 2.1 szabvány szerinti FreeSync inkarnáció) abszolút semmit nem követel, de még csak nem is szorgalmaz a teljes lagra nézve. Attól még, hogy egy kijelzőn működik a FreeSync akár 120Hz feletti tartományban is, még lehet olyan magas a lag (egérkattintás és "fény" közt), hogy tényleg szó szerint elszédülsz tőle (merj bármi merészet gondolni, akár 10 képkockányi lagot).

    Én jelenleg egy olyan, régi PDP-n játszom, amin még offline lövöldözésre is határeset a lag (készüléken belül), főleg a 60Hz impulzus mód mellé kvázi kötelező hagyományos V-Sync adta laggal együtt. Én nem leszek tőle rosszul, de elismerem,hogy "álomszerű", akár úgymond "bódult" érzést tud kiváltani, ha hosszasan játszom. Viszont olyasféle játékokhoz ez nem feltétlenül probléma, amikkel az utóbbi időkben játszottam (még azt is megkockáztatom, hogy fantasy RPG esetén akár segít is beleszellemülni az álomszerű világba ez az enyhe kis "bódultság", hasonlóan, mint mikor azzal érvelnek, hogy a 24fps mozi is álomszerű, és nem akarnak 48+ fps mozifilmeket nézni, bár én nem kimondottan ragaszkodom ehhez, csak megtűröm más okokból). Ugyanakkor a magas lagért cserébe hibátlanul homogén 50"-os képernyőm van (ami LCD-nél olyan, mint a rózsaszín holló), amin egyrészt korom fekete a fekete (majdnem olyan, mint az OLED-eké, csak vak sötétben dereng nagyon picikét, ha a teljes képernyő fekete és kitágult már a pupilla), másrészt tű éles, motion blur mentes a 60Hz-es mozgókép (viszont ugyan itt megjegyzem hátrányként, hogy 30Hz-en mindent duplán látni, ami mozog a 2x felvillantás miatt, szóval tényleg kötelező a 60fps, nem lehet 30-al szórakozni, az még zavaróbb, mint a lag, illetve tovább nő az is ha esik az fps). De még azt is hozzáteszem, hogy ezen a PDP-n van "Game mode", ami sokat lenyes a lagból, csak ront a képminőségen (valamiért nem engedi kikapcsolni az élesítést), így nem használom (de nyilván úgy sem G-sync szintű a lag, csak 1-2 képkockányival kevesebb).

    Szóval nekem esetleg az lenne az alternatíva, hogy RGP és kalandjátékokat hagyom a PDP-n (kiváló képminőség, éles mozgás), de mikor FPS-hez támad kedvem, akkor kerekes asztalon begurítok elé egy G-Sync LCD-t (szokásos ratyi LCD betegségek a nulla kontrasztaránnyal, de emberi érzékeléshez képest kvázi nulla lag, és alapvetően még mindig éles mozgás, mikor magasan fut az fps).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz MaidenFan #22586 üzenetére

    A perf mód mindig durván 1500 MHz-re rakja a minimumot (amit a GPU-Z Default Clock-nak ír ki), úgyhogy az alapértelmezett profilt szerintem tedd energiatakarékosra (akkor lemegy 250-re), és csak egy-egy játék profilját állítsd esetleg perf-re, ha akarod (de szerintem az is inkább csak placebó lesz, kivéve talán néhány speciális esetet).

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz sixpak #22592 üzenetére

    Elhiszem, ha kipróbáltad azt is, de pl. a TAA, ami most a Frostbite-ban van, egy post-process szűrő, ami nem olyan erőforrásigényes, mint a deferred technikák terjedése miatt mára kvázi teljesen kihalt Full-Screen MSAA, de főleg mint a "brute-force" SSAA (ezt csak azért említem, mert az első Tomb Raider reboot részben pont választható SSAA). Valamennyit persze eszik, mint minden, de ahogy néztem, nem drasztikus, viszont elmaszkol sok olyan apró bakit is, ami hasonló, de nem klasszikus aliasing (pl. ferde felületekre vetülő árnyékfoltok, vagy fények éleinek pixelessége/recéssége, ami általában szintén a deferred eljárások mellékhatása). Ugyan ez igaz a többi hasonló cuccra, mint SMAA, FXAA, TXAA, MLAA, de ezek a 4 betűsek általában többet ártanak, mint használnak.

    (#22590) s4hu|SyD^ - Próbáld hozzáadni, mint custom resolution

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Puma K #22603 üzenetére

    Az MFAA egy MSAA alapú TAA.
    Mivel rég nem működik már az MSAA, így konkrétan ezt már ki sem próbáltam.
    Egy olyan régi játékban, ahol nincs deferred trükközés, így működik az MSAA, ott a mai vasak 4x SSAA-t vagy 8x MSAA-t is elbírják, ezekre pedig szerintem nem hiányzik már a további extra (sőt, mozgás közben ronthat is a 4x vagy 8x MSAA-n egy ilyen TAA, esetleg 2x-nél jöhet jól, hogy álló helyzetben felhozza 4x szintre, de igazából én már a 4x-el is kiegyeztem mindig, így nem kell a kockázat, ha megy a sima 4x).

    Annak idején az ATI (igen, még ATI, Radeon X1800 időkben, 2004-es év) is ellőtt egy hasonló TAA-t, csak ők akkoriban fordítva nézték "a pohár félig tele" kérdést: nem úgy magyarázták/promótálták, hogy képkockánként fele annyi mintavételből tudja ugyan azt a minőséget (legalább is kvázi-statikus jelentnél, nem gyors mozgásnál), mint a hagyományos MSAA, hanem úgy, hogy kétszer annyi mintából dolgozik hasonló teljesítmény árán. De a lényeg ugyan az: leegyszerűsítve kap 2x szorzót az MSAA szint, ami kvázi-statikus jelenetnél igaz is lehet, de gyors mozgásnál nem (megvalósítástól és látványelemtől függően akár bakikat is behozhat az, hogy két egymást követő képkockát "mos össze", attól függ mi és hogy mozog és hogy dolgozik a konkrét TAA algó).

    A fentiekkel gyors mozgás közben elveszik a 2x szorzó, de ez nem feltétlenül gond, főleg ha van motion blur akár csak a kijelzőn "beépített hibaként", lassú mozgásnál pedig akár jó is lehet.

    A legújabb post-process TAA inkarnációkról még nem olvastam, hogy pontosan hogy működik, csak azt látom, hogy Frotbite-ban alapvetően meglepően jól (az Alien játék félét még nem próbáltam), legalább is a többi postAA-hoz viszonyítva, de jellegzetes és látványos bakikat is okoz azért mozgás közben bizonyos helyzetekben (csak elég ritkán és nem sokkal nagyobbakat, mint maga az aliasing, így jó kompromisszumnak tűnik).

    (#22606) Az SMAA még mindig jobb, mint az FXAA, de szerintem elég sokat maszatol mindenen még az is, erősen határeset.

    (#22607) Ez esetben a recésség és homályosság közt választasz. Én általában a recékre szoktam szavazni (pusztán, mert nagyobb felületet tesznek ki a textúrák, mint a recék), de ez erősen szubjektív (és nyilván egyik sem jó).

    Viszont igazából egyik ilyen post-process AA sem oldja meg az olyan problémákat, mint pl. a drótkerítések, vagy fűszálak hibái, mert az az információ teljesen elveszik addigra, mire ez a post-process AA lefut, így ott már lehetetlen előállítani az "igazságot". De ez ugyan úgy fennáll minden élre, csak míg nagyobb, összefüggő tárgyak folyamatos éleit van esélye felismernie valami algoritmusnak, illetve nem is nagyon kell vele mást csinálni, mint kicsit összekócolni/maszatolni az egészet, addig egy "aliasing-kavalkádot", mint pl. egy drótrács, ahol egy-egy fémszál a távolból nézve kisebb lenne, mint egy pixel (így felváltva vagy egy teljes, vagy nulla pixel lesz a képen), ott nem marad elég információ, hogy bármi algoritmus kitalálja, hogy mi van (volt) ott. Az emberi intuíció hamarabb megmondja, ha felismerjük, hogy az egy fémkerítés, akkor valószínűleg drótszálakat látunk "zizisen", de egy ilyen algó, aminek gyorsan kell dolgoznia, az nem egy AI. Ugyan ilyenek a távoli fűszálak és minden hasonló, szálas/rácsos cucc (esélytelen rá az FXAA, SMAA). De ha valami post-AA elkezdi emiatt összekötögetni a szabad pontokat, akkor abból még furább dolgok lehetnek (pl. egy merő borzalmat szülhet egy sci-fi jelenetben, ha szándékosan meg vannak szaggatva a vonalak valami "hologramon", de az AA összemossa homogénné). Szóval igazából "sz@r az egész". :P

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Abu85 #22616 üzenetére

    Az, hogy egymást követő képkockákról vesz mintát, miért jelenti, hogy nem pp? Tudja egyértelműen (pl. vektortérből vett információval), hogy hol vannak a "valódi" élek, vagy csak utólag igyekszik megkeresni őket a végeredményen?

    A legnagyobb baj, hogy a dinamikus, pixel mérethez közeli nagyságú elemekből álló (főleg ha áttetsző), vagy "finomszemcsés" dolgokat is hihetetlenül hatékonyan kiszűri a képből, mint ha az is (tágabb értemben vett) aliasing lenne (de mozgás közben "hibázik" és átengedi az eredeti szemcsésséget): MEA - TAA
    Ebben a játékban inkább úgy kéne hívni, hogy "temporal effect canceler". ;]

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Ferdzsoo #22626 üzenetére

    És fontos ettől többet remélni, hogy bolti árakon, házon és generáción belül, ebben a kategóriában csak kb. annyival legyen drágább valami, mint amennyivel gyorsabb is? :U Én emiatt már szinte bántam, hogy nem 1080-at böktem (pedig nincs rá szükségem és elég drága volt nekem a 1070 is).

    Mostanában sokan már azt is elfogadták, ha valami generációról generációra lépve is egyre drágább és drágább annyival, mint amennyivel gyorsabb a régihez képest (pedig nem kell nagy jós sámánnak lenni ahhoz, hogy vizionáljuk, ez középtávon növekvő vásárlói kiadásokat, hosszú távon pedig iparági stagnálást jelent).

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz sqpp #22633 üzenetére

    Játéktól függően egyáltalán nem sok 1080p60-ra a 1070. :N

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Ferdzsoo #22645 üzenetére

    Mert könnyű megszokni a jót, és utána már nehezebb lemondani róla.
    Az mindegy hogy sync-elsz, 30fps mindenhogy kevés. Pontosabban mondva egyértelműen rosszabb, mint a 60, akkor is ha ennek ellenére megelégszel a 30-al. (Plusz konkrétan a 30 már kívül is esik a G-Sync range-en, de az ott amúgy is mindegy.)

    Legtöbben szerintem akkor szoktunk rá arra, hogy nem "szaggatnak" a játékok, mikor épp kiöregedett az X360/PS3 konzolgeneráció, és ezzel együtt PC-n is lassult a játékok gépigényének növekedése, de volt némi verseny VGA fronton az AMD és nVidia közt, így emberi áron is lehetett a korszak játékaihoz mérve relatívan erős kártyákat venni (kedvenc időszakom volt, mikor 60k bruttóért meg lehetett venni egy erős középkategóriás AMD kártyát, ami jelentősen gyorsabb volt, mint az előző generációs megfelelője, nem csak 15-25%-ot hozott egy generációváltás), akkoriban vált megfizethetővé az 1080p60 és azt követően lett kvázi minimum az "enthusiast" rétegnél.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz s4hu|SyD^ #22661 üzenetére

    Baromi hatalmas placebó elvárás övezi a VRR-t ezen a téren. :(
    Soha sehol sem ígéri a technológia, hogy vajsima lesz tőle a ~30fps, mégis mindenki ezt várja tőle, vagy akár meggyőzi magát, hogy teljesül is az irracionális elvárása.

    Te pl. összevetetted már valaha a mozgóképfelbontást ~30fps VRR és fix 60fps közt, majd megnézted mellé a fix 120fps-t is? Fogadok, hogy be volt kapcsolva a szoftveres motion blur effekt (és akár az FXAA), amitől eleve merő blur volt a kép, ezért nem tűnt fel, hogy az LCD kijelzőn akkor is látsz motion blur-t, ha nem elég magas az fps (>>60fps, jellemzően >120fp kell, hogy ez fokozatosan eltűnjön), mindegy hogy sync-elsz (vagy akár nem is sync-elsz sehogy).

    Ugyan ez megvan a mozgás folytonosságának érzetében is. Attól még, hogy nem "dadog" a 40fps VRR mellett, még az emberi érzékelés és élmény teljesen más 30, 60, 120 fps mellett (mindháromnál). A 30fps mindig "darabos", akkor is ha fix 30, akkor is 30 köré átlagoló VRR. A 60 mindig határeset lesz, csak BFI-vel együtt lesz jó, BFI nélkül 120+ kell, hogy vajsimának fogadja el az agyad.

    És attól, hogy nincs igényed a vajsimaságra és/vagy tű éles mozgóképre, még nem változik meg sem a fizika törvényszerűsége, sem az emberi érzkelés működése, egyszerűen csak te kötsz egy kompromisszumot és elfogadod a tökéletlenséget. Ezzel semmi baj nincs, csak ne jelentgessük ki, hogy márpedig amit egy valaki elfogad elég jónak, az már tökéletes. :U

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz ÁdiBá #22665 üzenetére

    Engem idén egyelőre ez az egy új játék érdekelt csak, és ezért cseréltem VGA-t:
    GTX 1070 - 1080p - 2101/4556MHz - 106% TDP (~240W), 43fps (screenshot)
    A másik régi-új a Witcher 3 lesz, oda talán elég lett volna a 290X, de nem fog ártani a 1070 (nem nagy ügy, de bekapcsolhatom a HairWorks-öt, stb).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz ForRedGlory #22669 üzenetére

    Próbáltad már összevetni az ULMB fix 60Hz és az ULMB nélküli fix 120Hz módot, hogy érzésre mekkora a különbség folytonosság szempontból?
    Ha elég jó az ULMB mód, vélhetően akkor is a 120Hz nyer, de sokkal kisebb lesz a difi, mint ha fix 60Hz-en csak az ULMB-et kapcsolgatnád ki/be. (De azért megjegyzem azt is, hogy szokni kell az ULMB-t: elsőre nagyon kellemetlen érzés lehet, ami pár óra után javul, de napokig, akár hetekig is eltarthat, mire tényleg hozzáidomul az ember, és elkezdheti értékelni.)

    Minden út Rómába vezet, de nem csak egy ösvény van. ;)

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz KRoy19 #22677 üzenetére

    Másképp működik. A névleges 120nit helyett (mondjuk sötét szobás master monitort 80-100 közé szokták állítani a gyakorlatban, míg világos szobákban, főleg ahova még a nap is közvetlenül besüt, ott akár 200-300 köré is felhúzzák a felhasználók, de valamire bökni kellett, mint egy "jellegzetes" SDR peak luma) mostanában általában 1200nit-re készítik az anyagot a studióban (a szabványok kereteiben mehetnek fentebb is, vannak 3000nit-es master monitorok is, viszont a consumer kütyük úgyis 1200 körül állnak meg manapság, sőt azt is csak dinamikusan tudják: csak rövid időn át tartják és/vagy csak kis foltokban, nem teljes képernyőt beterítve több percen át, mert ahhoz masszív táp, jól terhelhető LED, és jó, akár aktív, vagy vaskos passzív hűtés kellhet a mai technológiákkal és nem lesz "szuperzöld bolygóvédő", ha rá kell írni, hogy akár száz wattokat is bekajáhat, mint csúcsfogyasztás), de a szokásos 8 helyett 10 bites címzéssel. Ez is ~10x fényerő tartomány (legalább is lineárisan, ami emberi érzékelés szempontjából más, de fejből nem mondom meg saccra se, hogy mennyi, a lényeg hogy sokkal több ránézésre is) és 4x címzési tartomány.

    Egyrészt akár azt is meg lehet csinálni (nem fogják, de lehetne), hogy továbbra is csak az alsó 120nit-et használja egy HDR-ben master-elt tartalom, mert egyszerűen nem megy soha magasabbra, úgymond "üresen hagyják" a felső tartományt (mint ahogy ma is üres az SDR teteje egy olyan videóban, ami pl. elejétől végéig egy sötét pincefalat mutat, ott a HDR sem fog ívhegesztőt játszani és elvakítani).

    Másrészt, ami szerintem jó is, ha alapvetően minden az alacsony régióban marad, kivéve néhány jelenetet, ahol pl. látjuk a napot az égbolton, vagy a korábbi példában belenéz a kamera egy gyertyalángba, és ott azok a foltok magasabb fényerővel hasonlóan elvakítanak (hasonlón, de nem egészen, mert az nem is egészséges, de mindenképp kellemetlen), mint ha te néznéd az égbolton a napot, vagy a gyertyalángot.

    Harmadik verzió, amitől félek, hogy 90%-ban ez lesz: "brutal bloody über auto-tune" -> igyekeznek a 120nit feletti régióba tolni minden "lanse flare" és hasonló "speciális effektet" (itt most inkább filmekre gondolok, de ugyan így játékokban is), illetve ráeresztenek a képre valami post-process szűrőt (itt pedig inkább a játékokra nézek morcosan, de nem riadnak majd vissza ettől a filmesek se, csak ott visszafogottabbak lesznek), ami "újrasimítja" a képet úgy, hogy mindig legyen rajta sötét és nagyon világos folt is, közte pedig szintetikusan újraskálázza az átmenetet (majdnem valami olyasmi, mint annak idején a 2D->3D konverziós mód a TV-ken, vagy akár csak a studióban "3D-sített" 2D-ben forgatott filmek a mozikban), így gyakran lesz tolakodó, parasztvakító a HDR tartalom (majdan tisztelet a kivételnek, ahol nem parasztvakításra, hanem minőségre mennek és nem, vagy csak ritkán/finoman csinálnak ilyet).

    Mindazonáltal a HDR támogatás elsődlegesen szoftver, avagy firmware kérdése. Vagy úgy is mondhatnánk, hogy egy keretrendszer, egy szabványos konténer. A lényeg, hogy fogadja az eszköz a formátumot, aztán majd csinál vele, amit lehet az adott kijelzőpanelen, pl. visszaskálázza 1200nit-ről (vagy ami benne van az anyagban, mint metadata, hogy mire master-elték) annyira, amit az adott kijelző tud, illetve ahova állítottad a csúcsát, elvben akár 3000-ről is visszaszámol mondjuk 300-ra (bár hogy a gyakorlatban ezt jól, vagy hibásan fogja csinálni a legtöbb megjelenítő, az jó kérdés, mert ma is van hogy 1200-ről 800-ra is szarul vág vissza olyan TV, amin 800 az elérhető csúcs és nem veszi figyelembe, ha 800 alá állítottad be, vagy épp ha ő dim-elt le a korábban említett okokból [alulméretezett táp, hőtermelés, OLED beégés elkerülése, stb]).

    Szerintem amúgy több értelme van a magas natív kontrasztnak, mint a magas csúcsfényerőnek, de ezzel kisebbségben leszek (akár szubjektív élményből, de főleg marketingagymosás szempontból is). De attól még rossznak nem rossz, sőt, egész okosan csinálják ezeket az UHD szabványokat (kivéve a szabványháborút ITU vs. Dolby).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz KRoy19 #22693 üzenetére

    Én is inkább csak a felét adnám ki egy monitor méretű LCD-ért, de azt is csak akkor, ha munkára, vagy versenyszerű/mániákus FPS játékra kéne.

    Ennyiért kapsz használtan egy kifutott generációs 55"-os OLED TV-t, amin lenyűgöző a kontrasztélmény, főleg HDR-el együtt. Azon játszhatsz olyan játékokat, amiknél nem fontos az alacsony lag, és precíz célzás, valamint nézhetsz UHD HDR filmeket is megelégedéssel, kényelmes távolból

    + lehet mellé egy "alapmodell" a G-Sync táborból, ami "csak" 2k és SDR, sőt azon belül is vacakabb féle (mert nem a képminsőgre mész, hanem a játékteljesítményedre: hit/kill, kill/death, és hasonlók, nem állsz le pillangókat nézegetni :D), de legalább alacsony a lag és pöröghet 100+ fps-el (mert 2k-ban lesz is rá esély, hogy a VGA is kitol annyit, mert 4k-ban ne akarj >100 fsp-t, esetleg nagyon visszafogott grafikával néhány, vagy régi játékban). Ezt ráteheted egy gurítható asztalra, és betolod a TV elé, ha "gyorsan" akarsz játszani.

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz hackeeeee #22711 üzenetére

    Ha egymás mellett akarod összevetni, eleve csak úgy van értelme megpróbálni, ha ugyan abból a készülékből van kettő, csak az egyik HDR, a másik SDR anyagot kap, amikből mindkettő "helyesen" van master-elve. De még akkor is kicsit olyan az összehasonlítás, mint alma és narancs közt.

    Egyrészt szükséges bízni abban, hogy a képanyag "purista", netán abszolút minimális fényeléssel jön a nyers RAW-ból (de ilyet szinte sehol sem fogsz látni :DDD). Ilyenkor a HDR-t kell referenciának tekinteni, mert az a tágabb "konténer". Emellett olyan jelenetre van szükség, amin láthatóak viszonylag sötét és fakó (bőven SDR kereteken belüli) és vakítóan világos, kicsattanóan színes részek is egyszerre.

    Ilyenkor elvileg azt kéne látni, hogy HDR-ben minden viszonylag sötét és fakó szín pontosan ugyan olyan, mint az SDR módban (mindkettő képes reprodukálni az eredetit), viszont emellett HDR-ben megjelennek a képen olyan kicsattanóan élénk színek is, amik az SDR képen fakóbbak/sötétebbek a HDR-hez képest, ráadásul ilyenkor általában ezek a részek SDR-ban kicsit "beéghetnek" (nem látsz bennük annyi részletet, inkább csak egy homogén foltot), míg HDR-ben több részletet látsz ezeken a képelemeken is.

    Ha nem így csinálod, akkor beleszól az, hogy a két eltérő TV más és más sok mindenben (főleg ha nincsenek egyedileg kalibrálva ugyan azzal a műszerrel), az hogy ha mindkét TV helyesen jeleníti meg a saját anyagát, akkor sem ugyan azt kapják, hanem a demó kedvéért "torzított" tartalmat mutatnak, illetve vagy nincs is olyan az adott anyag jeleneteiben, amin kell látnod bármi különbséget, vagy az lesz csalóka, hogy csak olyat látsz a HDR-en, amit nem tud megjeleníteni rendesen az SDR.

    Még egy szemléltetés:
    - Ha átkonvertálok SDR-ból HDR formátumba egy videót, 1:1 ugyan azt kell látnom visszajátszáskor, mert a HDR tágabb, de ettől még 1+1=2 mindkét "világban" és soha egyik képlet sem ad eredményül 5-öt, így nem szálunk el 5-ig
    - Visszafelé viszont, ha HDR-t kódolok SDR-ba, akkor abból levághat részeket a konvertálás, ugyanakkor 1+1 az továbbra is 2, ahogy 2+2 is ugyan úgy 4, csak itt már lehet hogy volt az eredeti HDR-ben 6+6=12, SDR-ban viszont nem tudsz 5-nél tovább számolni, így levágod a 12-t is 5-re (de ez nem számít semmit, ha az eredeti HDR anyagban sem volt soha 5-től több)

    Még egy uccsó:
    - ha színes TV-n nézel szürkeárnyalatos (köznyelvben "fekete-fehér" filmet, akkor az ott is szürke kell legyen, nem szabad színeket látnod, mert azok nincsenek ott az anyagban (ha színes a kép, az hiba/csalás)
    - ha színes filmet nézel szürkeárnyalatos TV-n, akkor nyilván lehetetlen is színeket látnod
    - ha olyan anyagot nézel, ahol a kép bal fele színes, jobb fele szürkeárnyalatos, akkor a szürkeárnyalatos TV-n mindig szürke minden, de a színesen is szürke kell legyen a szürke oldal, míg színes a színes oldal, de nem lehet színes az egész
    ... na, ugyan ez a HDR vs. SDR, csak sokkal sokkal kisebb léptékben.

    De megsúgok valamit: a legtöbb TV gyári képmódban marha színessé tudja varázsolni a szürkeárnyalatos filmet. Van is egy ilyen vicc, hogy ha pöpecül egyforma színű szürkéket látsz egy random TV-n, akkor az valójában egy régi szürkeárnyalatos TV modern HDTV-nek álcázva, ami nem is képes színekre. (Drága PC monitorokon sokkal jobb a helyzet, inkább a TV-k imádnak "újraszínezni".)

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz abridabri #22731 üzenetére

    De bármikor átalakíthatod az egybefűzött vízkört passzívra, az sokkal halkabb. ;)

    (#22738) sqpp - Rettenet drága? Akkor tessék átfáradni a 1050Ti vagy RX460 topic-ba, mert ezek a VGA-k is azok. :P Egy FC blokk ára néha megvan különbözetként a legolcsóbb és legdrágább custom 1070-esek közt.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Ferdzsoo #22737 üzenetére

    "Halkabb a gép nem lesz, a radira ugyanúgy kell a venti"

    Ilyen akkor van, ha magadnak építesz vizet, mégis elveszel a gyártói és fórumos ajánlásokban "azt úgy kell / azt csak úgy lehet" jelleggel ahelyett, hogy tényleg magadnak csinálnád és átgondolnád hogy lesz jó. Lassan már vagy 10 éve, hogy nincs ventilátor a gépemben, csak blokkok, vízpumpa és egy nagy passzív radiátor. Egyszer kellett pumpát cserélnem (öregségben meghalt az első), a radiátor szinte örök élet, de a CPU, sőt hihetetlen módon még az alaplapi VRM blokkjaim is megvannak már a Core2 Duo korszak óta, mert rámentek a Sandy lapra is a CPU blokkal együtt, minimális farigcsálás/fúrás után, talán továbbvihetném őket Syklake-re, de nem akarom, már esztétikailag is zavar a retro/sufnimod kinézetük, ami 5 éve még tetszett is), a VGA blokk a legdrágább móka, de legalább motivál, hogy ritkábban cseréljem magát a VGA-t is (de ahogy lentebb is írtam, van aki elkölti az FC blokk árát két hasonló 1070/80 kártya közt, csak mert jobban teszik neki valamelyik márka/kivitel apró előnye).

    (#22742) abridabri - Nekem valami ilyesmi van: [link] (teherautó alkatrész, még a légtelenítést is gyerekjáték, mert a betöltőnyílás a legmagasabb pont)

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Laraxior #22744 üzenetére

    Az egyébként miért jó, ha a gyári határértékektől jelentősen alacsonyabb tartod?
    Vedd le róla a kezed, vagy más érzékeny testrészed, és akkor nem fáj, ha forró. :DD

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz hackeeeee #22827 üzenetére

    Ragályos ez a lag fóbia. :O

    Régen, mikor szinte senkit nem érdekelt / nem tudott róla (ha zavarta is valami, akkor sem biztos, hogy ismerte/értette az okát, mert nem volt még ennyire divatos téma és akár biztos megoldás sem volt még rá elérhető), én akkor is jól tudtam, hogy kb. mekkora a lag-om (még műszerrel is meg tudtam mérni magamnak némi hibával szoftvertől képernyőfényig: jelenleg DWM-el Win32 ablakban, avagy 60Hz Vsync-el együtt ~100ms), de ahogy hánytam-vetettem a dolgot, elfogadtam, hogy semmi sem tökéletes, nem kaphatok meg mindent egyszerre (főleg nem véges pénzösszegért: képátló, kontrasztarány, homogenitás, legyen elég jó filmre és játékra is, márpedig előbbinél csak a strobing [avagy ULMB] mód segít...).

    De mióta rendszeresen belebotlok a társalgási témába, azóta elkezdett ingerelni játék közben. Valahogy úgy, hogy eddig a szőnyeg alatt tartottam a dolgot, de mostanában "nem tudom nem látni" a lagot, mikor V-Sync 60Hz-el játszom. Kiszabadultak a gonosz manók a fejemben és nem akarnak visszaaludni. :))

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Puma K #22844 üzenetére

    TV-n játszom, egész konkrétan egy Pioneer LX5090H-n, de csak offline.

    [epéniszmutogatás]FullHD TV-k közt az abszolút csúcs hardware + az enyém egyedileg van tuningolva, úgyhogy csak egy OLED ver rá kontrasztban, semmi más PDP, főleg nem LCD. 560W-os táp és 4 hybrid ventilátor van a dobozban szükség esetére, bár szerencsére még sohasem pörgött fel egy se. Két ember kell a mozgatásához és új korában közel egy nullával hosszabb volt az árcédulája, mint amit én adni tudtam érte használtan. ;][/epéniszmutogatás]

    Vsync nélkül nem igazán érzem a lagot, de azzal együtt már igen. Ha klón módban nézek vele fej-fej mellett GPU->LVDS notebook LCD-t (amin általában elhanyagolható a lag), akkor is csak minimális késést látok a kettő közt, mikor direkt erre koncentrálok. De ha ki/be kapcsolgatom a Vsync-et, akkor valahogy úgy írnám le az érzést, hogy "megkönnyebbül az egér", mint ha tompítaná az egérmozgást a Vsync (és úgy is sokszor túlhúzom a célkeresztet, hogy hozzá vagyok szokva, de ezt is csak azóta tudom, hogy tesztelgettem a játékvideó rögzítést). Bár ez sem egyforma minden játékban! Szerintem van amelyiknél mindenhogy magas a lag (Frostbite-nál szoktam ezt érezni, bárhova kapcsolgatok bármit, pl. prerender limit, ezzel a motorral nem szívesen vállalnék vaktesztet semmi ilyesmire), míg másoknál minimális (pl. Unreal 4 motors játékban, amiben vállalható a FastSync is, mert 300+ fps van, ott bármikor vállalnék vaktesztet -> legutóbb az Alien Isolation-be néztem bele).

    Szóval nekem szerintem kaland/roleplay, néha offline TPS lövölde mellé bőven jó lehetne majd egy 120Hz-es HDMI 2.1-es VRR-es OLED TV (azért VRR, mert ahhoz ugye nem kell Vsync), amin egy korrekt képminőségű módban is alacsony az extra lag (= az a lag, amit a belső képfeldolgozó tesz hozzá a lag szempontból elméletben ideális belső felépítéshez képest, amit pl. a Gsync monitorok is használnak: real-time scan-out és hasonlók...). Majd kiderül, de az még évek kérdése.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz hackeeeee #22840 üzenetére

    lag @ szotar.sztaki.hu: lemaradás, késés, késedelem.

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz TTomax #22893 üzenetére

    Talán azért sem annyira egyértelmű, mert nem mindig jelez vissza VRel-t, pl.:

    Amit én nem értek, hogy bár nálam elvileg 127%-ra tolható a TDP keret, úgy tűnik, hogy ez a valóságban csak 105% lesz (100%-ra állítva 99%-nál áll meg az AB féle PW grafikon, szóval "valamit" csinál a csúszka, csak a tényleges mérték a kérdéses), ott mindig elkezdi visszadobni a boost órajelet.

    Viszont összességében így sem ártott neki eddig a gyakorlatban a +100 Voltage csúszka, mert mikor elkezdi megütni a 105% TDP-t (pl. MEA Tempest), akkor csak annyit lép vissza a clock, ahol a kisebb feszültséggel tetőzne, viszont mikor nincs TDP limit, akkor messzebb is eljut. (Persze fogyasztás szempontból nyilván pazarlás, de nem drasztikus, illetve ez csak egy játék, majd megnézem még TW3-ban, az lesz a következő amit végigjátszok.)

    A másik, hogy az AB és GPU-Z nem mindig értenek egyet a relatív TDP-ről, pl.:

    FurMakr-ban már nyerek 10-20 MHz-et kilengésszerűen felfelé, ha nullázom a +100 Voltage csúszkát (szóval a MEA féle terheléshez képest inverzben van, vagy semmit nem csinál, vagy kicsit ront a feszemelés).

    (#22848) RazoR -> A Razer CP szerint ki van kapcsolva a a gyorsítás, és van egy ilyenem a registry-be importálva, hogy "MarkC Windows 10 MouseFix", de ez elvileg csak a régi/buta játékokat érinti, amik direkt kérik a Windows-tól a skálázást (és az XP félére számítanak, de másfélét kapnak az új Windows-októl).
    (#22849) hackeeeee ^^ :P :P :P ^^

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz HussarF #22925 üzenetére

    Én rögtön frissítés után (korai frissítő voltam, felraktam amint kikerült netre, akkor azt hittem csak ezért futok bele ebbe, és mire mindenki megkapja, már elsikálják) kikapcsoltam mindent, amit csak ki lehet a Game menün belül. Nem kellett hozzá Fast Sync, sőt akkor még AMD VGA volt ebben a gépben, és több 3D-s cucc is csak fekete képernyőig jutott, míg le nem lőttem ezeket. De nem kellett hozzá google, vagy sok fejvakarás, mert tudtam, hogy ezek újdonságok, vagy alaposan változtak (egyrészt átfutottam a frissítés újdonságainak listáját, másrészt feltűnő, hogy megjelent egy komplett Game menü a "modern" vezérlőpultban) és könnyű volt tippelni rá, hogy ez okozhatnak bajt.

    Ezen kívül szerintem semmi gond nincs vele (az RS2/CU Win frissítéssel), csak ezeket a funkciókat alapértelmezésben Off-ra kellett volna tenni és esetleg "csak saját felelőssége tesztelhető funkciók" felirattal ellátni őket a következő nagyobb Win frissítésig (RS3 már szeptemberben). Mondjuk lehet, hogy a VGA driverek keze is benne van a dologban, de ettől még itt mégis csak a Microsoft hibájának minősíteném, hogy alapból bekapcsol olyasmit, amire legalább két nagy gyártónak nincs még megfelelő driver-e a Win frissítés megjelenésekor (már ha tényleg köze van hozzá a driver-nek is, de ez csak spekuláció részemről).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz KRoy19 #22955 üzenetére

    Az LG féle WRGB pixelstruktúra csak a színhelyességet szokta hazavágni (ráadásul dinamikusan, hogy a mára már bejáratott 3DLUT elő-feldolgozással sem lehet rendesen kisimogatni, 4DLUT kéne, amire nincs kéznél elérhető megoldás és amúgy is reménytelen sziszifuszi meló lenne minden tekintetben), és ez is inkább szoftveres gond (pontosabban maguk alatt vágják a fát, hogy a WRGB jelentősen megbonyolítja a képfeldolgozást, amire nincsenek kellően felkészülve / nem elég alaposak a szoftvereseik...). De legtöbbek ezt észre sem veszik, mert eleve meg sem próbálják színhelyeshez közeli képmódban/beállításokkal használni, és akkor sincs mellé referenciájuk, vagy objektív műszerük. Az effektív képélességre, avagy a nagy felbontás észlelhetőségére szerintem nincs számottevő hatással (legalább is én nem figyeltem meg ilyet az OLED-jeiken, igaz nem ezt figyelgettem, már máson felakadtam hamarabb, mielőtt közelebb kerültem volna hozzájuk, az LCD-ket pedig kerülöm, mint a leprát).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz #00137984 #23033 üzenetére

    Az RX 480/70 kártyákról szerintem már megjelenéskor egyértelmű volt, hogy körülbelül azt tudják, amit a 290/X, csak kevesebb fogyasztásból, viszont legalább annyival drágábbak (voltak főleg bolti áron, de lettek később is használt/használt viszonylatban), mint amennyivel kevesebbet fogyasztanak pár év alatt átlagos otthoni használatra (és közben annyival nem eszik kevesebbet, hogy emiatt sokkal halkabb legyen a hasonló kategóriájú léghűtős kivitel, mert kisebb a NYÁK, így jellemzően kisebb és kevesebb hűtőt és ventilátor/oka/t aggatnak rájuk).

    A GTX 1070 azért érezhetően gyorsabb ezektől a Radeon-októl (és nincs meg az az eredendő bakija, mint a Furikának a 4Gb VRAM, ami néhány játéknak pont nem elég a legmagasabb textúra beállítással, pedig ha van elég RAM ez alig lassít), ami főleg akkor jelenthet sokat, ha épp ennyi hiányzik a "boldogsághoz". Közben nem is fogyaszt jelentősen többet, mert mikor felszökik az órajel maximum, akkor sem feltétlenül nyal be sokkal többet, mint ~50% TDP-t "csak mert magasan jár" (a 290X az nálam azonnal fűteni kezdte a vizet idle is, ha kiakasztottam az órajeleit maximumra, a Polaris-al már kicsit jobb).

    Ez az első Zen pedig szerintem nem igazán játékra való CPU.

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz iguana #23123 üzenetére

    Ha sírni akarsz, csak szólj és hozom fényképezőgépem. :))

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

Új hozzászólás Aktív témák