- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Microsoft Excel topic
- Crypto Trade
- Súlyos adatvédelmi botrányba kerülhet a ChatGPT az EU-ban
- MinDig TV
- Rendszergazda topic
- Mindenki AI-t akar, már 2025-re is eladták a HBM chipeket
- Proxmox VE
- Kapnak egy rakás reklámot a Roblox játékosai
- ArchiCAD és Artlantis topik
Új hozzászólás Aktív témák
-
Milaraspa
lelkes újonc
Nem értem mi ebben a nagy szám. A fényerőskálát széthúzzák és kész, nem?
-
Pingüino
senior tag
Ki tudja, hogy ezt pontosan hogy oldják meg?
Ugye az eredeti HDR-nek pont az a lényege, hogy már eleve több különböző fényérzékenységi beállítással rögzítenek minden képkockát, és a software úgy rakja össze belőle a HDR képet, hogy a részletgazdagság megőrzése mellett legyen nagyobb a kontraszt. Ha egy SDR képből utólag konvertálnak HDR-t, annak eléggé kérdéses az eredménye. Legrosszabb esetben valóban csak "széthúzzák a fényerőskálát", legjobb esetben meg valami MI dolgozik, és megpóbálja kihozni a sötét részekből a részleteket. Ez meg valahol a kettő között lehet.
Aztán hogy ez nem felvett élő képnél, hanem generált képnél hogyan működik, az megint más kérdés.[ Szerkesztve ]
-
Dester31
tag
Én már annak is örülnék, ha a HDR rendesen működne. (Néha nem fakulna ki a kép bekapcsolt HDR-rel, amihez ki és be kell kapcsolni újra, stb...) Botrány, hogy mennyire szar a Windows HDR kezelése.
Des
-
Aethel
aktív tag
Én a múlt héten küldtem vissza a Samsung C49RG90 monitoromat mert egyszerűen nem sikerült belőle HDR képet kicsiholni. A szervíz alaplapcserét csinál rajta, de szinte biztos hogy nem segít rajta mert kétlem hogy azzal lesz a baj. Hihetetlen hogy 2021-ben eladnak olyan monitorokat HDR1000 Vesa szaRbvány hitelesítéssel amin aztán max youtube videót nézegethetsz, de abból is csak 2 ami valóban HDR, a többi mind okádék fakó és szürke.. Én ettől a megoldástól sem várok túl sokat.
-
kisfurko
senior tag
Nem, a HDR csak annyi, hogy a 8 bites egész ábrázolás helyett egy pontosabb formátumot, pl. FP16 használnak leképezéskor. Mivel régen a monitorok csak 8 bpp felbontással tudtak képet adni, ezért ezt valami tone-mappinggel lekonvertálták 8 bpp-re.
Nincs általános megoldás, mindenki olyan tone-mappinget használ, amilyet akar, plusz ott van még a bloom effekt is, ami bezavarhat a végső képen. -
Pingüino
senior tag
Igen, csak hiába nagyobb a bitmélység, és fér bele több árnyalat, ha nem kerül bele több árnyalat, akkor semmi haszna. Önmagában a nagyobb bitmélység még nem HDR. Kell hozzá, hogy a nagyobb bitmélység ki is legyen használva. Azt pedig rögzített képnél úgy oldják meg, ahogy leírtam.
Generált képnél annyiban másabb a helyzet, hogy nem a kamerák fényérzékenységével kell játszani, hanem a játéknak kell a képet nagyobb bitmélységgel számolni. Ha ezt nem teszi meg, akkor szintén hiába növeljük meg a bitmélységet, önmagában attól semmit nem nyerünk, csak egy kis plusz fényerőt. Az felér a parasztvakítással.
Kicsit olyan ez, mint a képfelbontás felskálázása. Ha van egy alacsony felbontású képed, amin annyi részlet látható, amennyi, akkor hiába csinálsz belőle nagyobb felbontású képet, az elveszett részletek nem fognak megjelenni. Itt sem elég pusztán 10 bitesre konvertálni a képet, és csókolom. Kell valami algoritmus, ami legalább megpróbál visszanyerni valamennyit az árnyalatokból.
[ Szerkesztve ]
-
NomadND1
senior tag
Nagyon remélem, hogy kikapcsolható lesz. Egyre inkább azt érzem linux a jövő. Ott még nem tolnak minden sz.r az arcodba, hogy ez jó lesz neked.
-
dokanin
aktív tag
A HDR-t még kameráknál csak értem. Kitalálnak valamit, amivel részletgazdagabb kép rögzíthető. De, hogy egy monitornál a HDR mit jelent, azt tényleg nem vágom. Már száz éve kb minden monitor minden pixele egymástól független és bármilyen színt felvehet. Innentől kezdve milyen pluszt lehet ehhez még hozzáadni az alapvető minőségi kritériumoktól függetlenül, amit HDR-nek lehet elnevezni?
-
#72042496
törölt tag
XBOX-on kikapcsolható, én spec. bekapcsolva hagytam, mert amúgy tényleg jó.
***
Nem tudom, PC-n hogyan fog működni, vajon automatikusan vált végre akkor is, ha a desktop SDR-ben fut? Illetve mindenféle játékkal működni fog, vagy csak az MS Store-ból megvett játékokkal?
A korábban emlegetett, vacakul működő, vagy épp nem működő PC-s HDR lett a mérleg nyelve, amiért most nem is gondolkodom abban, hogy a tévére is kössek egy PC-t.
[ Szerkesztve ]
-
Pingüino
senior tag
A bitmélység, amiről kisfurko is ír, az kb. annyit jelent, hogy a fényerősség skálázása mennyire finom. Tehát hogy a legkisebb és legnagyobb fényerő között hány részre van osztva a skála. A hagyományos otthoni világítás pl. 1 bites. Vagy fel van kapcsolva a lámpa, vagy nincs. A hagyományos SDR kép 8 bites, ami azt jelenti, hogy 2^8=256 felé van bontva a skála a legsötétebbtől a legvilágosabb pontig. (Ha a színeket is nézzük, akkor ez színenként értendő, tehát 256 felé van osztva a vörös, a kék és a zöld színkomponens is, így ezek kombinációjából összesen 16.777.216 szín állíthaó elő). A HDR tartalom ezzel szemben a sima HDR formátumnál 10 bites, a HDR+ és Dolby Vision tartalomnál 12 bites. Előbbi esetén 1024 féle fényárnyalat jeleníthető meg, és összesen kb. 1 milliárd szín, míg utóbbi esetén 4096 fényárnyalat, és összesen kb. 69 milliárd szín. Na most egy felvétel hiába van HDR kamerával rögzítve, 10 vagy 12 bitesben, ha a megjelenítő (monitor, TV, projektor) nem képes annyiféle árnyalatot megjeleníteni, akkor elvesznek a felvételkor nyert részletek a képről. Egy LCD megjelenítő pl. elég nehezen birkózik meg a HDR tartalom helyes megjelenítésével. Mivel vannak HDR minősített megjelenítők, elvileg képesek rá, de nem egyszerű. A local dimming, vagy az OLED viszont nagyon sokat segít ezen.
[ Szerkesztve ]
-
#72042496
törölt tag
"A bitmélység, amiről kisfurko is ír, az kb. annyit jelent, hogy a fényerősség skálázása mennyire finom. Tehát hogy a legkisebb és legnagyobb fényerő között hány részre van osztva a skála."
A bitmélység a lehetséges színárnyalatok számát adja meg (ezt írod is később), a fényerő viszont egy másik dolog. HDR-ben az EOTF görbe írja le a fényerőt, és SDR-rel ellentétben itt abszolút fényerőről van szó.
[ Szerkesztve ]
-
-
félisten
az Én Samsungom sem képes értelmes HDR megjelenítésére. Én belenyugodtam, hogy csak marketing fogás, valójában messze van a kijelző tudása ahhoz, hogy HDR élményt adjon, főleg miután láttam mit produkál HDR minőségben a barátom 9077 Braviája rájöttem, hogy esélytelen ez az én monitoromnál...
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
#72042496
törölt tag
HDR-nél szerintem nem lehet megúszni a színteret, a színmélységet és az EOTF görbét, mert ezek, illetve az egészet leíró metaadatok miatt lesz más, mint az SDR.
Jó kijelző tényleg "kell" hozzá. Én OLED tévén szeretem, többnyire amúgy is HDR megy rajta, az auto HDR óta méginkább.
-
Pingüino
senior tag
-
#72042496
törölt tag
Korábban Samsung KS8000-et használtam huzamosabb ideig, azon sem volt nagy szám a HDR. LG C8-on tényleg teljesen más. Az újabb FALD LCD-k is bíztatóak aszerint, amit láttam belőlük. De otthon is mégnézném, hogy mit produkálnak, nyitásnak most épp Outer Wilds-szal.
[ Szerkesztve ]
-
dokanin
aktív tag
Köszi az infót.
És mi van azzal, hogy állítólag az ember szeme max 2 millió színt tud megkülönböztetni. Anno ezt mondták, amikor bejött a 24 bit-es megjelenítés.
Ezek szerint ez nem igaz?Ja és, hogy lehet egyáltalán megjeleníteni HDR tartalmat mezei kijelzőn? Gondolom nem lehet csak simán levágni azt a pár plusz bitet. Ilyenkor van valami konvertálás a háttérben?
[ Szerkesztve ]
-
Pingüino
senior tag
Ha HDR tartalmat nem HDR képes kijelzőre teszel, akkor egyszerűen eltűnnek a részletek. Teljesen jó analógia a felbontás kérdése. Ha fogsz egy 4K-s (3840x2160) filmet, és egy sima FullHD (1920x1080) felbontású kijelzőre teszed, akkor 4 pixelenként átlagolja a pixelek színét, és csinál belőlük 1 pixelt. Nem pont ugyanez történik a HDR/SDR kérdéskörben, de ahhoz, hogy el tudd képzelni, teljesen jó hasonlat. Ugye HDR-nél van metaadat a fényerőre is, SDR-nél meg nincs, de maga a színárnyalat egyszerűen átáll a legközelebbi 8 bitesre. Ugye 8 biten mindhárom szín 256 felé van osztva, 0-255-ig. 10 biten meg 1024 felé, 0-1023-ig. Ha 10 biten egy pixel színkódja mondjuk (666, 0, 0), ami valami piros szín, az 8 biten (166.5, 0, 0) lenne, de egész számokat lehet csak írni, így beáll (167, 0, 0)-ra.
Hogy hány színt tud megkülönböztetni az ember, az nem ennyire egyszerű, nem lehet egy számmal leírni. Függ a fényerősségtől, attól, hogy a felismerni kívánt szín az éleslátás helyén, vagy a periférián helyezkedik el, függ eleve a színtől is, zöldből sokkal több árnyalatot ismer fel az ember, mint kékből, vagy pirosból. Függ az egyéntől is, bizonyos emberek (ezek általában festőnek mennek) akár 2x-3x több színt tudnak megkülönböztetni, mint mások. Meg hát ugye a HDR nem csak a színekről szól, az csak egy része. a szürkeárnyalatos részletgazdagság is más, meg az elvárt max. fényerő is más.
De egyébként ezt elmagyarázni elég nehéz. A legjobb, ha elő tudod venni ugyanazt a videóanyagot SDR-ben, meg HDR-ben, és egy jó OLED TV-n megnézed mindkettőt. Ott jól látható lesz a különbség.
[ Szerkesztve ]
-
Dester31
tag
És akkor itt jön be az FRC, mint játék, hogy gyorsan villogtatja a monitor a példádban 166,0,0-t és 167,0,0-t, amitől 166.5-nek fogod "érezni". Nekem is pszeudo 10bit (8bit+FRC) a monitorom, HDR400.
Akit érdekel, itt van kis leírás az FRC-ről: https://www.isolapse.com/true-10-bit-vs-8-bit-frc-monitor-what-is-the-difference/Rátérve a HDR-re, az összes PH tesztben leírják, hogy a HDR 400 esetén a HDR "effekt" nem látványos, de mégis, ha nálam ki van kapcsolva, akkor eszméletlen "döglött" lesz a kép a bekapcsolt HDR-hez képest ugyanazon a monitoron.
Ahogy írtad is, az OLED tévéken még jobban kijön. LG OLED tévém van, és az Expanse ötödik évadát már HDR-ben sikerült "streamelni" (shame on me), és el voltam teljesen alélva a képminőségtől a negyedik évad nem HDR változatához képest. Úgy, hogy mindkettő 4K volt, ráadásul a negyedik évad kétszer akkora bitrátával.Des
-
julius666
addikt
Szerintem egy halandónak sokkal többet számít a HDR jóval nagyobb dinamika tartománya az SDR-hez képest, mint a több megjeleníthető diszkrét színárnyalat az új szabványoknál. Azért a dithering kb. azóta létezik, mióta számítógépes grafika. Az emberi szem lényegesen több színt tud látni egy mezei SDR képen/videón is ennek köszönhetően, mint amit a bitszám "elméletileg" lehetővé tenne... (Az előttem írt FRC is jó példája ennek, az egy hardveres dithering lényegében). Átlag néző számára a magasabb bitszám nem sokat tesz hozzá a dologhoz.
A HDR neve nem véletlenül az, ami. A lényege az az, hogy szépen le lehet vele fedni nagy dinamikatartományú helyzeteket is, ahol SDR-nél komoly kompromisszumokat kellene kötni. Pl. ha egy szobában fotózol, ahol az ablakon besüt a nap, akkor mezei SDR-nél választhatsz, hogy az ablak égjen be, a szoba legyen használhatatlanul sötét, vagy - ha a fényképeződ széles dinamikájú és azt kell a pipeline végén SDR képre leképezned - akkor valami tone mappinggal "összepréseled" a dinamikatartományt, jellemzően baromira természetellenes képet kapva. (Utóbbira jó példa, amit a fényképezőknél/utómunkánál hívnak HDR-nek. Lehet szép képeket kapni így, de baromira nem természetes a kinézetük.)
Rendes HDR megjelenítőnél meg mind a szoba részletgazdag tud maradni (nem lesz túl sötét), mind az ablakon kilátsz (nem ég be), bármilyen elborult grafikai varázslat nélkül. Egyszerűen természetesebb képet kapsz.
Funfact: a HDR és a 10+ bites színleképzés annyira két külön dolog, hogy - elméleti szinten - bele lehetne simán préselni HDR tartalmat 8 bitbe is, csak igen intenzív dithering kéne a banding artifactek elkerüléséhez. Sok értelme persze nem lenne bevállalni ennek a kompromisszumait, ezért egyszerűbb volt magasabb bitszámot használni a szabványok kitalálásakor (a dithering ugye zajosabb képet jelent, ami vájt szeműeknek bizonyos esetben zavaró lehet, illetve a tömöríthetőséget jelentősen rontja).
-
Csabis
aktív tag
Nekem pl Aoc 2775pqu van max 10bit ami tud de HDR nem igen..
😄 monitort nem cserélek hdr miatt ..120hz sem nagyon aggaszt -
Azt tudjuk, hogy valamilyen adatot is próbál kinyerni a játékból, vagy teljesen post-process.
Abból ítélve, hogy az intro videó is másképp néz ki, sanszos, hogy "buta" post-process.
Viszont 2 eltérő motoron futó játékot is kipróbáltam, és míg az egyikben "tetszetősebb" lett a kép, a másikban egyértelműen hülyén nézett ki (úgy világítottak a fáklyákkal világított falak, mint ha reflektor lenne közelről rájuk irányítva).TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
Új hozzászólás Aktív témák
- Milyen TV-t vegyek?
- Gördeszka topic
- Az NVIDIA szerint a partnereik prémium AI PC-ket kínálnak
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Xbox Series X|S
- Anglia - élmények, tapasztalatok
- Konzolokról KULTURÁLT módon
- BestBuy ruhás topik
- Milyen billentyűzetet vegyek?
- 3D nyomtatás
- További aktív témák...
- Újszerű - POWERCOLOR Radeon RX 5500 XT 8GB GDDR6 VGA videókártya
- Hibátlan - GIGABYTE GTX 1660Ti Windforce OC 6G 6GB GDDR6 VGA videókártya dobozos
- Hibátlan - PALIT GTX 1650 StormX 4GB GDDR5 VGA videókártya - tápcsatlakozó nélküli !!!
- ASUS ProArt GeForce RTX 4080 SUPER 16GB GDDR6X OC (ASUS-VC-PRO-RT4080S-O16G) Bontatlan új 3 év gar!
- XFX RX 6600 XT SPEEDSTER SWFT 210