DisplayPort-on keresztül 10 bit, HDMI-n keresztül 12 bit, ez miért van?
Vettem egy LG 24GN650-B monitort, amit először HDMI kábellel kötöttem össze (ahogy az előző monitorokat is használtam), akkor a Windows a speciális megjelenítési beállításoknál a bitmélységnél 12 bit-et írt ki, majd vettem egy DisplayPort 1.4-es kábel és azzal kötöttem össze, ekkor viszont 10 bit-et írt ki.
Eddig erre nem figyeltem, csak feltűnt, mintha az előző monitoromnál 8 bit lett volna, meg is néztem (mert még meg van), és valóban 8 bit-es. Azt gondolom, hogy számomra mindegy lehet, mert eddig se figyeltem, nem is tudtam, hogy van ilyen (bit megjelenítés) téren különbség monitornál, de azért érdekelne, hogy ez mitől lehet? Érdemes inkább HDMI-t használni, hogy 12 bit legyen?
Ez alapján, ha jól értelmezem, kéne tudni a 12 bit-et is a DisplayPort-nak (Color depth support): [link]
A jelenlegi monitor leírásában az szerepel, hogy 8-10 bit.
Képernyő - Speciális megjelenítési beállítások:
"Érdemes inkább HDMI-t használni, hogy 12 bit legyen?"
Ez színenként értendő, tehát a teljes színmélység 3×12 = 36 bit pixelenként.
Igazából teljesen lényegtelen. A szoftverek úgyis max. 24 bites színmélységet (8 bit összetevőnként) használnak, az emberi szem meg még ennyit sem képes elkülöníteni. Sőt, gyanítom, a monitor sem képes ténylegesen ennyi árnyalatot helyesen megjeleníteni.
Ez egy 1080p 144hz 8 bites monitor.
Lényegtelen hogy HDMIt vagy DPt használsz, összesen annyi a fontos hogy megfelelő verziót használj belőlük tehát DP 1.4 vagy HDMI 2.0
Mivel csak 8 bites a monitor lényegtelen h a kábel tud többet.
#3 Ez nem igaz hogy az emberi szem nem látja, különösen kontrasztra nagyon érzékeny a szem ami ugyan úgy része a bitmélységnek
A Nvidia kártyád van a DP -t használd, mert a G-Sync csak azon keresztül működik.
Ha AMD kártyád van mindegy melyiket használod. A FreeSync működik DP és HDMI portokon keresztül is.
Köszönöm a hozzászólásokat, akkor szinte mindegy.
#4-es: A monitor hivatalos LG leírás szerint 8-10 bitet tud. Rákerestem most is, és más oldal is írja, hogy 10 bit ("Color Depth
10 Bit"). Gondolom, ha a nem tudna ennyit a monitor, akkor nem írná ki a Windows a 10 és 12 bitet (ahogy a kérdésbe is linkeltem képet).
#5-ös: AMD kártyám van, FreeSync-et be is kapcsoltam extendedre.
Kérdező, ne random oldalakat nézz, ott az LG hivatalos oldala:
A színmélysége a monitornak függ attól hogy hány árnyalatot tud az a bizonyos monitor ,azaz a feketétől egészen a legvilágosabb R G vagy B színig hány részre van felosztva a spektrum. Akkor van értelme több részre felosztani a spektrumot, ha elég fényes a monitor(és elég sötét a fekete részleteknél), na most egy alsó-közép kategóriás monitor nem fog valós 10 bitet tudni. Még VESA HDR 400 as kategóriától(ami a legalacsonyabb beosztás)-t sem közelíti meg.
10 bites monitorok több száz ezer forintba kerülnek, 12 bites pedig tudtommal nincsen, vagy legalább is nem átlag felhasználható számára elérhető, esetleg IMAX filmprojektorok képesek rá. Az hogy windows mit ír ki az lényegtelen.
Csak egy példa hogy mit is tud egy High-end monitor, kb 1 milláért ami még mindig csak 10 bites:
ÉS! Ez még nem Cinema-grade monitor
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!