Online-Abo
  • Login
  • Registrieren
Games World
      • Von Superwip Lötkolbengott/-göttin
        Bei Farbarmen (einfarbigen) aber kontrastreichen Bildern oder Bildbereichen profitiert man am meisten. Für PC Spieler ist wohl der größte Vorteil das 10/12 Bit wie erklärt de-facto eine Vorraussetzung für HDR ist, HDR ist dann der eigentliche Vorteil.
      • Von soth Volt-Modder(in)
        10 Bit sind in der Medizintechnik schon im Einsatz.
      • Von Fattyman Schraubenverwechsler(in)
        Zitat von hanfi104
        Was genau ist der Vorteil von 10Bit ggü 8Bit?


        Also im normalen Farbbereich spielt es weniger die Rolle, da der durchschnittliche
        menschliche Sehapparat nicht darauf eingestellt ist. Im Graustufenbereich kann es da schon eher
        Anwendungen geben, z.B. in der bildgebenden Diagnostik (digitales Röntgen, Computertomographie
        oder Magentresonanztomographie). Hier spielen die 1024 Graustufen bei 30 Bit HDR-Farbtiefe
        schon eine Rolle, um kleinste Details - wie Tumore oder Arterienverschlüsse - genauer herauszuarbeiten.
        Deine Gesundheit wird es dir danken, dass eine solche Technik dann zum Einsatz kommt.
      • Von Superwip Lötkolbengott/-göttin
        Zitat von BlackPredator
        (2^8)^3 = 16.777.216 Farben; 2^8 Abstufungen pro Farbkanal, 3 Farben (RGB)
        (2^10)^3 = 1.073.741.824 Farben
        Weiß nicht wie die Farbräume genau definiert sind, aber zumindest sollte es theoretisch so aussehen.
        Fernseher zum Beispiel benutzen oft einen begrenzten Farbraum. Schwarz fängt dort nicht bei 0 an (0/0/0) sondern bei 16 (16/16/16) und hört nicht bei 255 (weiß) auf, sondern 235.

        Weiteres Problem: da bei einem Grau RGB alle die selben Werte für RGB haben, hast du nur 2^8 Abstufungen = 256.
        Bei einem 1080p Fernseher mit vertikalen Balken ist jeder Graubalken also 1920punkte/256 = 7,5punkte breit.
        Bei 2^10 (1024) : 1920/1024 = 1,875 punkte
        Exakt so ist es- und die höhere Anzahl der Graustufen (Helligkeitsstufen pro Farbe) ist auch der Schlüssel zu einem höheren Kontrast.

        Wenn man einen 8Bit Monitor hat dann ist die relative Abstufung insbesondere zwischen sehr dunklen Werten so gering das der Unterschied als deutlicher Sprung sichtbar ist was nicht schön aussieht. Bei einem 10Bit Monitor kann effektiv ein 2^2=4 mal so hoher Kontrast sinnvoll dargestellt werden, bei 12Bit 2^4=16.

        In der Praxis ist bei 8Bit etwa ein Kontrast von 800:1...1000:1 sinnvoll bei 10Bit oder 12Bit entsprechend mehr.

        Alternativ gibt es nicht-Lineare HDR Farbräume die den dunklen Bereich höher auflösen als den Hellen oder die Möglichkeit über einen sogenannten Alpha-Kanal zusätzliche Helligkeitsinformationen zu nutzen aber das hat sich nicht wirklich durchgesetzt.

        Zitat
        B2T:
        Die Hersteller haben es bei 3D nicht verstanden und sie verstehen es bei 4K nicht. Erst Standard entwickeln, dann die Produkte auf den Markt schmeißen. Ich würde mir ja einen 4K Fernseher kaufen, aber
        1. Jetzt kann man schon wieder auf HDMI 2.0a warten.
        2. Gibt es weder 4K BluRays (H265)
        3. Noch Player (HDCP/H265)
        4. Man weiß nicht ob nicht noch ein Standard dazwischen kommt (HDCP2.2 ist ja noch neu dazukommen)
        5. AV-Receiver geben keine HDMI Versionsnummer mit an, da kommt nur "hat 7 HDMI out und 2 in". Kauf wird damit wohl zum russisch Roulette. Edit: Gut einige können das wohl doch schon (Onkyo z.B gibt HDMI 2.0/HDCP 2.2 an. Yamaha gibt schön transparent "aktuellste Version" für HDMI an, zu HDCP kein Wort)
        6. Bis 4K alles funktioniert kommt wahrscheinlich 8K mit HDMI 2.3c
        7. Oder Apple haut einen 8K iWatchTV raus bei dem einfach alles funktioniert und mit dem auch externe Geräte zusammenspielen.

        Eventuell stimmen auch einige Punkte nicht mehr, aber die Lage ist definitiv unübersichtlich geworden. Wer hat schon Zeit und Lust sich überall einzuarbeiten nur um einen Fernseher mit Heimkino zu kaufen. Wir reden von Fernsehern, dem Consumer-Mainstream-Produkt schlechthin, dafür sollte man nicht mehr überlegen müssen als für den nächsten Autokauf.
        Irgendwer muss immer den ersten Schritt machen. Und HDR und UHD sind nunmal zwei verschiedene Dinge (wobei sehr schade ist das es keine Plasmas mehr gibt die naturgemäß besonders für HDR geeignet wären...).

        Im (Heim)kino ist zur Zeit auch ein Problem das konventionelle Kameras ein Problem damit haben sehr hohe in-Bild Kontraste aufzunehmen, übliche Kameras schaffen auch nicht viel mehr als 1000:1. Damit gibt es für HDR wenig Quellmaterial.

        In PC Spielen stehen wir vor einem ganz anderen Problem: HDR ist von den Entwicklern der Spiele und auch der Grafiktreiber schlicht nicht vorgesehen. Wann sich das ändert oder ändern könnte ist unbekannt.
      • Von BlackPredator PC-Selbstbauer(in)
        Zitat von hanfi104
        Was genau ist der Vorteil von 10Bit ggü 8Bit?
        (2^8)^3 = 16.777.216 Farben; 2^8 Abstufungen pro Farbkanal, 3 Farben (RGB)
        (2^10)^3 = 1.073.741.824 Farben
        Weiß nicht wie die Farbräume genau definiert sind, aber zumindest sollte es theoretisch so aussehen.
        Fernseher zum Beispiel benutzen oft einen begrenzten Farbraum. Schwarz fängt dort nicht bei 0 an (0/0/0) sondern bei 16 (16/16/16) und hört nicht bei 255 (weiß) auf, sondern 235.

        Weiteres Problem: da bei einem Grau RGB alle die selben Werte für RGB haben, hast du nur 2^8 Abstufungen = 256.
        Bei einem 1080p Fernseher mit vertikalen Balken ist jeder Graubalken also 1920punkte/256 = 7,5punkte breit.
        Bei 2^10 (1024) : 1920/1024 = 1,875 punkte

        SO B2T:
        Die Hersteller haben es bei 3D nicht verstanden und sie verstehen es bei 4K nicht. Erst Standard entwickeln, dann die Produkte auf den Markt schmeißen. Ich würde mir ja einen 4K Fernseher kaufen, aber
        1. Jetzt kann man schon wieder auf HDMI 2.0a warten.
        2. Gibt es weder 4K BluRays (H265)
        3. Noch Player (HDCP/H265)
        4. Man weiß nicht ob nicht noch ein Standard dazwischen kommt (HDCP2.2 ist ja noch neu dazukommen)
        5. AV-Receiver geben keine HDMI Versionsnummer mit an, da kommt nur "hat 7 HDMI out und 2 in". Kauf wird damit wohl zum russisch Roulette. Edit: Gut einige können das wohl doch schon (Onkyo z.B gibt HDMI 2.0/HDCP 2.2 an. Yamaha gibt schön transparent "aktuellste Version" für HDMI an, zu HDCP kein Wort)
        6. Bis 4K alles funktioniert kommt wahrscheinlich 8K mit HDMI 2.3c
        7. Oder Apple haut einen 8K iWatchTV raus bei dem einfach alles funktioniert und mit dem auch externe Geräte zusammenspielen.

        Eventuell stimmen auch einige Punkte nicht mehr, aber die Lage ist definitiv unübersichtlich geworden. Wer hat schon Zeit und Lust sich überall einzuarbeiten nur um einen Fernseher mit Heimkino zu kaufen. Wir reden von Fernsehern, dem Consumer-Mainstream-Produkt schlechthin, dafür sollte man nicht mehr überlegen müssen als für den nächsten Autokauf.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1155817
Monitor-Display
HDMI 2.0a: Erweiterter Standard bringt HDR-Unterstützung
Das HDMI-Forum hat innerhalb einer Pressemitteilung die Finalisierung des HDMI-2.0a-Standards bekanntgegeben. Der fügt dem bestehenden HDMI 2.0 eine Option zur Übertragung von HDR-Videomaterial hinzu. Displays müssen die Funktion explizit unterstützen, neue Kabel oder Bildquellen werden dafür aber nicht nötig sein.
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/HDMI-20a-Standard-HDR-1155817/
09.04.2015
http://www.pcgameshardware.de/screenshots/medium/2015/04/HDMI_Kabel-pcgh_b2teaser_169.jpg
news