Online-Abo
  • Login
  • Registrieren
Games World
      • Von The Fanatic Testers Freizeitschrauber(in)
        Zitat von ACMS77
        Dann bliebe nur die Frage warum ich im Nvidia- Treiber die Wahl habe zwischen 8bit und 12bit wenn ich mit der Frequenz auf 30Hz runter gehe und nirgends 10bit oder haben die Bits im Treiber gar nix mit dem 10bit hdr bzw.12bit Dolby Vision zu tun ?Denn wie gesagt,mein Fernseher kann definitiv kein Dolby Vision. Es ist wohl doch nicht ganz so einfach
        eigentlich ist es noch immer einfach

        was für farbraum hast den denn ausgewält?

        444
        420
        422
        rgb?

        dann kann man erkennen woran es liegt

        des weiteren müsste man dein Tv Modell wissen um zu sehen welches Paneel er verbaut hat hat er sicher ein 10 bit Paneel??
      • Von ACMS77 Schraubenverwechsler(in)
        Zitat von The Fanatic Testers
        so schwer ist das nun auch wieder nicht allso:

        es wird bei der ps4 und xbox hdr mit 8 bit ausgegeben um das der hdmi die 60 herz schafft!
        beim pc kannst du das selbe machen aber noch einiges mehr zb:

        4.2.0 10 bit mit 60 herz
        4.2.2 10 bit 60 herz
        oder 4.4.4 10 bit 30 herz!!

        nur 4.4.4 10 bit mit 60 herz geht nicht aber das geht bei keinem gerät weil der HDMI das eben nicht schafft!

        bei filme und bluray sieht es wieder anders aus da die filme e nur 30 herz haben genügt der Hdmi wieder!
        Dann bliebe nur die Frage warum ich im Nvidia- Treiber die Wahl habe zwischen 8bit und 12bit wenn ich mit der Frequenz auf 30Hz runter gehe und nirgends 10bit oder haben die Bits im Treiber gar nix mit dem 10bit hdr bzw.12bit Dolby Vision zu tun ?Denn wie gesagt,mein Fernseher kann definitiv kein Dolby Vision. Es ist wohl doch nicht ganz so einfach
      • Von Locuza Lötkolbengott/-göttin
        Maxwell und auch schon GCN Gen 2 können mit 10-Bit (HDR) umgehen.
        Ein Limit stellt dann die Display-Schnittstelle dar, also Displayport und HDMI.
        Je nach Versionsnummer reicht die Bandbreite für X Auflösung und X Hertz nicht aus.
      • Von Rotavapor Freizeitschrauber(in)
        Kann die 980ti überhaupt HDR? Ich dachte das können erst Karten ab Polaris/Pascal.
      • Von JoM79 Kokü-Junkie (m/w)
        Das erklär mal den Leuten die jetzt jammern, weil die neuen Grafikkarten keinen analogen Bildausgang mehr haben.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1213648
AMD Polaris
HDR und AMD Radeon RX 400: Nur 8 Bit wegen HDMI 2.0a
UHD und HDR - eine schöne neue Welt kommt da auf die Nutzer zu, aber bei HDR gibt es so ein paar Probleme. Viele vermuten HDMI 2.0a als Übeltäter, dessen Bandbreite für Inhalte in UHD, 60 Hz und YCrBr-4:4:4 zu gering ist. AMD bestätigte, dass man daher bei der Radeon auf 8 Bit pro Kanal reduziert. Das ist unschön, aber offenbar noch der beste Kompromiss, bis Monitore mit Displayport 1.4 und HDR auf dem Markt sind.
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/HDR-und-Radeon-RX-400-Nur-8-Bit-wegen-HDMI-20a-1213648/
17.11.2016
http://www.pcgameshardware.de/screenshots/medium/2016/06/Polaris-P10-Die-Shot-pcgh_b2teaser_169.jpg
news