Online-Abo
  • Login
  • Registrieren
Games World
      • Von Superwip Lötkolbengott/-göttin
        Zitat
        Die Schlussfolgerungen sind okay, aber die Ausgangstheorie, die du "aus dem Netz" hast, klingt arg abgehoben.
        Mit VBLANK sendet man nicht "den Befehl, die Hz zu verlegen". (Und auch kein grammatikalisch verständliches Gegenstück zu diesem Gewurschtel)
        VBLANK ist ein Befehl. Und zwar der Befehl an den Monitor: Du hast jetzt Zeit, von unten rechts nach oben links zu wechseln und dann darauf zu warten, dass der erste Pixel des neuen Bildes übertragen wird. Dementsprechend muss die Grafikkarte da keine nicht vorrausraten und es gibt keine Wiederholfrequenz, die übertragen werden müsste. Es ist, wie bereits erwähnt, eine asynchrone Übertragung, bei der es nichts zu synchronisieren gibt. Wenn die Grafikkarte nicht will, dass ein neues Bild angezeigt/das alte Wiederholt wird, dann sendet sie einfach fortwährend VBLANK und der Monitor wartet und wartet und wartet. Und diese Entscheidung kann die Grafikkarte jederzeit treffen und auch jederzeit wiederufen - ohne dass irgendwer irgendwelche latenzkritischen Berechnungen durchführen müsste.

        Soweit jedenfalls die einzig mir bekannte Theorie, die so ganz nebenbei logisch und naheliegend ist und zu allem passt, was so über Monitoransteuerung erzählt wird.
        Das ist nicht 100% richtig.
        Auch wenn richtig ist das es keine Einschränkungen bei der Unterstützung Grafikkartenseitig geben sollte.

        Im Falle von DVI hört die Grafikkarte nach dem Senden eines Frames einfach auf ein Bildsignal oder TMDS zu senden; wenn nichts neues gesendet wird bleibt das vorhandene Bild angezeigt, das neue Bild wird erst begonnen wenn wieder ein Signal kommt. Das "VBLANK"-Signal ist in dem Fall also einfach kein Signal. Während des Blankings ist es lediglich vorgesehen im TMDS kodierte HSYNC (optional) sowie den TMDS-Referenztakt weiter zu senden, das VSYNC Signal leitet dann (theoretisch irgendwann, das muss nicht nach einem festen Zeitintervall sein) die Darstellung eines neuen Bildes ein. Während des Blankings können auch die in TMDS kodierten CTL-Steuersignale welche aber kaum verwendet werden gesendet werden.

        Im Falle von DP wird das Bildsignal nicht pixelweise per TMDS sondern in Datenpaketen gesendet. Diese besitzen einen Header in dem unter anderem der Wechsel zu einem neuen Bild gekennzeichnet ist. Ist der entsprechende Flag gesetzt bricht beginnt der Monitor ein neues Bild -egal ob das alte fertig ist-, werden keine neuen Daten übertragen bleibt das vorhandene Bild angezeigt. Hier ist von Grund auf keine Synchronisation -auch keine vertikale Synchronisation- vorgesehen und daher auch kein Wartesignal erforderlich. Der synchrone Betriebsmodus von DP wurde nachträglich auf den Standard aufgesetzt um einfache Kompatibilität zu Panels und Controllern zu wahren die aus welchen Gründen auch immer einen solchen erfordern.

        Der asynchrone Betrieb liegt ja eigentlich auch in der Natur eines (egal ob LCD, LED oder OLED-) TFT Monitors, wenn man so will. Die Pixel speichern ihre Bildinformation und zeigen sie an bis sie refreshed werden egal wie lange das dauert (zumindest solange man ihnen nicht den Saft abdreht). Auch andere digitale Bildschirmtypen (Plasma, DLP, LCoS) sollten damit kein Problem haben; bei diesen Bildschirmtypen werden in der Regel Bilder als ganzes empfangen und vom Controller gespeichert welcher diese dann als ganzes ausgibt (beim Plasma erfolgt die Ausgabe prinzipiell auch pixelweise aber die mit vervielfachter Frequenz, vom Controller gesteuert). Auch hier ist es prinzipiell problemlos möglich eine variable Totzeit zwischen zwei Frames einzulegen. Lediglich CRTs erfordern eine konstante Bildwiederholrate mit einer Frequenz die in der Regel synchron zur Ausgabe der Grafikkarte ist.

        ___
        Woran scheitert es denn dann überhaupt?

        Anscheinend daran das bei machen (vielen, allen?) aktuellen Displaycontrollern einfach kein asynchroner Betrieb vorgesehen ist und daran das die Displays auch in nativer Auflösung oft nicht direkt sondern über einen Scaler angesteuert werden.
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von TheGoodBadWeird
        Soweit im Netz behauptet wird, berechnet (rät) der Treiber der Radeon den ungefähren Bereich in denen die Frames liegen und sendet den Befehl über VBLANK die Hz auf diesen Bereich zu verlegen. Das raten wurde so bezeichnet, da alles vor dem eigentlichen Frame passiert. Der Befehl wird vorgeschickt, damit der Bildschirm die Frequenz rechzeitig umstellen kann.

        Da jeder Monitor aufgrund seiner verbauten Hardware andere Reaktion- bzw. Latenzzeiten hat, ist das nur ein ungefährer Frame-/Hz-Wert. Das wäre immerhin besser als V-Sync, aber immer noch nicht optimal. Theoretisch kommt es dann immer noch zu Lags und Tearing, aber weniger als mit V-Sync.

        Die Theorien gehen dazu weit auseinander. Bitte korrigiere mich, wenn ich falsch liege!
        Die Schlussfolgerungen sind okay, aber die Ausgangstheorie, die du "aus dem Netz" hast, klingt arg abgehoben.
        Mit VBLANK sendet man nicht "den Befehl, die Hz zu verlegen". (Und auch kein grammatikalisch verständliches Gegenstück zu diesem Gewurschtel)
        VBLANK ist ein Befehl. Und zwar der Befehl an den Monitor: Du hast jetzt Zeit, von unten rechts nach oben links zu wechseln und dann darauf zu warten, dass der erste Pixel des neuen Bildes übertragen wird. Dementsprechend muss die Grafikkarte da keine nicht vorrausraten und es gibt keine Wiederholfrequenz, die übertragen werden müsste. Es ist, wie bereits erwähnt, eine asynchrone Übertragung, bei der es nichts zu synchronisieren gibt. Wenn die Grafikkarte nicht will, dass ein neues Bild angezeigt/das alte Wiederholt wird, dann sendet sie einfach fortwährend VBLANK und der Monitor wartet und wartet und wartet. Und diese Entscheidung kann die Grafikkarte jederzeit treffen und auch jederzeit wiederufen - ohne dass irgendwer irgendwelche latenzkritischen Berechnungen durchführen müsste.

        Soweit jedenfalls die einzig mir bekannte Theorie, die so ganz nebenbei logisch und naheliegend ist und zu allem passt, was so über Monitoransteuerung erzählt wird.

        Zitat
        Jeder Pro-Gamer hasst V-Sync wegen der höheren Latenz. Ohne V-Sync tritt das zwar nicht so stark auf, das Bild hat dann aber sehr starkes Teering. Irgendeinen Tod muss der Pro-Gamer bisher also sterben. G-Sync kann das angeblich ohne diese Bürden oder zumindest im stark verrringertem Ausmaß.
        V-Sync mit double buffering hat, wenn man in ganzen Bildern rechnet, exakt die gleiche Latenz, wie ohne V-Sync. Es wird nur schlichtweg ein alter Frame zu Ende dargestellt, anstatt einen halben neuen anzuzeigen (der einem Pro Gamer auch nichts genützt hätte). Der zu sterbende Tod ist in dem Fall die etwas geringere absolute Framerate, wenn die möglichen FPS unter die Wiederholfrequenz des Monitors sinkt. Aber es nützt halt auch nur wenig, wenn Frames berechnet werden, die gar nicht vernünftig angezeigt werden können. Und Pro-Gamer spielen sowieso nur mit Einstellungen, bei denen sie deutlich mehr fps haben.


        Zitat von Superwip
        Man könnten den Riss vielleicht irgendwie vermatschen...
        Mehr aber auch nicht. Und es ist der kürzeste Marketingstand der Geschichte, wenn du der versammelten Fachpresse "Matsch statt Tearing" präsentierst.
        Hat Nvidia auch nicht gemacht.

        Zitat von Skysnake
        Jetzt klar was ich mit FPGA<->ASIC (ak festverdrahtet) meine?
        Das du diesmal den Unterschied zwischen einem PFGA und einem ASIC meinst, ist klar.
        Was das mit meinem ursprünglichen Argument zu tun hat, dass du die von einem Displaycontroller zu erfüllenden Aufgaben nicht ökonomisch mit einer fixen Schaltung erfüllen kannst (unerheblich davon, ob die durch Konfiguration in einem FPGA vorgegeben wird oder starr in ein ASIC gegossen ist, denn auch der FPGA kann sie nicht von Takt zu Takt wechseln), sondern dass du einen allgemeinen Kern und einen ausreichend großen Zwischenspeicher brauchst - der als SRAM teuer wird.

        Zitat
        Es geht da eher darum, dass die billigeren nicht so ausgereifte Techniken für Overdrive, Scaler und schlag mich tot haben. Du kannst dadurch die Panelelektronik direkter ansprechen, was die Chancen erhöht, dass der Monitor bei nem variablen VBLANK nicht halt einfach schwarz wird, weil er nicht weiß, wie er damit umzugehen hast und sich dann halt ausschaltet.
        Bei einer Verbindung von A nach B mit maximal einem Zwischenhalt gibt es genauso wenig ein "direkter", wie es ein "toter als tot" gibt. Entweder das Display ist direkt angebunden, wie i.d.R. in Noteooks (was eben nicht der Fall ist), oder ein Controller nimmt das DP/DVI/... Signal an und gibt ein eDP/LVD/... Signal wieder aus. Was der Scaler dazwischen alles mit dem Bildinhalt wie gut/schnell machen kann, ist vollkommen egal, denn VBLANK ist kein Bestandteil des Bildinhalts. Ein Controller beliebiger Preisklasse wird VBLANK entweder ignorieren (schlecht), verwerfen (schlecht) oder 1:1 weitergeben (gut). Was anderes kann er damit nicht machen und es gibt keinen Grund anzunehmen, dass a, b oder c in bestimmten Preisklassen häufiger vorkommen.

        Zitat
        Nimm dir die Fernseher. Sehr billige kommen besser klar teils mit Gameing als teurere, weil die teureren mehr Ferz mit dem Bild machen, um es "besser" zu machen. Die dann nochmals etwas teureren bieten dann aber den Game-Mode, mit dem die teuer eingebaute Hardware in den Scalern für die Bildnachbearbeitung wieder umgangen wird.
        Die billigen kommen auch nicht "besser" damit klar. Die bieten einen geringeren Inputlag und ein unverfälschteres Bild, weil sie auf Manipulation der Bildinhalte verzichten - genauso wie die teurem im Game-Mode. Der ist aber auch kein Bypass von Komponenten, sondern er ist eine Deaktivierung von Softwarefeatures zur rt-Bearbeitung des Bildinhaltes.
        Uns geht es hier aber nicht um den Bildinhalt und Steuerungsbefehle ala VBLANK durchlaufen so oder so keine Bildverbesserer. Wenn dann bräuchten wir einen elektrischen Bypass des kompletten Display-Controllers, so dass die Grafikarte via (e)DP direkten Zugriff auf den Controller des Panels erhält. Aber das bietet kein Monitor, weder als optionalen Game-Mode, noch als billig-ich-spar-mir-alles-Lösung. Es verzichtet nun einmal kein einziger Monitor auf dem europäischen Markt auf grundlegende, bildbezogene Funktionen - und sei es nur die Einblendung eines On-Screendisplays oder ein Kontrastregler. Auch für die Nutzung mehrer Anschlüsse ist in afaik allen Fällen ein Controller veranstwortlich - es gibt keinen Monitor, der einfach elektrisch die Leitungen an den anderen Stecker switched.
      • Von kartenlehrling Freizeitschrauber(in)
        wieso Intel nicht auf die Idee gekommt ist, werde sie uns wohl auch nie erzählen.
        Laut dem 3 Jahr alten video müssten es schon LG Desktop Monitor geben die das unterstützen.

        Das Video umbedingt ansehen ...

        http://www.anandtech.com/...
        LG's Shuriken Self Refreshing Panel Aims to Improve Notebook Battery Life by Up to an Hour

        Vesa eDP 1.4: Neuer Display-Anschluss für mehr Leistung und Akkulaufzeit - Golem.de
        Zitat
        Die erste Version von eDP hat die Vesa bereits 2009 als Alternative zu LVDS (Low-Voltage Differential Signaling) vorgestellt,
        2010 kündigten dann AMD und Intel an, LVDS bis 2013 zugunsten von eDP in ihren Chips zu ersetzen.
        Erste Produkte mit eDP 1.4 sollen voraussichtlich aber erst 2014 auf den Markt kommen,
        auch wenn die Vesa davon ausgeht, dass der Standard schon im Oktober 2012 verabschiedet wird.
        Derzeit liegt der Entwurf für eDP 1.4 zur letzten Durchsicht bei den Vesa-Partnern.
      • Von Skysnake Lötkolbengott/-göttin
        Zitat von TheGoodBadWeird
        Aha! Kann mir der Herr Schlauberger auch sagen, wie die Anpassung der HZ des Monitors an die Frames der Grafikkarte ein durchgängiges und flüssigeres Bild erzeugt? Die Intervalle zwischen den DRAWs bekommst du damit nicht geregelt. Aber Hauptsache ins Blaue geraten. Und zu mir sagt man, ich hätte keine Ahnung
        Wenn hier jemand ins blaue hinein rät, dann bist du das....

        Hör doch endlich mit dem Scheis auf. Du sagst alle paar Posts, dass du von tuten und blasen absolut KEINEN blassen schimmer hast, und offensichtlich nicht mal dazu in der Lage bist Specs zu lesen, geschweige denn zu verstehen...

        Dir haben jetzt mehrere Leute inzwischen mehrfach erklärt, warum es geht, und warum du falsch liegst. Das ignorierst du aber einfach und fängst wieder mit deinem gesabbel an, in dem nur sagst:"Ich hab von tuten und blasen keine Ahnung, aber nVidia ist vile geiler als alles andere, und wer das nicht so sieht ist neidisch..."

        Meine Fresse, stop bitte endlich das nVidia Marketing-Band. ES NERVT!

        Vor allem muss man den blödsinn von dir immer und immer und immer wieder korrigieren, sonst glaubt am Ende noch jemand den Mist...

        Zitat

        Ich schon, denn gerade diese Schwergewichte sind oft die Sponsoren für E-Sport Turniere. Da Pro-Gamer ja hohen Wert auf Bildqualität und besonders geringe Latenz legen, dürften sie sehr interessiert an G-Sync sein. Wenn es Nvidia schafft in dieses Segment zu kommen, haben sie einen wahren Standard geschaffen.

        Sofern das G-Sync-Logo Pflicht auf den Veranstaltungen wird und quasi ein Must-Have wird, hätte FreeSync einen schweren Stand. Wir wissen ja alle wie sehr "den Pros" nachgeeifert wird. Was die haben muss gut sein und es holt sich jeder 0815-Gamer. Der preis spielt dann eine untergeordnete Rolle, denn man will ja "dabei sein" und jemand sein...
        Du rennst also irgendwelchen Aufklebern und "Pros" nach? Na gz. Mit sowas hört man eigentlich mit dem erwachsen werden auf...

        Zitat

        Das ist sogar definitiv der Fall. Auf der englischen Wikipedia-Seite steht, dass DP1.3 nicht vor Q2/2014 kommt. Da kannst du locker noch ein Jahr drauf rechnen bis es die ersten (Vorserien-)Geräte gibt. Entsprechend müsste man sich auch eine neue AMD-Grafikkarte besorgen, die den Standard auch komplett unterstützt.
        BOAH....

        SELBST in den DVI 1.0 Specs von 1999 hat Gipsel schon eine grobe Beschreibung gefunden, das man sowas wie dynamisches VBLANK implementieren kann...

        Lern bitte endlich, was Specs bedeuten...

        In den Specs ist VBLANK vorgesehen, und man kann es auch nutzen. ES ist nur nicht definitert, wie sich der Monitor verhalten MUSS. Das bedeutet aber nicht, das man irgendwelche Specs verletzt, oder irgendwas neu implementieren muss um FreeSync zu nutzen.

        Es bedeutet nur, das du nicht sicher sein kannst, das FreeSync funktioniret mit JEDEM Gerät, weil es eben nicht definiert ist, wie der Monitor sich da verhält. Er kann einfach shcwarz werden, oder es kann FreeSync funktionieren. Das weiß halt nur der Displayhersteller erstmal. Je nachdem muss er kleine Anpassungen noch vornehmen, weil die HArdware es zwar kann, aber z.B. die Firmware halt damit nicht klar kommt.

        Da gibts dann halt zwei Möglichkeiten. Er macht es, oder er macht es nicht.

        Wenn er aber weiß, das es geht, er es auch macht, und sagt:"Hey Leute schaut her, wir Unterstützen das mit GErät XY, mit/ohne Update der Firmware" dann kannste dich als Kunde darauf verlassen, und es geht dir am ARSCH vorbei, ob es jetzt in den DP oder sonst wo Specs drin steht, dass der Monitor sich GENAU SO! verhalten muss, oder nicht. Es ist ja NICHT verboten das er sich so verhält...

        Autobeispiel:
        Wenn du auf ne Autobahnwillst, muss dein Kfz eine bauart bedingte Höchstgeschwindigkeit von mehr als 60km/h haben muss. Das wars aber auch. Ob dein Fahrzeug jetzt eine Höchstgeschwindigkeit von 61 km/h hat, oder 300 km/h ist scheis egal. Genauso, ob es 2, 3 oder 30 Sitze hat.

        Haste das jetzt endlich kapiert?

        Zitat

        Das ist Unsinn, weil die Software niemals die interen Steuerung des Monitors eingreifen kann. Die entsprechende Hardware gibt es schlicht noch nicht.
        ....
        Und das weißt du jetzt woher genau?

        Zu dem ganzen anderen Mist schreib ich jetzt gar nichts mehr, weils mir zu dumm ist, dir ständig deinen Bullshit zu korrigieren. das ist ja offen wie Mantle, nur eben doch nicht [/QUOTE]

        Zitat von ruyven_macaran


        Angefangen hast du mit dem DDR-Interface und geändert hast du das Thema nie

        ich weiß grad nicht was du meinst, wir reden wohl grad aneinander vorbei.

        Zitat

        Wir reden hier von einem frei erhältlichen Produkt...
        Wir reden gerade von dem Aufrüstkit. Das würde ich nicht als "frei erhältliches Produkt" im klassichen Sinne bezeichnen. Das ist Betaware. Wenn da was nicht geht, dann gehts halt nicht.

        Dass DVI und HDMI komplett wegfallen stört dich ja auch nicht.

        Zitat

        Auch in ASICs ist mitnichten alles festverdrahtet. Es gibt einfach Aufgaben, bei denen man in gewissem Umfange flexibel bleiben sollte, weil sie ohnehin nie zeitgleich ablaufen. Und Display-Controller enthalten z.T. sogar ganze ARM-Kerne, die garantiert nicht aus fest verdrahteten Schaltungen für z.B. Auflösungsskalierung bestehen.
        Ok, wir reden definitiv aneinander vorbei

        Es gibt FPGAs und es gibt ASICs. Das wars eigentlich. Klar haste in nem ASIC gewisse Möglichkeiten, etwas an oder aus zu schalten, oder auch gewisse Konfigurationen vor zu nehmen.

        Das was drin ist ist aber drin, und das wars dann auch. Du kannst aus der Logik für deinen theoretischen ARM-Kern nicht auf einmal nen mega fetten 512 Bit FP-Multiplizierer bauen. Mit nem FPGA kannste das schon, so lang du genug Logikzellen hast.

        Beim ASIC weißt du genau was du damit machen kannst und was nicht. Klar sind einige Dinge per Parameter in Registern veränderbar, aber du hast einen endlichen Zustandsautomaten, der klar definiert ist, und wenn am Ende ein Zustand halt einfach lautet, das nicht definiert ist, was die Schaltung macht. Beim FPGA kannste das nicht machen.

        Jetzt klar was ich mit FPGA<->ASIC (ak festverdrahtet) meine?

        Zitat

        Jeder Monitor hat irgend eine Form von Controller eingebaut, allein schon um verschiedene Eingänge zu unterstützen.
        (hmm - wenn ichs mir recht überlege: Apple verkauft z.T. welche mit nur einem Anschluss. Sind das die billigen? )
        Es geht da eher darum, dass die billigeren nicht so ausgereifte Techniken für Overdrive, Scaler und schlag mich tot haben. Du kannst dadurch die Panelelektronik direkter ansprechen, was die Chancen erhöht, dass der Monitor bei nem variablen VBLANK nicht halt einfach schwarz wird, weil er nicht weiß, wie er damit umzugehen hast und sich dann halt ausschaltet.

        Gerade einige der China(?) Monitore mit extrem billiger/einfacher Technik, lassen sich ja besonders gut Over/Underclocken. Die sind sicherlich nen Blick wert.

        Das heist nicht, das es mit teuren nicht auch geht, aber es gibt halt durch das Mehr an Technik, mehr Chancen, dass der Monitor einfach nicht weiß, wie er damit um zu gehen hat in der Situation. Es sei denn halt, die haben nen Byepass mit drin, der das ganze Geraffel umgehbar macht.

        Nimm dir die Fernseher. Sehr billige kommen besser klar teils mit Gameing als teurere, weil die teureren mehr Ferz mit dem Bild machen, um es "besser" zu machen. Die dann nochmals etwas teureren bieten dann aber den Game-Mode, mit dem die teuer eingebaute Hardware in den Scalern für die Bildnachbearbeitung wieder umgangen wird.

        Zitat

        Möglich wäre allenfalls, dass es ASICs gibt, die eben doch mehr in Software machen (und dann z.B. latenzreicher sind) und dadurch leicht angepasst werden können.
        Du hast in allen Scalern usw Register drin. Du musst dich ja an unterschiedliche Displayparameter anpassen können, sonst brauchste für jedes Display nen anderen Controller.
      • Von Superwip Lötkolbengott/-göttin
        Zitat
        Wie das?
        Der Monitor kennt weder das Ende des einen noch den Anfang des anderen Bildes. Er kann nur eine Mischung dazwischen darstellen und die Schnittkante sieht man halt.
        Man könnten den Riss vielleicht irgendwie vermatschen...

        Zitat
        Moment, ich meinte die angebliche Funktionsweise von FreeSync.

        Soweit im Netz behauptet wird, berechnet (rät) der Treiber der Radeon den ungefähren Bereich in denen die Frames liegen und sendet den Befehl über VBLANK die Hz auf diesen Bereich zu verlegen. Das raten wurde so bezeichnet, da alles vor dem eigentlichen Frame passiert. Der Befehl wird vorgeschickt, damit der Bildschirm die Frequenz rechzeitig umstellen kann.

        Da jeder Monitor aufgrund seiner verbauten Hardware andere Reaktion- bzw. Latenzzeiten hat, ist das nur ein ungefährer Frame-/Hz-Wert. Das wäre immerhin besser als V-Sync, aber immer noch nicht optimal. Theoretisch kommt es dann immer noch zu Lags und Tearing, aber weniger als mit V-Sync.

        Die Theorien gehen dazu weit auseinander. Bitte korrigiere mich, wenn ich falsch liege!
        Display Port ist von Grund auf so konzipiert das es die Information das ein neues Bild kommt im Header der Datenpakete in denen die Bildinformationen gesendet werden an den Monitor übermittelt. Display Port ist von Grund auf auf eine variable Bildwiederholrate ausgelegt. Die Tatsache das alternativ auch ein Modus mit fester Bildwiederholrate möglich ist ist vermutlich ein technologisches Artefakt oder wurde eingeführt um Bildschirme (ohne Latenznachteile) zu ermöglichen die zwar bereits einen DP Eingang aber ein älteres LVDS Panel haben welches eine feste Bildwiederholrate erfordert.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 12/2016 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1103932
Monitor-Display
[Update 2: AMD arbeitet mit Display-Herstellern zusammen] Freesync: AMDs Konter zu G-Sync setzt auf offene Standards
Auf der aktuell stattfindenden Consumer Electronics Show (CES) 2014 hat AMD einen unscheinbaren Stand aufgebaut, auf dem der Konkurrent zu Nvidias G-Sync "Freesync" veranschaulicht wird. Dabei wird keine proprietäre Hard- beziehungsweise Software benötigt, genutzt wird der offene VESA-Standard VBLANK (Vertical Blanking). Lediglich das Display, die GPU sowie der entsprechende Treiber müssen diesen Standard beherrschen, um die Bildrate dynamisch regeln zu können.
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Freesync-AMD-G-Sync-Konter-mit-offenen-Standards-Techdemo-1103932/
09.01.2014
http://www.pcgameshardware.de/screenshots/medium/2013/11/AMD_Radeon_R9_270_Praesentation_13-pcgh.png
amd,display,g-sync,lcd
news