Online-Abo
  • Login
  • Registrieren
Games World
      • Von JoM79 Kokü-Junkie (m/w)
        Ich akzeptiere das schon, aber ein Entwurf ist kein Patent und nicht geschützt.
        Ob das so gut wie sie das gemacht haben, ist eine andere Sache.
        Das ganze kann auch von einem Monitorhersteller kommen.

        Wenn AMD anstatt immer alles Jahre vorher schon anzukündigen einfach mal machen würde, wenn es fertig ist das ganze vorstellen und Nvidia dumm dastehen lässt, dann würde es der Firma vielleicht auch besser gehen.
        Fakt ist einfach, dass sie Bulldozer nicht wirklich hingekriegt haben und Mantle ist auch bei weitem nicht so leistungsfähig wie versprochen.
        Und wenn es jetzt noch Probleme mit Freesync gibt, kann wirklich nur eine richtig schnelle Grafikkarte AMD helfen.
      • Von Stefan Payne Kokü-Junkie (m/w)
        Zitat von JoM79
        Du kannst es echt nicht akzeptieren, dass Nvidia diese Dinge zuerst auf den Markt gebracht hat?
        Und du kannst wohl nicht akzeptieren, dass es doch sehr wahrscheinlich ist, dass das ganze auf AMDs Mist gewachsen ist und nVidia mit aller Gewalt AMDs Entwurf genommen haben, einen FPGA programmiert haben und das ganze dann mit der Brechstange auf den Markt gebracht haben...

        Warum sonst soll man einen FPGA mit 768MiB RAM brauchen?!

        Also ich weiß nicht, wie es dir geht, aber ich find es ist unter jeglicher Gürtellinie, einen Entwurf aus einem Standarddisierungs Gremium zu nehmen und daraus was eigenes zu machen.
        GGf sogar Lizenzgebühren dafür kassieren wollen...
      • Von ich111 Lötkolbengott/-göttin
        AMD hat sich sicherlich was dabei gedacht, die Display Engine in der 290 dafür fit zu machen. Man entwickelt nicht zum Spaß teile neu, die gut funktionieren. AMD handelt ja gerne nach dem Prinzip ganz oder garnicht (siehe z.B. Quadcores).

        Es ist eher unwahrscheinlich, dass Nvidia da selbst drauf gekommen ist. Dann hätten die da heimlich mit Herstellern von Scalern zusammengearbeitet und eine ordentliche Lösung auf den Markt gebracht.
      • Von JoM79 Kokü-Junkie (m/w)
        Du kannst es echt nicht akzeptieren, dass Nvidia diese Dinge zuerst auf den Markt gebracht hat?
        Und wenn der Entwurf 100 Jahre alt ist, es hat trotzdem nie einer zuende gebracht.
        Nvidia hat es halt mit allem was sie hatten vorangetrieben damit sie erster sind, wo ist das Problem?
        Lieber so, als mehrere Jahre grossspurig reden, aber nie was auf die Reihe kriegen.
      • Von Stefan Payne Kokü-Junkie (m/w)
        Zitat von akuji13
        Auch NV´s Modul entwickelt man nicht in 2 Tagen.
        Ohne Beweise ist es nur eine Verschwörungstheorie.
        Die 'Beweise' sind doch alle schon vorhanden, schau mal nach.

        - es gibt eine VESA SPezifikation, die kurze Zeit nachdem AMD das angekündigt hat, veröffentlicht wurde. (und wer sitzt in der VESA: richtig, AMD und nV)
        - Es gibt bei AMD jetzt schon einige Chips, die das in Hardware können. EInige davon gibt es schon seit einiger Zeit. hier was ich mal gefunden hab. In Hawaii und Tonga ists implementiert. Wie lange gibts Hawaii? WIe lang hat man dran gearbeitet?? Und man vermutet, dass auch Bonnaire das eventuell könnte. Und den gibts noch länger.
        - nVidia hat ihr G-Sync mit einem FPGA Vorgestellt. Das macht man NUR; wenn die Zeit für einen ASIC nicht reicht.

        Alle Fakten, die wir bisher haben, deuten daraufhin, dass das ganze von AMD initiiert wurde und nV, nachdem AMD das in die VESA eingebracht hat, gewaltsam vorgeprescht ist, um das ganze sich selbst anzueignen, um mit aller Macht zu zeigen, dass man der erste war...

        Zitat von akuji13

        Siehe DSR.
        Da könnte ich nun auch behaupten AMD hat nur geklaut.
        Nö, auch das war etwas, was man von langer Hand geplant hat. Und da gibt es Aussagen von Leuten, die behaupten, dass das für den Start der 300er Serie eh geplant war, man das schlicht vorgezogen hat...

        Ist ja nicht so, dass es dieses Feature für 'Enduser' erst seit der nVidia Implementierung gibt

        hier mal 'nen Patent zu 'Variable Refresh Rate...
        Man achte mal bitte aufs Datum...

        Oh und hier gibts noch was.
        Hat ja nur etwas über 30 Jahre gedauert, bis diese Idee verwirklicht wurde

        Und eine ganz frische diskussion in einem Forum...
        Von 2009....

        Da zu behaupten, dass nVidia der erste war, der das 'erfunden' haben will, ist schlicht NICHT haltbar...
        Zumal etwas ähnliches ja auch schon seit Urzeiten in mobilen Geräten implementiert ist...
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1148033
Monitor-Display
LG 34UM67 ausprobiert: Freesync schlechter als G-Sync?
Kann AMDs Freesync-Technologie wirklich Tearing und Lags beziehungsweise Stuttering so gut wie Nvidias Gsync verhindern? PC Games Hardware macht den Test mit LGs neuer 1080p-Enthüllung im 21:9-Format. Von Benjamin Kratsch und Ryan Southardt.
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Specials/Freesync-schlechter-als-G-Sync-1148033/
15.01.2015
http://www.pcgameshardware.de/screenshots/medium/2015/01/LG_05-pcgh_b2teaser_169.jpg
specials