Online-Abo
  • Login
  • Registrieren
Games World
      • Von bingo88 BIOS-Overclocker(in)
        Zitat von hfb
        Bin zu faul, das jetzt zu recherchieren, aber afaik geht das. Zumindest unter DX10/11. War doch z.B. der Aufschrei der ATI-Fanboys, weil NVidia geholfen hat, das bei Batman zu integrieren. Wenn ich mich richtig erinnere. Oder verwechsle ich das jetzt mit den deferred Dingsbums?
        Nee, falls du Deferred Rendering meinst, das ist was anderes (geht auch schon mit DX9c Technik)
      • Von hfb Software-Overclocker(in)
        Zitat von LordRevan1991
        Echt, das ist möglich? Schande über die Entwicklerzunft, aber echt.
        Bin zu faul, das jetzt zu recherchieren, aber afaik geht das. Zumindest unter DX10/11. War doch z.B. der Aufschrei der ATI-Fanboys, weil NVidia geholfen hat, das bei Batman zu integrieren. Wenn ich mich richtig erinnere. Oder verwechsle ich das jetzt mit den deferred Dingsbums?
      • Von LordRevan1991 Freizeitschrauber(in)
        Zitat von hfb
        Mit dem Schachzug hast du recht. Das "bessere CPU-Power" "im Vergleich zu AMD" hat bis jetzt wohl kein AMD-Fanboy gelesen, deshalb hebe ich es hier noch mal hervor und warte auf den Sturm der Entrüstung.

        Falsch liegst du imo bei der "relativ guten Bildqualität" MLAAs, die Bildqualität ist einfach nur inakzeptabel, basta. Wenn ich Matsch auf dem Bildschirm haben will, bewerfe ich ihn mit Matsch. Dazu brauch ich kein MLAA, keine Weichzeichner, kein
        übertriebenes Motion Blur oder gar die Unreal 3 Engine.
        Ist aber wohl das gleiche wie Mikrorucklern, 60+ Hertz, DX10/11, Texturflimmern, usw, der eine sieht es, der andere nicht. Ich z.B. sehe keine Mikroruckler und keine Vorteile bei mehr als 60 Hertz, DX10/11 oder Texturflimmern sehe ich sehr wohl.
        Es ist halt die Frage nach Prioritäten. Was für mich inakzeptabel ist, sind Treppchen. Da nehme ich sogar die leichte Unschärfe in Kauf, sofern nicht genug Leistungsreserven für Downsampling übrig bleiben.

        Zitat
        Leider befürchte ich, dass MLAA tatsächlich immer mehr Verbreitung finden wird. Da das Entwickler-Pack leider zu faul ist, die sehr wohl auch bei Post-Processing möglichen echten AA-Modi zu integrieren.
        Echt, das ist möglich? Schande über die Entwicklerzunft, aber echt.
      • Von hfb Software-Overclocker(in)
        Zitat von LordRevan1991
        Intels integrierte GPUs schwächeln im Vergleich zu denen AMDs, um da aufzuholen will Intel die bessere CPU-Power nutzen. Kein schlechter Schachzug, vor allem da MLAA immer weiter Verbreitung findet. Es ist nicht nur ressourcenschonend bei dazu relativ guter Bildqualität (MSSAA und SSAA sehen besser aus, haben aber unverhältnismässig höhere Hardwareanforderungen), es ist auch die einzige AA-Methode, die zu populär werdenden Post Processing-Effekten wie SSAO kompatibel ist - Downsampling klammere ich hier mal aus.

        Mit dem Schachzug hast du recht. Das "bessere CPU-Power" "im Vergleich zu AMD" hat bis jetzt wohl kein AMD-Fanboy gelesen, deshalb hebe ich es hier noch mal hervor und warte auf den Sturm der Entrüstung.

        Falsch liegst du imo bei der "relativ guten Bildqualität" MLAAs, die Bildqualität ist einfach nur inakzeptabel, basta. Wenn ich Matsch auf dem Bildschirm haben will, bewerfe ich ihn mit Matsch. Dazu brauch ich kein MLAA, keine Weichzeichner, kein
        übertriebenes Motion Blur oder gar die Unreal 3 Engine.
        Ist aber wohl das gleiche wie Mikrorucklern, 60+ Hertz, DX10/11, Texturflimmern, usw, der eine sieht es, der andere nicht. Ich z.B. sehe keine Mikroruckler und keine Vorteile bei mehr als 60 Hertz, DX10/11 oder Texturflimmern sehe ich sehr wohl.
        (BTW, weiss jemand, wie ich die übertriebene Tiefenunschärfe beim neuen Duke gezielt und isoliert abschalte?)
        Leider befürchte ich, dass MLAA tatsächlich immer mehr Verbreitung finden wird. Da das Entwickler-Pack leider zu faul ist, die sehr wohl auch bei Post-Processing möglichen echten AA-Modi zu integrieren.
      • Von Rollora Lötkolbengott/-göttin
        Zitat von AMD
        So schlimm sieht MLAA nun auch wieder nicht aus, wie es von vielen hier dargestellt wird.

        @Blackvoodoo: KI Berechnung braucht an sich nicht viel CPU Leistung.
        Glaubst du

        KI hat sich ja au ch seit einigen Jahren nicht entscheidend weiterentwickelt (in Egoshootern) aber es gäbe da genug dinge die auch einen Sandy Bridge E überfordern würden
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
835666
Neue Technologien
Prozessoren
Neu ist die Technik nicht, doch nun gibt es erstmals auch etwas zu sehen: Intels MLAA-Technologie, die auf der CPU berechnet wird. Im Grunde identisch zur von AMD und Nvidia verwendeten Technik, nur wird auf der CPU in angeblich hohem Tempo in Software gerendert.
http://www.pcgameshardware.de/Neue-Technologien-Thema-71240/News/Prozessoren-835666/
25.07.2011
http://www.pcgameshardware.de/screenshots/medium/2011/07/2011-07-25_151832.png
intel,cpu
news