Online-Abo
  • Login
  • Registrieren
Games World
      • Von S_Fischer Software-Overclocker(in)
        Hey hab das gleiche System wie du cpu auf 3,2ghz wenn ich auto fahre kommen kurze ruckler bzw hänger aber nur wenn ich auto fahre nutze allerdings auch vista achte mal darauf ob das bei dir auch so ist.

        Zitat von Hellhammer
        soweit ich informiert bin hat ubisoft mit nvidia zusammengearbeitet!
        soviel ich aber selbst sehen kann, mein system ist nicht des neueste, aber
        ich habe keinerlei performance problem, alles auf der höchsten stufe mit
        e6850, 4 gig ram allerdings unter XP, graka 8800 gtx!

        das selbe ist mit amd-karten, also ich weis nicht wo das problem ist!
        seht ihr im zocken einen unterschied?

        im gefecht? oder wo ist der bemerkbar? in einem screenshot ja!
        im spiel selbst nicht! oder sehr selten

        der unterschied wird offensichtlich auf der xbox, da wiederum zum pcvergleich
        welches system? vista ja mit 8800 gtx, kenne in der ferne ein paar sträucher mehr, ansosnt nix!

        der unterschied ist, der pc ist keine spielekonsole, ansonst finde ich es
        grafisch wie auch im spiel gegenüber der xbox 360 absolut gleichwertig!

        also nicht jammern was wie direct x 10.1 oder 10.0, auch 9.0c ist sehr wohl spielfähig und genauso attraktiv im grafikbereich

        ich kenne wenig unterschiede, und habe sehr wohl vergleiche gesehen!


        entweder ein gutes spiel das spass macht, oder konsole und um 10 - 15 euro mehr bezahlen und dann is die grafik super, aber doch das spiel mist?

        der spielspass soll immer im vordergrund sein!
      • Von Hellhammer Schraubenverwechsler(in)
        soweit ich informiert bin hat ubisoft mit nvidia zusammengearbeitet!
        soviel ich aber selbst sehen kann, mein system ist nicht des neueste, aber
        ich habe keinerlei performance problem, alles auf der höchsten stufe mit
        e6850, 4 gig ram allerdings unter XP, graka 8800 gtx!

        das selbe ist mit amd-karten, also ich weis nicht wo das problem ist!
        seht ihr im zocken einen unterschied?

        im gefecht? oder wo ist der bemerkbar? in einem screenshot ja!
        im spiel selbst nicht! oder sehr selten

        der unterschied wird offensichtlich auf der xbox, da wiederum zum pcvergleich
        welches system? vista ja mit 8800 gtx, kenne in der ferne ein paar sträucher mehr, ansosnt nix!

        der unterschied ist, der pc ist keine spielekonsole, ansonst finde ich es
        grafisch wie auch im spiel gegenüber der xbox 360 absolut gleichwertig!

        also nicht jammern was wie direct x 10.1 oder 10.0, auch 9.0c ist sehr wohl spielfähig und genauso attraktiv im grafikbereich

        ich kenne wenig unterschiede, und habe sehr wohl vergleiche gesehen!

        entweder ein gutes spiel das spass macht, oder konsole und um 10 - 15 euro mehr bezahlen und dann is die grafik super, aber doch das spiel mist?

        der spielspass soll immer im vordergrund sein!
      • Von perv Gesperrt
        Zitat von b0s

        Achso die 3D Center auswertung ist Quatsch Warum sagt mir das nicht gleich jemand, dann bräuchte ich den Artikel ja gar nicht einzubringen?
        Wie man beim lesen oder überfliegen des Artikels hätte merken können, ist weder die 8800GTX noch die 2900XT darin enthalten, deswegen geht deine Aussage etwas am Stichpunkt vorbei.

        Klar ist es Quatsch. Nur weils es beim 3dcenter steht, heißt das noch lange nicht, dass es stimmen muss. Z. B. deren News der letzten Jahre zeigen das besonders gut, da stand oft mehr Quatsch als Warheit, die dann meist schon wenige Tage später wieder revidiert wurde
        Man kann doch nicht einfach von der (auch noch fernen) Vergangenheit so mir nichts dir nichts verlässliche Aussagen über die Zukunft treffen. Als wenn sich nichts verändert, niemand dazulernt oder seine Strategien überdenkt usw usw. So ein Blödsinn. Und grade die 8800GTX und 2900XT sind hier zwei ganz ausschlaggebende Kaliber. Habe mir diesen Artikel deshalb auch gar nicht erst angesehen. Betrachtet man nur die letzten beiden Jahre, müsste man sogar ganz deutlich zu NV tendieren.

        Zitat

        Dass jene Karte, die bei Release vorne liegt die beste Halbwertszeit haben soll ergibt für mich keinen Sinn, da sich Belastungsschwerpunkte im Laufe der Spieleentwicklung verändern und die Karten im Nachhinein möglicherweise unterschiedlich guten Treibersupport genießen.

        Ein Hersteller der bei Vorstellung seiner Generation deutlich vorne liegt, wird nicht so einfach von der Konkurrenz überholt. Man muss schon von sehr positiven Entwicklungen ausgehen (Warscheinlichkeit nimmt ab) damit das passiert, insofern geht man erstmal davon aus, das derjenige der vorne liegt auch dort bleibt. Zwar auch alles reichlich spekulativ, jedenfalls ist das noch warscheinlicher als nach 3dc Vorbild ins Vergangenheitsorakel zu schauen.

        Zitat

        Mit Renderpfaden kenne ich mich nicht besonders gut aus, jedoch glaube ich nicht, dass der diskutierte Effekt einmal in DX10.1 für ATi und einmal in DX10.1 für Nvidia geschrieben würde, sondern lediglich einmal in DX10.1 und dann in beiden Renderpfaden zum Einsatz kommt. Daher schätze ich nach wie vor, dass die DX10 Effektumsetzung ein mehr an Programmieraufwand war.

        Nun ich bin auch kein Programmierer, aber ich denke es steckt da wesentlich mehr Anpassungsaufwand für den jeweiligen Hersteller dahinter als Du vermutest. Insofern finde ich es gar nicht sonderlich bedeutend, wenn hier geschrieben wird, dass man für Nvidia einen etwas anderen Weg gegangen ist. Ich finde es toll, dass sich ein Entwickler Mühe gibt es allen recht zu machen!
        Und es ist doch wohl glasklar, dass der Aufwand und damit die finanzielle Investition nicht so groß sein konnte, sonst hätten die es lieber gelassen!!
        Das ist nämlich auch genau der Grund, warum sich so wenig im DX10 Sektor tut: Die Hersteller sehen hier (noch) keinen Sinn im Verhältnis zum (finanziellen) Aufwand und das sagen sie auch immer wieder!!
        Fazit: Wenn der Entwickler hier für NV zusätzlich optimiert hat, dann war das absolut kein großes Ding, sondern eher etwas was man im Zuge normaler Programmanpassung "nebenbei" erledigen kann! Nur weil hier ein guter Kompromiss gefunden wurde, heißt es noch lange nicht, dass sich Ubisoft dafür gleich ein Bein ausreißen musste.
        Man sollte dies dem Entwickler einfach nur in jeder Hinsicht positiv anrechnen!!
        Es gibt doch wirklich genug Schrottspiele in denen es keine AA Funktionalität gibt (grade bei ATI-Karten) oder man fleissig mit tweaking Tools nach den richtigen Hacks/Settings suchen muss...
      • Von b0s PCGH-Community-Veteran(in)
        Zitat von perv
        Aktuelle Spiele laufen also alle schneller auf DX10.1 Hardware?????? Das wird ja immer schöner hier
        Es gibt kaum Vorteile durch DX10, DX10.1 wird so gut wie gar nicht unterstützt, und bei FC2 gibt es auch keinen Unterschied zwischen beiden Herstellern, also wie kommst Du nur auf soetwas???

        Also diese 3dcenter Auswertung ist doch quatsch. Die beste Halbwertszeit hatte wohl eher zuletzt eine 8800GTX (und davor dann die x1900 Serie). Oder würdest Du z. B. behaupten die 2900XT war eine gute Karte die man lange nutzen konnte/kann? Wohl kaum. Außerdem kann man soetwas kaum auf zukünftige karten prognostizieren, das ändert sich doch mit jeder Hardwaregeneration. Keiner weiß wie die Softwareanforderungen zukünftiger Spiele wirklich im Detail aussehen, das kann man eher grob erahnen und der Hersteller dessen Architektur halt am besten passt, hat Glück gehabt. Ich würde eher sagen, die beste Halbwertszeit hat die Karte die bei Release vorne liegt, denn man muss dann erstmal davon ausgehen, dass dieser Leistungsvorteil erhalten bleibt!


        Wer sagt denn, dass die in FC2 verwendeten Features nicht genauso gut auf zukünftigen Karten beider Hersteller laufen sollen?? Oder glaubst Du wirklich ernsthaft, die Funktionen des Nvidia Renderpfades laufen ausschließlich auf den aktuell erhältlichen Grafikkarten und sind zu zukünftigen Karten inkompatibel?? So ein Quatsch.
        Letztlich bekommt doch sowieso jeder Hersteller seinen eigenen Renderpfad, also kann man hier kaum von besonderem Aufwand sprechen.


        Das hast du falsch verstanden oder ich hab mich missverständlich ausgedrückt. Ich meinte nicht, dass aktuelle Spiele jetzt von DX10.1 profitieren, sondern, dass dann (in einem oder mehr Jahren) aktuelle Spiele von DX10.1 Features gegenüber DX10 profitieren könnten.

        Achso die 3D Center auswertung ist Quatsch Warum sagt mir das nicht gleich jemand, dann bräuchte ich den Artikel ja gar nicht einzubringen?
        Wie man beim lesen oder überfliegen des Artikels hätte merken können, ist weder die 8800GTX noch die 2900XT darin enthalten, deswegen geht deine Aussage etwas am Stichpunkt vorbei. Mir ging es darum das Verhältnis der Langlebigkeit der Nvidia und ATI GraKas aufzuzeigen und in Verbindung mit dem heutigen Stand zu bringen. Daher stimme ich mit deinem Statement nicht überein.
        Natürlich kann man die Leistungsanforderungen der zukünftigen Spiele nicht prognostizieren, doch das konnte man auch vor 5 Jahren noch nicht. Was wir darüber nun wissen ist also Erfahrung. Undsolange es kein Stichhaltiges Indiz gibt, welches dem entgegensteht gibt es keinen Grund an der Gültigkeit der Erfahrung für die Zukunft zu zweifeln.

        Dass jene Karte, die bei Release vorne liegt die beste Halbwertszeit haben soll ergibt für mich keinen Sinn, da sich Belastungsschwerpunkte im Laufe der Spieleentwicklung verändern und die Karten im Nachhinein möglicherweise unterschiedlich guten Treibersupport genießen. Welche/r (weiteren) Faktor/en in den letzten Jahren letzendlich ausschlaggebend war/en weiß ich nicht, doch 3D Center zeigt, dass es zugunsten ATi ausgefallen ist.

        Mit Renderpfaden kenne ich mich nicht besonders gut aus, jedoch glaube ich nicht, dass der diskutierte Effekt einmal in DX10.1 für ATi und einmal in DX10.1 für Nvidia geschrieben würde, sondern lediglich einmal in DX10.1 und dann in beiden Renderpfaden zum Einsatz kommt. Daher schätze ich nach wie vor, dass die DX10 Effektumsetzung ein mehr an Programmieraufwand war.
      • Von pcp-brattcoxx Freizeitschrauber(in)
        Zitat
        Ubisoft nutzt für Far Cry 2 also für Nvidia-Grafikkarten eine Art inoffizieller Direct-X-10.0-Erweiterung, um die Anti-Aliasing-Technik von Direct X 10.1 zur Verfügung zu stellen. Dafür ist händische Programmierarbeit notwendig, da die Direct-X-API diese Funktionen im Gegensatz zu Direct X 10.1 samt passender Hardware nicht offenlegt.


        Ich finde es schade, um nicht zu sagen gaz schön feist das ein Spieleentwickler wertvolle Arbeitsstunden investieren muss welche auch an anderer Stelle der Entwicklung hätten investiert können, nur weil ein Hardwareentwickler namens Nvidia partout nicht in der Lage ist bzw. nicht in der Lage sein möchte Hardware zu stellen, welche die aktuellen Möglichkeiten der Programmierung unterstützt.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
664388
Far Cry 2
Auch Geforce-Grafikkarten werden beschleunigt
Nachdem einige Verwirrung rund um das Thema Far Cry 2 und Direct X 10.1 herrschte, hat Ubisoft nun ein Statement veröffentlicht, das Klarheit bringt.
http://www.pcgameshardware.de/Far-Cry-2-Spiel-23141/News/Auch-Geforce-Grafikkarten-werden-beschleunigt-664388/
22.10.2008
http://www.pcgameshardware.de/screenshots/medium/2008/09/pcgh_online_07_080926194214.jpg
far cry 2
news