Online-Abo
  • Login
  • Registrieren
Games World
      • Von Rollora Lötkolbengott/-göttin
        Zitat von 45thFuchs
        Da hab ich ja wieder was schönes zu lesen
        Die Unreal Engine als verbreiteter Grafikmotor eignet sich wirklich sehr gut,und kommt in gefühlt 50% alter Triple A Titel vor
        ja sie ist so extrem flexibel.
        Macht man was mit der Cryengine fängt man mit einem Shooter an und muss es modden bis es was anderes ist.
        Fängt man mit der UE an... ist es völlig egal ob man einen Shooter, ein Rollenspiel, ein Strategiespiel, ein Jump and Run oder einen Flugsimulator bauen will ^^. (ok letzteres ist mit der ARMA Engine wohl besser )
      • Von 45thFuchs Software-Overclocker(in)
        Da hab ich ja wieder was schönes zu lesen
        Die Unreal Engine als verbreiteter Grafikmotor eignet sich wirklich sehr gut,und kommt in gefühlt 50% alter Triple A Titel vor
      • Von yingtao Freizeitschrauber(in)
        Zitat von Rollora
        Schön schön.
        Schade, dass diese 100e Effekte die Nvidia uns seit 2003 präsentiert (damals noch mit Havok FX, jetzt mit PhysX) es nie flächendeckend in Spiele schaffen, weil es kein offener Standard ist.

        Technisch gesehen nett, aber irgendwie traurig wie die Technik sich auf manchen Bereichen in 10 Jahren weiterentwickelt (Grafik), in manchen Bereichen stehen bleibt (Physik) und in manchen Bereichen sich rückwärts entwickelt (Sound, KI)


        Selbst offene Standards schaffen es nicht flächendeckend in Spiele, weil irgendwer für die Implementierung bezahlen muss. Guck dir bullet physics an oder auch TressFX. Beides kostenlos und keiner nutzt es. AMD hatte damals bullet physics gehyped und promoted jetzt doch eher havok und TressFX basiert auf OpenCL und wurde auf andere Art bereits in verschiedenen DX11 Demos eingesetzt.

        Spiele werden gemacht um damit Geld zu verdienen und am Ende ist es eine Kosten-Nutzen Rechnung. Selbst wenn es bereits in die Engine implementiert ist wie z.B. PhysX bei der Unreal Engine nutzen es die Entwickler kaum. Momentan fehlt es einfach an einem Killer-Argument warum man z.B. eine tolle Physikengine benutzen sollte. Für einfache Physikrätsel reicht auch das was man schon seit 10+ Jahren verwendet. Nvidia hat mit Gameworks eine komplette Bibliothek geschaffen und wenn die Sachen daraus gut aussehen und gut laufen könnten mehr und mehr Entwickler das benutzen. Ubisoft will Gameworks ja für alle zukünftigen Projekte verwenden und CD Project spricht auch sehr gut darüber.
      • Von Rollora Lötkolbengott/-göttin
        Zitat von 45thFuchs
        Vernünftige anbindung von CPU und GPU mit vereintem Speicher sehe ich da als nützlicher.
        Obwohl ich zugeben muss das Intels Quicksync mit dem I3 ein biest ist.
        Nicht vergessen das AMD da eigentlich der zu lobende ist,Intel konnte nur schnell nachziehen.
        nana da muss ich dich korrigieren. Jahrelang hörte man von AMD "future is fusion" aber Intel waren die ersten mit einer integrierten iGPU.
        Bezüglich gemeinsamen Speicher ist das so eine Sache:
        Der Hauptspeicher bzw das System-RAM ist ja erheblich langsamer, den RAM der GPU zu verwenden wäre wiederum eine Verschwendung für Systemrelevante Daten.
        Aber stimmt schon: wenn es möglich ist Physik und KI Daten in einem gemeinsamen Speicher zu haben wäre das super. Am ehesten geht das eben über die iGPU, da sind schon alle Daten im Hauptspeicher.
        Zitat von 45thFuchs

        Was geil wäre :
        Wenn die IGPU tatsächlich für Physik gebraucht wird.
        Die CPU dann die KI und Raster stemmt.
        Und die DDGPU den Rest.
        Tatsächlich hat die iGPU genug Power für Effekt-Physik und KI gleichzeitig. Die CPU kümmert sich dann um alles andere, was eine CPU halt so machen soll und die GPU um die Grafik. Soweit die Theorie.
        Zitat von 45thFuchs

        Damit wären IGPU erstmals ihrer idee ,von AMD! nahe.
        Vorallem wäre AMD wieder wichtig als Prozessorhersteller
        Schließlich wäre es dann plötzlich wichtig, wie schnell die Grafik im Prozessor ist.
        Zitat von 45thFuchs

        Als hersteller sollten wir Crytek auch nicht vergessen,es sind neue da.
        Ja, beim schreiben hab' ich an Crytek gedacht. Aber am ehesten ist hier noch die extrem flexible Unreal Engine 4 zu erwähnen. Die unterstützt quasi alles was zur Zeit wichtig ist. Die Cryengine ist, wenn man man "unter die Haube" schaut, eine Enttäuschung, sie ist enorm unflexibel was neue Technologien betrifft, quasi sehr starr im Aufbau und lässt auch wenig flexibles zu beim Spieldesign. Was anderes als Shooter mit ihr zu machen dauert ewig und ist sehr komplitziert.
        Von Crytek bin ich insgesamt sehr enttäuscht, es kommt eigentlich schon viele Jahre nix vernünftiges mehr von denen, außer halt interaktive Techdemos (Ryse usw). Technisch herausragend war schon lange nix mehr.
        Zitat von 45thFuchs

        Mitderweile sind es mehr die Namen als Team,einzelne schaffen es nur schwer an die spitze.
        Was bei den Budgets und der Komplexität neuer Engines ,ja eigentlich kein Wunder ist...
        Falls du jemals ein Hobbyprojekt machen möchtest mit Engines oder Spieleentwicklung kann ich wirklich die vergleichsweise(!) einfach zu benutzende, sehr flexible Unreal Engine empfehlen.
        Die setze ich auch für Schülerprojekte mit Erfolg ein.
        Zitat von 45thFuchs

        Für Nvidia bedeutet es wegen der offenen (weißt was ich meine) Entwicklungshilfe sowieso irgendwann das aus.
        In BL2 zum beispiel nutze ich Physx nicht,in Metro2033 hat es auch keinen spürbaren Mehrwert .
        Wäre es für alle würde sich viel ändern können nach dem Motto: Ganz oder gar nicht.
        Bei Nvidia nervt mich diese Firmenpolitik einfach: so viele proprietäre Standards.
        Aber genau das macht sie zum Führenden: Sie unterstützen halt alles offene PLUS ihren eigenen "Mist". Damit ist man mit einer Nvidia leider immer auf der sicheren Seite.
        Habe jetzt genau deswegen (und weil sie mein geliebtes 3dfx ausgeschlachtet haben) nie gekauft, aber bleibt wohl nicht viel anderes über als früher oder später Nvidia zu kaufen. Die ständig wiederkehrenden Treiberprobleme bei AMD (die aufgrund 30 % Marktanteil klar sind, schließlich haben sie weniger Feedback von den Usern wie Nvidia mit 70%) und die zusätzlichen Features (G Sync, besserer 3D, OpenGL, Linux, Mac Support, PhysX und derzeit auch die bessere Architektur) sprechen halt schon auch für sich.

        Es läge halt an den Spieleherstellern und AMD mal die Open Source Alternativen zu PhysX durchzudrücken.
        Aber von "Bullet" hab' ich schon lange nix mehr gehört

        Real-Time Physics Simulation

        Havok sieht auch interssant aus, vielleicht nutzen die endlich mal die iGPU, schließlich gehört Havok Intel
        Havok Physics | Havok

        Hier kann man sich übrigens ein tech-Paper ansehen zu CPU +GPU Physik
        http://www.multithreading...

        Hier sind noch ein paar andere Papers
        http://www.multithreading...
      • Von 45thFuchs Software-Overclocker(in)
        Vernünftige anbindung von CPU und GPU mit vereintem Speicher sehe ich da als nützlicher.
        Obwohl ich zugeben muss das Intels Quicksync mit dem I3 ein biest ist.
        Nicht vergessen das AMD da eigentlich der zu lobende ist,Intel konnte nur schnell nachziehen.

        Was geil wäre :
        Wenn die IGPU tatsächlich für Physik gebraucht wird.
        Die CPU dann die KI und Raster stemmt.
        Und die DDGPU den Rest.

        Damit wären IGPU erstmals ihrer idee ,von AMD! nahe.

        Als hersteller sollten wir Crytek auch nicht vergessen,es sind neue da.
        Mitderweile sind es mehr die Namen als Team,einzelne schaffen es nur schwer an die spitze.
        Was bei den Budgets und der Komplexität neuer Engines ,ja eigentlich kein Wunder ist...

        Für Nvidia bedeutet es wegen der offenen (weißt was ich meine) Entwicklungshilfe sowieso irgendwann das aus.
        In BL2 zum beispiel nutze ich Physx nicht,in Metro2033 hat es auch keinen spürbaren Mehrwert .
        Wäre es für alle würde sich viel ändern können nach dem Motto: Ganz oder gar nicht.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
video
1140374
Nvidia Geforce
Nvidia Turf Effects im Video
Für Spiele-Entwickler, die Nvidias Gameworks verwenden, wird es demnächst ein neues Feature geben, das die Berechnung von Grasflächen erleichtert. Nvidia nennt dieses Feature "Turf Effects" und verspricht "riesige Grass-Simulationen mit physikalischer Interaktion". Im Video ist das neue Feature schon vorab zu sehen.
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Videos/Nvidia-Turf-Effects-im-Video-Rasen-1140374/
26.10.2014
http://www.pcgameshardware.de/screenshots/medium/2014/10/41D2D896-DA09-043B-A5C06216A8F4E23F_b2teaser_169.jpg
videos
http://vcdn.computec.de/ct/2014/10/60304_sd.mp4