Online-Abo
  • Login
  • Registrieren
Games World
      • Von PCGH_Carsten Redakteur
        Ich brauche, nachdem SSE2/AVX/AVX2 angerissen wurden, nun also keine Falschbehauptung mehr im Artikel beheben, ja? Danke.
      • Von oldsql.Triso Volt-Modder(in)
        Als Resultat dürfte NV vllt. seinen CPU-PhysX-Part verbessern Ansonsten soweit nichts Neues wie ich finde, aber gute Entwicklung!
      • Von Brehministrator BIOS-Overclocker(in)
        Zitat von nembob
        Schon mal was von SSE gehört? Dabei handelt es sich um einen erweiterten Befehlssatz, mit dem man acht 128-Bit breite Register in der CPU ansprechen kann. Mit SSE kannst du Vektor- und Matrixoperationen meist schneller durchführen, als wenn du die Berechnungen von der FPU durchführen lässt. Da die Register aber nur 128Bit groß sind kannst du entscheiden, ob du vier 32Bit floats oder nur zwei 64Bit double reinlädst. Wenn man double verwendet braucht man also offensichtlich doppelt so viele Rechenzyklen. Es gibt zwar mittlerweile auch AVX mit 256Bit aber auch da kannst du doppelt soviele floats reinladen wie doubles. Außerdem gibt es AVX erst seit 2011 mit der Sandy Bridge bzw. Bulldozer Architektur, wodurch die Legende gar nicht mal so alt sein kann. Will man double precision Operationen mit Hilfe von OpenCL auf der GPU berechnen, muss man sogar bei aktuellen Grafikkarten mit Leistungseinbußen rechnen.
        Als Quelle füge ich mal diesen Benchmark ein:
        AnandTech Portal | Floating point peak performance of Kaveri and other recent AMD and Intel chips

        Ansonsten einfach mal ein bisschen über SSE informieren und selber damit rumprobieren.
        Ich kenne die Vektorisierungsbefehle im Prinzip (benutze sie nicht explizit, da ich kein Assembler schreibe ). Ich wusste nicht, dass man die doppelte Anzahl an Operanden in die Register laden kann, wenn man mit Single Precision arbeitet. Das ist natürlich ne coole Sache. Wieder was dazu gelernt, danke
      • Von nembob Schraubenverwechsler(in)
        Zitat von Brehministrator
        Was soll immer diese alte Legende, dass auf einer x86-CPU Single-Precison-Berechnungen (32 Bit Float) schneller wären als Double Precision (64 Bit)? Dem ist nicht so, wie man in unzähligen Internet-Quellen nachlesen kann, und auch sehr einfach selbst feststellen (ich arbeite als Programmierer in der Theoretischen Chemie). Da alle heutigen PC-CPUs Double Precision in Hardware ausrechnen, braucht das etwa gleich viele Zyklen wie Single Precision. Lediglich der Speicherverbrauch ist offensichtlich doppelt so hoch (was manchmal zu weniger effizienter Cache-Ausnutzung führen kann).

        Bitte diese Falschaussage oben im Artikel korrigieren (oder eine Quelle für diese Behauptung einfügen).



        Schon mal was von SSE gehört? Dabei handelt es sich um einen erweiterten Befehlssatz, mit dem man acht 128-Bit breite Register in der CPU ansprechen kann. Mit SSE kannst du Vektor- und Matrixoperationen meist schneller durchführen, als wenn du die Berechnungen von der FPU durchführen lässt. Da die Register aber nur 128Bit groß sind kannst du entscheiden, ob du vier 32Bit floats oder nur zwei 64Bit double reinlädst. Wenn man double verwendet braucht man also offensichtlich doppelt so viele Rechenzyklen. Es gibt zwar mittlerweile auch AVX mit 256Bit aber auch da kannst du doppelt soviele floats reinladen wie doubles. Außerdem gibt es AVX erst seit 2011 mit der Sandy Bridge bzw. Bulldozer Architektur, wodurch die Legende gar nicht mal so alt sein kann. Will man double precision Operationen mit Hilfe von OpenCL auf der GPU berechnen, muss man sogar bei aktuellen Grafikkarten mit Leistungseinbußen rechnen.
        Als Quelle füge ich mal diesen Benchmark ein:
        AnandTech Portal | Floating point peak performance of Kaveri and other recent AMD and Intel chips

        Ansonsten einfach mal ein bisschen über SSE informieren und selber damit rumprobieren.
      • Von Brehministrator BIOS-Overclocker(in)
        Was soll immer diese alte Legende, dass auf einer x86-CPU Single-Precison-Berechnungen (32 Bit Float) schneller wären als Double Precision (64 Bit)? Dem ist nicht so, wie man in unzähligen Internet-Quellen nachlesen kann, und auch sehr einfach selbst feststellen (ich arbeite als Programmierer in der Theoretischen Chemie). Da alle heutigen PC-CPUs Double Precision in Hardware ausrechnen, braucht das etwa gleich viele Zyklen wie Single Precision. Lediglich der Speicherverbrauch ist offensichtlich doppelt so hoch (was manchmal zu weniger effizienter Cache-Ausnutzung führen kann).

        Bitte diese Falschaussage oben im Artikel korrigieren (oder eine Quelle für diese Behauptung einfügen).
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1132159
Spiele-Entwicklung
Physik-Engine Havok 2014.1 auf Quadcore-CPU mit Leistungssprung, Gameplay-Physik auf dem Vormarsch
Der Middleware-Entwickler Havok hat auf der GDC Europe in Köln am Montag einen Überblick über die Entwicklung seiner Physik-Schnittstelle gegeben und gewährte dabei einen (vagen) Ausblick auf die künftige Entwicklung. Klar ist, dass die von Intel übernommene Firma sich auch weiterhin auf die CPU als Kernpunkt für Optimierungen der Multi-Plattform-Middleware konzentriert.
http://www.pcgameshardware.de/Spiele-Entwicklung-Thema-35261/Specials/Havok-20141-auf-Quadcore-CPU-mit-Leistungssprung-1132159/
13.08.2014
http://www.pcgameshardware.de/screenshots/medium/2014/08/Havok_Physics_Middleware_GDC_Europe__31_-pcgh_b2teaser_169.JPG
specials