Online-Abo
  • Login
  • Registrieren
Games World
      • Von FlakZ Freizeitschrauber(in)
        Wenn die Game Grafik sich nicht weltbewegend ändert kann man auch in paar Jahren noch mit z.b meiner msi 770 hoch zocken ^^ oder mittel
        Also wie ich seit Tagen überlegt habe bzw Nachgedacht habe, es lohnt sich 0 wenn die neue 880 what ever.... 30% Leistung bringen würde... erst mit der 900 Serie würde es sich lohnen, das wäre aktuell nur rausgeschmissenes Geld :/
        Oder halt eine 780 Kaufen wenn die wirklich billiger wird ^^ und dann halt Knüppel dann kommt man vielleicht auf das Niveau der 880 ? Falss die 880 die 780 ersetzen soll.
      • Von Gysi1901 Software-Overclocker(in)
        Zitat von Ryoniichan
        Dazu hätte ich mal ne Frage: Graphen....ist ja ín aller Munde seit ein paar Jahren. Siehst du da wirklich "echtes" Potenzial drin für die sagen wir nächsten 5-10 Jahre oder wird das erstens, viel länger dauern (wenn überhaupt da mal was zur Anwendung draus wird) oder zweitens sind das nur Wunschvorstellungen.

        Graphen wird wohl die Welt verändern, aber die der Elektronik eher zuletzt. In den nächsten fünf Jahren sollte man generell nicht mit Weltbewegendem rechnen. Zunächst wird es für simplere Dinge genutzt werden, schon heute steckt es in Tennisschlägern. Danach sind zum Beispiel Wasserfilter denkbar. Aber es ist heute noch unbekannt, ob sich das Material überhaupt für CPUs und GPUs gut eignet -- es hat einige Eigenschaften, die in diesem Bereich, sagen wir, rocken würden, aber andere, die sehr ungünstig sind. Nun ist die Frage, ob man das durch Modifizierungen des Materials oder des Produktdesigns aufwiegen kann. Das steht in den Sternen. Keinesfalls würde ich in den nächsten Jahren Kaufentscheidungen von solchen Eventualitäten abhängig machen.
      • Von cl55amg BIOS-Overclocker(in)
        Zitat von Multithread
        Gut, schon mal überlegt das KEIN entwickler auf die idee kommen dürfte x86 effizienten code in OpenCL/CUDA zu übernehmen, oder gar mitten im Programm einfach so zu wechseln?
        Um es kurz zu machen: Natürlich werden sowohl CPU als GPU genutzt und genau das bietet OpenCL, Cuda usw.
        Nicht alle Berechnungen die durchgeführt werden (auch bei Games) sind hochgradig parallelisierbar und nur dann kann die GPU ihre Stärke ausspielen. Die Aufteilung von bestimmten Aufgaben für die CPU und GPU über Cuda ist einer der wichtigsten Argumente für diese Technologie.

        Zitat von Multithread

        Soweit mir bekannt ist, werden OpenCL, OpenGL, DX und CUDA alle zur Laufzeit für die entsprechende Karte kompiliert, es spielt also durchaus eine rolle ob da nun einmal oder mehrmals Kompiliert werden muss.
        sämtliche .Net Sprachen und auch Java werden alle zur Laufzeit Kompiliert, bzw. 'Just in Time', da muss auch für jede Architektur gearbeitet werden. normalerweise spielt das keine rolle, wenn du aber 60 mal die Sekunde irgendwas kompilieren musst, dann summiert sich das ganz schnell.
        Java baut auf einem ganz anderen Ansatz auf als Sprachen die einen Compiler spezifisch für eine bestimmte Architektur nutzen. Java nutzt eine Virtual Machine die du dir erstmal anschauen solltest... (durch die VM kann ein Java Code auf unterschiedlichen Plattformen ausgeführt werden, ohne das er spezifisch für bestimmte Plattformen optimiert/compiled werden muss)

        Cuda bzw. C#, C++ usw. (wobei Cuda nochmal etwas hardware näher ist) nutzen Compiler die den High Level Code spezifisch für eine bestimmte Architektur, in binäre Instruktionen übersetzen. Dies passiert einmal und nicht zur Laufzeit! Der daraus resultierende binäre Code kann dann von GPU/CPU ausgeführt werden. So optimiert man die Ausführung für eine bestimmte Architektur. Ein bereits kompilierter Code muss nicht zur Laufzeit erneut kompiliert werden, dies würde keinen Sinn ergeben. Ein binärer code kann natürlich von einem hardware scheduler optimiert werden (x86 typisch) oder auch vom Treiber einer GPU. Das hat aber nichts mit erneutem kompilieren zu tun. So wird dann z.B. die Ausführungsreihenfolge verändert oder bestimmte Instruktionen zusammengefasst da man sie in einem Taktzyklus berechnen kann.
      • Von TheGoodBadWeird Freizeitschrauber(in)
        Zitat von Multithread
        Gut, schon mal überlegt das KEIN entwickler auf die idee kommen dürfte x86 effizienten code in OpenCL/CUDA zu übernehmen, oder gar mitten im Programm einfach so zu wechseln?
        Nein, das ist quasi immer der Fall!
        Jedes programmierte Spiel hat Teile für die CPU und für die GPU. Bestimmte Module befassen sich mit z.B. Physik, Zustandsveränderungen wie Tag-/Nachtwechsel etc. Je nachdem welcher Teil davon gebraucht wird, werden entweder Teile für die GPU benutzt oder halt für CPU. Im Idealfall hat man beides, dann muss aber das Multithreading entsprechend gut optimiert sein.

        Um Mischcode auszuführen gibt es für CUDA verschiedene Interpreter.

        Zitat von Multithread

        Soweit mir bekannt ist, werden OpenCL, OpenGL, DX und CUDA alle zur Laufzeit für die entsprechende Karte kompiliert, es spielt also durchaus eine rolle ob da nun einmal oder mehrmals Kompiliert werden muss.
        sämtliche .Net Sprachen und auch Java werden alle zur Laufzeit Kompiliert, bzw. 'Just in Time', da muss auch für jede Architektur gearbeitet werden. normalerweise spielt das keine rolle, wenn du aber 60 mal die Sekunde irgendwas kompilieren musst, dann summiert sich das ganz schnell.

        Diesbezüglich kam bei Golem frisch ein Artikel.
        Quelle:
        Project Denver: Nvidias K1 mit 64 Bit optimiert ARM-Programme selbst - Golem.de

        Kurz zusammengefasst steht darin, dass ich ein ARM-Prozessor aus "Projekt Denver" seine ARM-Programme (Apps) selbst optimiert. Dafür zwackt er sich 128 MB aus dem Hauptspeicher und legt dort die benötigten Programme ab. Anschließend übersetzt er sie sich selbstständig. Es folgt sortieren/organisieren und wieder ablegen, bis man die Sache erneut braucht. Man muss also nicht wie von dir angenommen immer wieder dasselbe kompilieren.

        Ähnlich habe ich es kürzlich geschrieben. Nur hat Nvidia da noch eine Menge Finesse reingepackt.
      • Von Multithread Software-Overclocker(in)
        Zitat von cl55amg
        CPUs (ob x86 oder RISC), GPUs sprechen genau die selbe Sprache: Binary Instructions.
        Abhängig von der jeweiligen Architektur gibt es große Unterschiede im Instruction Set und bei der grundsätzlichen Art und Weise wie bestimmte Intsruktionen verarbeitet werden. Wenn man jetzt die High Level Language Ebene betrachtet, dann entwickelt man z.B. in C# oder C++ und fügt entsprechende tags in den Code, die dem Compiler sagen das bestimmte Instruktionen von der GPU berechnet werden sollen und andere von der CPU (das bietet z.B. Cuda). Die tags alleine reichen nicht aus damit Instruktionen effizient verarbeitet werden können. Bei GPUs muss man genau sagen welche Berechnungen auf welchem SM und mit wievielen Threads laufen sollen. Wobei dies aktuell wahlweise auch ein Compiler machen kann, mit vielleicht etwas schlechteren Ergebnissen als bei einer händischen Optimierung.
        Gut, schon mal überlegt das KEIN entwickler auf die idee kommen dürfte x86 effizienten code in OpenCL/CUDA zu übernehmen, oder gar mitten im Programm einfach so zu wechseln?

        Zitat von cl55amg

        Warum muss ich 2 mal kompilieren? Und auch wenn ich 10 mal kompilieren müsste, passiert dies nicht zu Laufzeit und spielt damit keine Rolle.
        Soweit mir bekannt ist, werden OpenCL, OpenGL, DX und CUDA alle zur Laufzeit für die entsprechende Karte kompiliert, es spielt also durchaus eine rolle ob da nun einmal oder mehrmals Kompiliert werden muss.
        sämtliche .Net Sprachen und auch Java werden alle zur Laufzeit Kompiliert, bzw. 'Just in Time', da muss auch für jede Architektur gearbeitet werden. normalerweise spielt das keine rolle, wenn du aber 60 mal die Sekunde irgendwas kompilieren musst, dann summiert sich das ganz schnell.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1131948
Grafikkarten
Nvidia Maxwell: Angebliche Spezifikationen zur GTX 870, + 18 % zur GTX 770 im 3DMark 11
Im chinesischen Forum von coolaler.com sind Screenshots aufgetaucht, welche mit einer Geforce GTX 870 erstellt worden sein sollen. Demnach soll die Grafikkarte 13 SMM mit insgesamt 1.664 Shadereinheiten sowie 4 GiByte GDDR5-Videospeicher besitzen. Der Grafik-Score im 3DMark 11 fällt um 18 Prozent höher aus als bei der GTX 770 - sofern der Screenshot echt ist.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Spezifikationen-GTX-870-Vergleich-GTX-770-1131948/
11.08.2014
http://www.pcgameshardware.de/screenshots/medium/2014/08/Nvidia_Geforce_GTX_870_Leak_2-pcgh_b2teaser_169.jpg
nvidia,gpu,maxwell,grafikkarte,geforce
news