Games World
      • Von flozn Freizeitschrauber(in)
        Zitat von Skysnake
        Und das hat jetzt genau was mit CUDA zu tun? Richtig gar nichts.
        Kruzifixhalleluja, wir reden aneinander vorbei.

        Du sagst, CUDA hat nichts mit Rendering zu tun. Ich gebe dir eines von vielen Beispielen eines CUDA-Renderers. -> Du sagst, das hätte nichts mit CUDA zu tun. Ich schüttle meinen Kopf ...

        Noch einmal: Versuche doch, Blenders Cycles auf einer Nicht-CUDA-GPU laufen zu lassen und du wirst sehen, dass es nach CUDA verlangt, also sehr wohl etwas mit CUDA zu tun hat ...

        Ist jetzt klar, was ich meinte? Ich habe nie gesagt, dass CUDA dieses oder jenes wäre, sondern es etwas mit Renderern zu tun hat, welche - was mein ursprünglicher Punkt war - auf der 750 Ti angesichts ihrer TDP VERDAMMT schnell laufen, was diese Karte zu einem kleinen Computing-Monster machen.

        Hier ein Zitat von DingTo - einem Blender-Entwickler bzgl. OpenCL:
        Zitat
        1) Der Fehler liegt zu >95% auf AMDs Seite. Unser OpenCL Code funktioniert auf anderen GPU und CPU Plattformen.
        2) Die meisten kommerziellen GPU Render Engines setzen auf CUDA und nicht auf OpenCL. Warum wohl? :idea:
        Und die Engines die auch OpenCL benutzen, sind meistens nur Hybriden (Ray Tracing auf GPU), das Shading etc. findet weiterhin auf CPU statt.

        Luxrender ist hier eine Ausnahme, weil sie ihr Programm in kleinere Kernel aufgeteilt haben. Das hat Vor und Nachteile. Dennoch haben auch die Probleme mit AMD. Du musst mal Jens fragen (einer der Lux Entwickler), der ist gar nicht gut auf AMD und deren OpenCL Compiler zu sprechen.

        Ich bestreite ja gar nicht, dass wir auf unserer Seite den OpenCL Code verbessern können, aber ohne funktionierende AMD Treiber macht das wenig Sinn. AMD hat in den letzten Wochen nachgelegt, aber wir sind dennoch noch nicht am Ziel. :|
      • Von BigBubby PCGH-Community-Veteran(in)
        Ich selber nutze weder CUDA noch sonst irgend eine GPGPU aktiv. Ich kann nur wiedergeben, was einige Programmierer aus meinen Kreisen sagen und die sind mehrhaltig auch der Meinung, dass Cuda und Nvidia-Karten für sie angenehmer sind, einfacher zu handhaben und stabiler sind. Ich kann es wie gesagt nicht bewerten in dem Bereich, sondern nur weitergeben, was andere sagen, die täglich damit arbeiten müssen.
      • Von Skysnake Lötkolbengott/-göttin
        Zitat von flozn
        Uff ... noch nie etwas von GPU Rendering gehört?! https://render.otoy.com/i... z.B.
        Und das hat jetzt genau was mit CUDA zu tun? Richtig gar nichts.

        CUDA ist eine API/Programmiersprache, wie C/C++ oder auch Java eine ist. Damit kann man einen Renderer schreiben, wobei mit CUDA man nur einen Beschleunigen kann. C/C++ bzw. Java usw braucht man ja dennoch für das ganze Geraffel außen rum.

        Es gibt auch genug andere Renderer, die auf allen möglichen APIs aufsetzen. Meist zwar C/C++, es gibt aber z.B. auch eine OpenGL Erweiterung, die dir aus OpenGL einen Raytracer baut, mit dem man ganz nette Ergebnisse bekommt. Verwendet heutzutage nur fast keine sau mehr. Blender, Luxx und eben das von dir genannte Octane sind da viel viel viel verbreitertet und heutzutage mehr oder weniger die Standardware.

        Zitat

        Diese benutzen kein DP
        Ähm...

        NOT. Sorry, aber natürlich verwenden auch Renderer DP, bzw. unterstützen. Man muss es halt nur einschalten, was aber die wenigsten machen, da der Performancehit die Qualitäts"verbesserung" nicht rechtfertigt. Im Normalfall wird man schlicht keinen Unterschied sehen als Laie.

        Zitat

        und da CUDA viel ausgereifter als OpenCL ist,
        Ach so!!!

        Natürlich, CUDA ist ausgereifter. Wie konnte ich das nur vergessen? Wobei wait!

        Wie kommst du denn darauf? Was ist denn "ausgereifter" an CUDA? Und vor allem warum?

        Zitat

        kommt man hier nicht an Nvidia-Karten vorbei.
        Das stimmt allerdings. Denn CUDA gibt es da propritär, eben nur mit nem nVidia Produkt... Das sagt aber rein gar nichts über die Qualität aus...

        Zitat

        Edit: Bitte das nächste Mal informieren und dann erst posten.
        Hättest du es doch nur bei der PM belassen, ich hätte es dir in Ruhe erklärt, wo dein Denkfehler ist.

        Ich weiß nicht, wieviel du mit GPGPU am Hut hast, aber ich befürchte eher weniger.
      • Von BigBubby PCGH-Community-Veteran(in)
        Außerdem, welche Firma holt sich wirklich eine Mittelklasse Grafikkarte, um damit zu Rendern? Die Arbeitszeit, die dadurch verloren geht, wäre mehrfach ein Highendmodel wert gewesen...
      • Von M4xw0lf Lötkolbengott/-göttin
        Zitat von flozn
        Uff ... noch nie etwas von GPU Rendering gehört?! https://render.otoy.com/i... z.B.

        Diese benutzen kein DP und da CUDA viel ausgereifter als OpenCL ist, kommt man hier nicht an Nvidia-Karten vorbei.

        Edit: Bitte das nächste Mal informieren und dann erst posten.

        Lol. Ohne Worte
  • Print / Abo
    Apps
    PC Games Hardware 07/2016 PC Games 06/2016 PC Games MMore 05/2016 play³ 07/2016 Games Aktuell 06/2016 buffed 06/2016 XBG Games 03/2016
    PCGH Magazin 07/2016 PC Games 06/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1109814
Grafikkarten
Nvidia Geforce GTX 750 Ti im Test: Maxwell, Meister der Energieeffizienz [Update mit "Free Boost"]
Die Leistung des jungen Maxwell oder: Geforce GTX 750 Ti im Test. Nvidia führt mit der Geforce GTX 750 und Geforce GTX 750 Ti die auf hohe Energieeffizienz getrimmte Maxwell-Architektur ein. Was der GM107-Chip leistet, ob er Kepler in Grund und Boden rechnet und ob sich AMD fürchten muss, erfahren Sie im PCGH-Test der Geforce GTX 750 Ti.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/
20.02.2014
http://www.pcgameshardware.de/screenshots/medium/2014/02/Geforce_GTX_750_Ti_GK107-GPU-pcgh_b2teaser_169.jpg
grafikkarte,nvidia,geforce
tests