Online-Abo
  • Login
  • Registrieren
Games World
      • Von CPFUUU PC-Selbstbauer(in)
        Zitat von cPT_cAPSLOCK
        Ich bezweifle, dass die Kepler ihre theoretische Peakleistung komplett ausfahren konnten.
        Meines Wissens nach sind die Kepler in Sachen Raytracing eh ziemlich schwach. Soweit ich weiß war da sogar Fermi schneller.
        gRU?; cAPS
        Ja das kann gut sein, hier ist ein aktueller Benchmark :
        NVIDIA GeForce GTX Titan X im Test

        Wer weiß wie weit man noch mit spezieller raytracing hardware nachhelfen könnte.
      • Von cPT_cAPSLOCK BIOS-Overclocker(in)
        Zitat von CPFUUU
        Die Demo lief mit 80 Amazon GPUs. Das sind wohl die alten Kepler,also GTX 680.
        Mit anderen Worten 250 teraflop waren nötig.
        Ich bezweifle, dass die Kepler ihre theoretische Peakleistung komplett ausfahren konnten.
        Meines Wissens nach sind die Kepler in Sachen Raytracing eh ziemlich schwach. Soweit ich weiß war da sogar Fermi schneller.
        gRU?; cAPS
      • Von CPFUUU PC-Selbstbauer(in)
        Die Demo lief mit 80 Amazon GPUs. Das sind wohl die alten Kepler,also GTX 680.
        Mit anderen Worten 250 teraflop waren nötig.
      • Von bockwurst90 Komplett-PC-Käufer(in)
        Welcher Teil ist Bullshit daran?

        Falls du selber einen Raytracer schreiben möchstest, tu das doch. Kannst Java-Wrapper für den Boilerplate Code verwenden, wenn es dir hilft. Kannst dich davon überzeugen, dass das mittlerweile ziemlich schnell läuft (Dank CUDA und OpenCL, früher waren die Shaderprozessore nicht freiprogrammierbar)
        Raytracing skaliert fast 1:1, da es inherent parallel ist. D.h. die Berechnungsdauer pro Frame kann mit der Rechenkraft gegen 0 gedrückt werden. Die "Framerate" eines Onlinespiels hingegen, und das fällt dir eigentlich nicht auf, ist nach oben beschränkt durch die Asynchronizität der Spielereingaben, sowie durch Faktoren wie der Unterschied zwischen den Bandbreiten der einzelnen Spieler etc. Das skaliert nicht so gut, das hängt sehr von Zufall ab.
      • Von cPT_cAPSLOCK BIOS-Overclocker(in)
        Zitat von BoMbY
        Ich kann mir echt nicht erklären, wie man Geld in so einen BS investieren kann. Und vor allem sollen die erstmal beweisen, dass das nicht einfach nur ein Video war.
        Schön, dass du denkst, dass das BS ist.
        Plausibel wird das ganze, wenn man mal die Techdemos der vergangenen Iterationen der Engine gesehen hat, die auch auf älterer Hardware super funktioniert haben (in meinem Fall: GTX 560 Ti). Wenn sie dann noch sagen, dass das ganze auf vielen GPUs gestreamt wurde, ist das für mich Grund genug, denen zu glauben. Nvidia schafft das mit ihrer iray ja auch, was ja beweist, dass Echtzeit-Raytracing auf aktueller Hardware möglich ist - wenn man eben genug aktuelle Hardware reinsteckt. Die Performance ist jedenfalls um einiges besser, wenn man es mit den Renderengines aktueller Grafikprogramme vergleicht, die ist wirklich verdammt hoch. Ich bin gespannt, wie sich die Engine weiterentwickelt und bin über jede News froh, die PCGH über dieses Thema schreibt!
        gRU?; cAPS
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1153968
GTC
Brigade Engine 3.0: Beeindruckendes Echtzeit-Raytracing dank Cloud-Streaming
Otoy ist auf Nvidias diesjähriger GPU Technology Conference vertreten, wo die hauseigene Software unter anderem in Form der Brigade Engine und des Octane-Renderer 3.0 vorgestellt wird. Weiterhin ein großes Thema ist die Berechnung von Raytracing-Licht über die Cloud, was in einem zugegebenermaßen beeindruckenden Ergebnis endet.
http://www.pcgameshardware.de/GTC-Event-257049/News/Brigade-Engine-30-Echtzeit-Raytracing-Cloud-Streaming-1153968/
19.03.2015
http://www.pcgameshardware.de/screenshots/medium/2015/03/Brigade_Engine_3.0_Raytracing-pcgh_b2teaser_169.jpg
news