Online-Abo
  • Login
  • Registrieren
Games World
      • Von Nasenbaer Freizeitschrauber(in)
        Zitat von ruyven_macaran
        Die Filmindustrie hat schon raytraycer eingesetzt, da haben PCler noch Sprites in 2D verschoben..

        Ich vermute mal, dass er damit die Knights-Ferry-Karten meinte. Sind natürlich deutlich platzsparender als große Cluster und vermutlich auch flexibler in der Programmierung als GPGPUs (Tesla etc.).

        Der Rest klingt tatsächlich ziemlich wüst. Da wurde alles in einen Topf geworfen und mal kräftig drin gerührt. ^^ Aber natürlich ließen sich Raytracer und Rasteizer kombinieren. Man tract dann alle reflektierenden/brechenden Objekte (die man per space-partitioning Struktur z.B. kd-Tree ggf. schnell verwerfen kann) und rastert den rest. Die grobe Skizze sollte jedenfalls einfach umsetzbar sein (erst recht wo sich das durch DirectCompute leicht mit D3D verknüpfen ließe) aber im Detail mag's da durchaus einige Fallstricke geben, die Probleme bereiten könnten.
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von cuthbert
        Ich denke aber, dass diese Technik insbesondere in der Filmindustrie noch einiges bewirken könnte, denn da kommt es ja nicht auf Echtzeitberechnung an.


        Die Filmindustrie hat schon raytraycer eingesetzt, da haben PCler noch Sprites in 2D verschoben.


        Zitat von cPT_cAPSLOCK
        Nur das können die Fermis halt auch
        Daher ergibt Larabee für mich keinen Sinn...
        In diesen Ausmaßen ist Raytracing wirklich Müll. Sieht ganz gut aus, verschlingt aber Leistung zum Frühstück. Warum nicht in Verbindung mit anderen Techniken? Spiegelungen und Lichtbrechungen über Raytracing, Spektralberchung über Post-Processing (wie in Crysis halt auch schon...), Schatten über Stencils oder Shadow Maps, volumetrische Effekte und globale Beleuchtung einfach drüberrastern oder Rauch per Voxels. Die Geometrie wird zu 100% gerastert und schon ist Anti-Aliasing kein Problem mehr. Das Programm müsste eben Wissen, wo es zu rastern und wo zu raytracen hat, aber das hat Nvidia ja auch schon geschafft. Das würde wohl genauso gut aussehen und nicht so abnorm viel Leistung schlucken...


        Ich bin gespannt, wie du die Hardware auf diese """eine""" Aufgabe optimieren willst - und wie lange die Berechnung des wie&wo dauern soll. Um zu wissen, welches Pixel auf einer spiegelnden oder brechenden Fläche landet, musst du wohl oder übel erstmal jedes einzelne Pixel traycen. Dann willst du ausgerechnet die Raytracer-Vorzeigebeispiele aufwendige Brechung und Beleuchtung über konventionelle Verfahren machen (d.h. die gesamte Geometrie, einschließlich der spiegelnden Flächen)? Und zu guter letzt willst du getraycte nochmal für AA rastern?
        Klingt irgendwie weder so effizient wie ein Rasterizer noch so einfach wie ein Raytraycer...

        Voxel sind übrigens kein Verfahren zum rendern, sondern zur Geometriedarstellung - man kann Voxel rastern oder traycen (letzteres ist afaik deutlich sinnvoller), wie man Polygone rastern und traycen kann.
      • Von cPT_cAPSLOCK BIOS-Overclocker(in)
        Zitat von Nasenbaer
        Das ist aber leider das, was der Herr Pohl einem weiß machen will und damit absoluter Blödsinn ist. Sicherlich lassen sich viele Effekte mittels Raytracing leichter und eleganter implementieren aber von einfacherer Programmierung hat der Endbenutzer natürlich nichts. Und wenn man dann auch noch eine schlechtere Qualität in Kauf nehmen muss, dann wird das niemand akzeptieren.
        Zur Beschleunigung von Offline-Renderern mögen diese Larabee-Abkömmlinge natürlich durchaus sinnvoll sein.
        Nur das können die Fermis halt auch
        Daher ergibt Larabee für mich keinen Sinn...
        In diesen Ausmaßen ist Raytracing wirklich Müll. Sieht ganz gut aus, verschlingt aber Leistung zum Frühstück. Warum nicht in Verbindung mit anderen Techniken? Spiegelungen und Lichtbrechungen über Raytracing, Spektralberchung über Post-Processing (wie in Crysis halt auch schon...), Schatten über Stencils oder Shadow Maps, volumetrische Effekte und globale Beleuchtung einfach drüberrastern oder Rauch per Voxels. Die Geometrie wird zu 100% gerastert und schon ist Anti-Aliasing kein Problem mehr. Das Programm müsste eben Wissen, wo es zu rastern und wo zu raytracen hat, aber das hat Nvidia ja auch schon geschafft. Das würde wohl genauso gut aussehen und nicht so abnorm viel Leistung schlucken...
      • Von Nasenbaer Freizeitschrauber(in)
        Das ist aber leider das, was der Herr Pohl einem weiß machen will und damit absoluter Blödsinn ist. Sicherlich lassen sich viele Effekte mittels Raytracing leichter und eleganter implementieren aber von einfacherer Programmierung hat der Endbenutzer natürlich nichts. Und wenn man dann auch noch eine schlechtere Qualität in Kauf nehmen muss, dann wird das niemand akzeptieren.
        Zur Beschleunigung von Offline-Renderern mögen diese Larabee-Abkömmlinge natürlich durchaus sinnvoll sein.
      • Von cPT_cAPSLOCK BIOS-Overclocker(in)
        Globales Raytracing mit Anti-Aliasing sprengt den Rahmen... es ist schon beeindruckend genug, dass Raytracing überhaupt in Echtzeit läuft...
        allerdings ist Raytracing wirklich nix tolles, wenn man nicht das Maximum an Effekten aus dem Ärmel zaubert. Die Lichtbrechungen sehen zwar im Vergleich zu rasterisierten Games ganz schick aus, aber ohne Spektralbrechung (was immerhin auch Crysis schon RICHTIG gut immitiert hat) sind die Dinger wirklich nicht so toll. Auch Kaustiken wären nett, aber davon sieht man auch nichts. Auch von Volumetrischen Schatten bzw. Licht ist nichts zu sehen, was bei Raytracing auch verdammt natürlich rüber kommt.
        Aber das alles ist für aktuelle Hardware eben Overkill. Ich bin froh darüber, dass für Offline-Renderings mitlerweile auch die GPU zur Rate gezogen werden kann, die Raytracing massiv beschleunigt. Von Echtzeit kann aber unter keinen Umständen die Rede sein...
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
814158
Grafikkarten
Raytracing in der Cloud
Auf der Cebit brachte uns Intels Raytracing-Forscher Daniel Pohl auf den aktuellen Stand in Sachen Cloud-Raytracing, Neu hierbei war, dass vier Knights-Ferry-Karten in einem Host-System gleichzeitig arbeiteten, während zuvor noch vier einzelne Rechner dafür nötig waren.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Raytracing-in-der-Cloud-814158/
02.03.2011
http://www.pcgameshardware.de/screenshots/medium/2011/03/cebit_2011_intel_cloud-raytracing_knights_ferry_2.jpg
grafikkarte,cebit,intel,raytracing
news