Online-Abo
  • Login
  • Registrieren
Games World
      • Von PunkButcher Komplett-PC-Käufer(in)
        Ich glaube, dass es hier ein Missverständnis gibt.
        Im Video im Artikel verläuft ein Laserstrahl praktisch senkrecht zur Blickrichtung der Kamera. Durch die kurze Belichtungszeit ist es möglich, einem kurzen Lichtpuls - sozusagen einem kompakten Paket vieler Photonen - praktisch "zuzusehen", wie er sich im Raum bewegt.

        Beim um die Ecke schauen ist die Ausgangssituation eine andere. Hier wird der Puls in Blickrichtung - also parallel - gesendet um über die Laufzeit Tiefeninformationen zu gewinnen. Das wird im Video von meinem ersten Post beschrieben. Das ganze kann man bestimmt auch auf die Situation übertragen, in der der Laser eine andere Position hat, das macht es aber nicht leichter, da das Timing SEHR präzise stimmen muss und die Kabellänge entsprechend klein sein muss.
        Außerdem kann eben nicht beliebiges Licht auswerten, dass um die Ecke kommt, da man zu wenig Informationen darüber hat. Das mit dem Laser funktioniert auch nur, weil die Intensität so hoch ist, dass man den Strahl praktisch mit den Augen in der Luft verfolgen kann, sodass der Hintergrund vernachlässigt werden kann. Für die 3D-Information muss ich wissen, wie lange das Licht unterwegs ist und auch von wo es ausgeht, das ist nur über entsprechende Laser möglich, mit denen die Kamera synchronisiert ist. Mit dieser Technik wird man kaum die Position einer Glühbirne hinter einer Ecke bestimmen können, von nicht selbst leuchtenden Elementen ganz zu schweigen.

        Es stellt sich nebenbei auch die Frage, wann welcher Pixel aktiv ist, da es nicht möglich ist, die Pixel mit diesen theoretischen 15 mrd FPS auszulesen. Entweder die Pixel werden während einer Aufnahme nacheinander aktiviert - was ich nicht unbedingt für sinnvoll halte - oder man macht viele Aufnahmen bei denen der zeitliche Abstand zwischen dem Schuss des Lasers und dem aktivieren der Pixel variiert wird -> man erhält ein räumlich aufgelöstes Bild mit zusätzlichen Zeitinformationen, also praktisch einen Film, bei dem die einzelnen Bilder für verschiedene Durchgänge des Experiments geschossen werden.

        Ich hoffe, dass ich hier jetzt selber nicht durcheinandergebracht habe und alles möglichst verständlich ist
      • Von metalstore Software-Overclocker(in)
        Das verstehe ich nicht ganz...
        Also ich meine das so :
        Man guckt mit der Kamera in eine Richtung
        Der Laser strahlt das Licht Senkrecht zu dieser "Blickrichtung" aus
        Die Höheninformartion bleibt erhalten, da man nur die Photonen betrachtet, die Parallel zur Erdoberfläche und senkrecht zur Blickrichtung "fliegen"
        Die Breiteninformartion (die breite des Objekts in Relation zur Blickrichtung) erhält man durch die von dir genannte Formel, die Strecke ist abhängig von der vergangenen Zeit und der Lichtgeschwindigkeit.
        Man erhält aber keinerlei Tiefeninformationen (Breite des Objekts in Relation senkrecht zu der Blickrichtung)

        Oder was übersehe/verstehe ich nicht?
      • Von PunkButcher Komplett-PC-Käufer(in)
        Man spricht in der Regel von Breite, Höhe und Tiefe. Breite und Höhe ergeben das übliche 2D Bild, über die Laufzeit des Lichts bekommt man hier die zurückgelegte Strecke heraus (v=s/t => s=v*t).
        Mit parallel ist wohl "parallel zur Blickrichtung" gemeint? Also die Richtung in die die Kamera zeigt?

        Durch die Auswertung der Zeitauflösung erhält man gewissermaßen den Querschnitt. Also nach 10ns hat das Licht 3m zurückgelegt, bei einer Belichtungszeit von 1ns hätte mal also Licht eingefangen dass 3 m bis 3,3 m zurückgelegt hat. Falls der Laser auf der Höhe der Kamera sitzt und man bekommt ein Signal entspricht das einem Objekt in grob 1,5 m Abstand -> Tiefeninformation.
      • Von metalstore Software-Overclocker(in)
        Die Tiefeninformation die du meinst, ist die senkrecht zu Kamera, oder?
        Ich meine aber die parallel zur Kamera
      • Von PunkButcher Komplett-PC-Käufer(in)
        Man darf solche Verfahren nicht auf die reine Pixelzahl reduzieren, hier ist Statistik am werk. (Im Grunde Real-Life Supersampling )
        Die Tiefeninformationen sind in der Zeit enthalten, die das Licht benötigt um eine gewisse Strecke zurückzulegen.

        Die Idee ist an sich nicht neu, auch die Technik gibt es so oder so ähnlich schon.
        Ramesh Raskar: Imaging at a trillion frames per second - YouTube
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1127581
Neue Technologien
Digitalkamera: Belichtungszeiten von 67 Pikosekunden zeigen sogar Lichtteilchen
Bildgebende Techniken wurden in den vergangenen Jahren immer weiter verbessert. Mit einer nun auf der Summer Science Exhibition der Royal Society vorgestellten Kamera lassen sich sogar Lichtteilchen im Raum abbilden. Die Kamera erreicht das durch eine Belichtungszeit von lediglich 67 Pikosekunden.
http://www.pcgameshardware.de/Neue-Technologien-Thema-71240/News/Belichtungszeiten-von-67-Pikosekunden-zeigen-sogar-Lichtteilchen-1127581/
03.07.2014
http://www.pcgameshardware.de/screenshots/medium/2014/07/Belichtungszeiten_von_67_Pikosekunden_zeigen_sogar_Lichtteilchen-pcgh_b2teaser_169.jpg
news