Time-of-Flight-Kamera - Time-of-flight camera

Flugzeit eines Lichtimpulses, der von einem Ziel reflektiert wird.

Eine Time-of-Flight-Kamera ( ToF-Kamera ) ist ein Range-Imaging- Kamerasystem, das Time-of-Flight- Techniken verwendet, um die Entfernung zwischen der Kamera und dem Motiv für jeden Punkt des Bildes aufzulösen, indem die Umlaufzeit eines künstlichen Lichts gemessen wird Signal von einem Laser oder einer LED . Laserbasierte Time-of-Flight-Kameras sind Teil einer breiteren Klasse von scannerlosen LIDAR , bei denen die gesamte Szene mit jedem Laserpuls erfasst wird, im Gegensatz zu Punkt für Punkt mit einem Laserstrahl wie bei scannenden LIDAR-Systemen. Time-of-Flight-Kameraprodukte für zivile Anwendungen begannen um das Jahr 2000 herum, da die Halbleiterprozesse die Herstellung von Komponenten für solche Geräte schnell genug ermöglichten. Die Systeme decken Reichweiten von wenigen Zentimetern bis hin zu mehreren Kilometern ab.

Gerätetypen

Es wurden mehrere verschiedene Technologien für Time-of-Flight-Kameras entwickelt.

HF-modulierte Lichtquellen mit Phasendetektoren

Photonic Mixer Devices (PMD), der Swiss Ranger und CanestaVision arbeiten, indem sie den ausgehenden Strahl mit einem HF-Träger modulieren und dann die Phasenverschiebung dieses Trägers auf der Empfängerseite messen. Dieser Ansatz hat eine modulare Fehlerherausforderung: Die gemessenen Reichweiten sind Modulo der HF-Trägerwellenlänge. Der Swiss Ranger ist ein kompaktes Kurzstreckengerät mit Reichweiten von 5 oder 10 Metern und einer Auflösung von 176 x 144 Pixeln. Mit Phasenunwrapping-Algorithmen kann der maximale Eindeutigkeitsbereich erhöht werden. Das PMD kann Reichweiten bis zu 60 m bieten. Die Beleuchtung besteht aus gepulsten LEDs und nicht mit einem Laser. CanestaVision-Entwickler Canesta wurde 2010 von Microsoft gekauft. Die Kinect2 für Xbox One basierte auf der ToF-Technologie von Canesta.

Range Gated Imager

Diese Geräte verfügen über einen eingebauten Verschluss im Bildsensor, der sich mit der gleichen Geschwindigkeit öffnet und schließt, wie die Lichtimpulse ausgesendet werden. Die meisten Time-of-Flight-3D-Sensoren basieren auf diesem von Medina erfundenen Prinzip. Da ein Teil jedes zurückkehrenden Impulses vom Shutter entsprechend seiner Ankunftszeit blockiert wird, hängt die empfangene Lichtmenge von der Entfernung ab, die der Impuls zurückgelegt hat. Die Entfernung kann mit der Gleichung z = R ( S 2S 1 ) / 2 ( S 1 + S 2 ) + R / 2 für eine ideale Kamera berechnet werden . R ist die Kamerareichweite, die durch den Umlauf des Lichtimpulses bestimmt wird, S 1 die Menge des empfangenen Lichtimpulses und S 2 die Menge des Lichtimpulses, der blockiert wird.

Die ZCam von 3DV Systems ist ein Range- Gate -System. Microsoft kaufte 3DV im Jahr 2009. Der Kinect- Sensor der zweiten Generation von Microsoft wurde mit den Erkenntnissen von Canesta und 3DV Systems entwickelt.

Ähnliche Prinzipien werden in der ToF-Kameralinie verwendet, die vom Fraunhofer- Institut für Mikroelektronische Schaltungen und Systeme und TriDiCam entwickelt wurde. Diese Kameras verwenden Fotodetektoren mit einem schnellen elektronischen Verschluss.

Die Tiefenauflösung von ToF-Kameras kann mit ultraschnellen Gating-intensivierten CCD-Kameras verbessert werden. Diese Kameras bieten Gating-Zeiten von bis zu 200 ps und ermöglichen ein ToF-Setup mit einer Tiefenauflösung im Submillimeterbereich.

Range-Gated-Imager können auch in der 2D-Bildgebung verwendet werden, um alles außerhalb eines bestimmten Entfernungsbereichs zu unterdrücken, z. B. um durch Nebel zu sehen. Ein gepulster Laser sorgt für die Beleuchtung, und ein optisches Gate lässt Licht nur während des gewünschten Zeitraums den Imager erreichen.

Direkte Time-of-Flight-Imager

Diese Geräte messen die direkte Laufzeit, die ein einzelner Laserpuls benötigt, um die Kamera zu verlassen und auf das Fokalebenen-Array zurückzureflektieren. Auch als "Trigger-Modus" bekannt, bilden die mit dieser Methode aufgenommenen 3D-Bilder vollständige räumliche und zeitliche Daten ab und zeichnen vollständige 3D-Szenen mit einem einzigen Laserpuls auf. Dies ermöglicht eine schnelle Erfassung und schnelle Echtzeitverarbeitung von Szeneninformationen. Für zeitkritische autonome Operationen wurde dieser Ansatz für autonome Weltraumtests und -operationen demonstriert, wie sie bei der Asteroidenprobe und Rückkehrmission OSIRIS-REx Bennu sowie bei der autonomen Hubschrauberlandung verwendet werden.

Advanced Scientific Concepts, Inc. bietet anwendungsspezifische (z. B. Luft-, Automobil-, Weltraum-) Direct-TOF-Vision-Systeme, die als 3D-Flash-LIDAR-Kameras bekannt sind. Ihr Ansatz verwendet InGaAs Avalanche Photo Diode (APD) oder PIN-Photodetektor-Arrays, die Laserpulse in den Wellenlängen von 980 nm bis 1600 nm abbilden können.

Komponenten

Eine Time-of-Flight-Kamera besteht aus folgenden Komponenten:

  • Beleuchtungseinheit: Sie beleuchtet die Szene. Bei HF-modulierten Lichtquellen mit Phasendetektor-Imager muss das Licht mit hohen Geschwindigkeiten bis 100 MHz moduliert werden, es kommen nur LEDs oder Laserdioden in Frage. Bei Direct-TOF-Imagern wird ein einzelner Puls pro Frame (zB 30 Hz) verwendet. Die Beleuchtung verwendet normalerweise Infrarotlicht, um die Beleuchtung unauffällig zu machen.
  • Optik: Eine Linse sammelt das reflektierte Licht und bildet die Umgebung auf den Bildsensor ab (Focal Plane Array). Ein optischer Bandpassfilter lässt nur das Licht mit der gleichen Wellenlänge wie die Beleuchtungseinheit durch. Dies hilft, nicht relevantes Licht zu unterdrücken und Rauschen zu reduzieren.
  • Bildsensor : Dies ist das Herz der TOF-Kamera. Jedes Pixel misst die Zeit, die das Licht von der Beleuchtungseinheit (Laser oder LED) zum Objekt und zurück zum Fokalebenen-Array benötigt hat. Für das Timing werden mehrere verschiedene Ansätze verwendet; siehe Gerätetypen oben.
  • Treiberelektronik: Sowohl die Beleuchtungseinheit als auch der Bildsensor müssen über Highspeed-Signale angesteuert und synchronisiert werden. Diese Signale müssen sehr genau sein, um eine hohe Auflösung zu erhalten. Verschieben sich beispielsweise die Signale zwischen Beleuchtungseinheit und Sensor nur um 10 Pikosekunden , ändert sich der Abstand um 1,5 mm. Zum Vergleich: Aktuelle CPUs erreichen Frequenzen von bis zu 3  GHz , das entspricht Taktzyklen von etwa 300 ps - die entsprechende 'Auflösung' beträgt nur 45 mm.
  • Berechnung/Schnittstelle: Die Entfernung wird direkt in der Kamera berechnet. Um eine gute Leistung zu erzielen, werden auch einige Kalibrierungsdaten verwendet. Die Kamera liefert dann über eine Schnittstelle, zum Beispiel USB oder Ethernet, ein Distanzbild .

Prinzip

Funktionsprinzip einer Time-of-Flight-Kamera:

Beim gepulsten Verfahren (1) ist der Abstand d = ct/2 q2/q1 + q2, wobei c die Lichtgeschwindigkeit ist, t die Länge des Pulses ist, q1 die akkumulierte Ladung im Pixel ist, wenn Licht emittiert wird und q2 die akkumulierte Ladung ist, wenn dies nicht der Fall ist.

Beim Dauerstrichverfahren (2) gilt d =ct/2 π arctan q3 - q4/q1 - q2 .
Diagramme zum Prinzip einer Time-of-Flight-Kamera mit analogem Timing

Die einfachste Version einer Time-of-Flight-Kamera verwendet Lichtimpulse oder einen einzelnen Lichtimpuls. Die Beleuchtung wird für sehr kurze Zeit eingeschaltet, der resultierende Lichtpuls beleuchtet die Szene und wird von den Objekten im Sichtfeld reflektiert. Das Kameraobjektiv sammelt das reflektierte Licht und bildet es auf den Sensor oder das Fokalebenen-Array ab. Je nach Entfernung erfährt das einfallende Licht eine Verzögerung. Da Licht eine Geschwindigkeit von ca. c = 300.000.000 Meter pro Sekunde hat, ist diese Verzögerung sehr kurz: Ein Objekt in 2,5 m Entfernung verzögert das Licht um:

Bei amplitudenmodulierten Arrays bestimmt die Pulsbreite der Beleuchtung den maximalen Bereich, den die Kamera verarbeiten kann. Bei einer Pulsbreite von zB 50 ns ist der Bereich begrenzt auf

Diese kurzen Zeiten zeigen, dass die Beleuchtungseinheit ein kritischer Teil des Systems ist. Nur mit speziellen LEDs oder Lasern ist es möglich, solch kurze Pulse zu erzeugen.

Das einzelne Pixel besteht aus einem lichtempfindlichen Element (zB einer Fotodiode ). Es wandelt das einfallende Licht in einen Strom um. Bei analogen Timing-Imagern sind mit der Fotodiode schnelle Schalter verbunden, die den Strom zu einem von zwei (oder mehreren) Speicherelementen (zB einem Kondensator ) leiten , die als Summationselemente fungieren. Bei digitalen Timing-Imagern ist ein Zeitzähler, der mit mehreren Gigahertz laufen kann, mit jedem Fotodetektorpixel verbunden und stoppt zu zählen, wenn Licht erfasst wird.

Im Diagramm eines analogen Zeitgebers mit amplitudenmoduliertem Array verwendet das Pixel zwei Schalter (G1 und G2) und zwei Speicherelemente (S1 und S2). Die Schalter werden durch einen Impuls mit der gleichen Länge wie der Lichtimpuls angesteuert, wobei das Steuersignal des Schalters G2 genau um die Impulsbreite verzögert wird. Abhängig von der Verzögerung wird in S1 nur ein Teil des Lichtpulses durch G1 abgetastet, der andere Teil wird in S2 gespeichert. Je nach Entfernung ändert sich das Verhältnis zwischen S1 und S2 wie in der Zeichnung dargestellt. Da innerhalb von 50 ns nur geringe Lichtmengen auf den Sensor treffen, werden nicht nur ein, sondern mehrere tausend Impulse ausgesendet (Wiederholrate tR) und gesammelt, wodurch das Signal-Rausch-Verhältnis erhöht wird .

Nach der Belichtung wird das Pixel ausgelesen und die folgenden Schritte messen die Signale S1 und S2. Da die Länge des Lichtimpulses definiert ist, lässt sich der Abstand mit der Formel berechnen:

Im Beispiel haben die Signale folgende Werte: S1 = 0,66 und S2 = 0,33. Der Abstand beträgt daher:

Bei Vorhandensein von Hintergrundlicht empfangen die Speicherelemente einen zusätzlichen Teil des Signals. Dies würde die Entfernungsmessung stören. Um den Hintergrundanteil des Signals zu eliminieren, kann die gesamte Messung ein zweites Mal bei ausgeschalteter Beleuchtung durchgeführt werden. Sind die Objekte weiter entfernt als der Entfernungsbereich, ist das Ergebnis ebenfalls falsch. Hier hilft eine zweite Messung mit den um eine zusätzliche Pulsbreite verzögerten Steuersignalen, solche Objekte zu unterdrücken. Andere Systeme arbeiten mit einer sinusförmig modulierten Lichtquelle anstelle der Pulsquelle.

Bei direkten TOF-Imagern wie 3D Flash LIDAR wird ein einzelner kurzer Puls von 5 bis 10 ns vom Laser emittiert. Das T-Null-Ereignis (die Zeit, zu der der Puls die Kamera verlässt) wird durch direktes Erfassen des Pulses und Weiterleiten dieses Timings auf das Fokalebenen-Array festgelegt. T-Null wird verwendet, um die Rückkehrzeit des zurückkehrenden reflektierten Impulses auf den verschiedenen Pixeln des Fokalebenen-Arrays zu vergleichen. Durch Vergleichen von T-Null und dem erfassten zurückgesendeten Impuls und Vergleichen der Zeitdifferenz gibt jedes Pixel genau eine direkte Flugzeitmessung aus. Der Roundtrip eines einzelnen Impulses für 100 Meter beträgt 660 ns. Mit einem 10-ns-Puls wird die Szene beleuchtet und die Reichweite und Intensität in weniger als 1 Mikrosekunde erfasst.

Vorteile

Einfachheit

Im Gegensatz zu Stereovision- oder Triangulationssystemen ist das gesamte System sehr kompakt: Die Beleuchtung wird direkt neben dem Objektiv platziert, während die anderen Systeme eine gewisse Mindestgrundlinie benötigen. Im Gegensatz zu Laserscanning-Systemen werden keine mechanisch beweglichen Teile benötigt.

Effizienter Distanzalgorithmus

Es ist ein direkter Prozess, um die Entfernungsinformationen aus den Ausgangssignalen des TOF-Sensors zu extrahieren. Dadurch verbraucht diese Aufgabe nur wenig Rechenleistung, wiederum im Gegensatz zum Stereosehen, bei dem komplexe Korrelationsalgorithmen implementiert sind. Nach der Extraktion der Entfernungsdaten ist beispielsweise auch die Objekterkennung einfach durchzuführen, da die Algorithmen nicht durch Muster auf dem Objekt gestört werden.

Geschwindigkeit

Time-of-Flight-Kameras sind in der Lage, die Entfernungen innerhalb einer kompletten Szene mit einer einzigen Aufnahme zu messen. Da die Kameras bis zu 160 Bilder pro Sekunde erreichen, sind sie ideal für den Einsatz in Echtzeitanwendungen geeignet.

Nachteile

Hintergrundbeleuchtung

Bei Verwendung von CMOS- oder anderen integrierenden Detektoren oder Sensoren, die sichtbares oder nahes Infrarotlicht (400 nm - 700 nm) verwenden, muss das Pixel, obwohl das meiste Hintergrundlicht von künstlichem Licht oder der Sonne unterdrückt wird, dennoch eine hohe dynamischer Bereich . Das Hintergrundlicht erzeugt auch Elektronen, die gespeichert werden müssen. Beispielsweise können die Beleuchtungseinheiten in vielen der heutigen TOF-Kameras eine Beleuchtungsstärke von etwa 1 Watt bereitstellen. Die Sonne hat eine Beleuchtungsleistung von etwa 1050 Watt pro Quadratmeter und 50 Watt nach dem optischen Bandpassfilter . Wenn die beleuchtete Szene also eine Größe von 1 Quadratmeter hat, ist das Licht der Sonne 50-mal stärker als das modulierte Signal. Für nicht-integrierende TOF-Sensoren, die das Licht nicht über die Zeit integrieren und Nahinfrarot-Detektoren (InGaAs) verwenden, um den kurzen Laserpuls zu erfassen, ist die direkte Betrachtung der Sonne kein Problem, da das Bild nicht über die Zeit integriert wird innerhalb eines kurzen Erfassungszyklus erfasst, typischerweise weniger als 1 Mikrosekunde. Solche TOF-Sensoren werden in Raumfahrtanwendungen und in Erwägung für Automobilanwendungen verwendet.

Interferenz

Bei bestimmten Typen von TOF-Geräten (aber nicht bei allen) können sich die TOF-Kameras gegenseitig stören, wenn mehrere Time-of-Flight-Kameras gleichzeitig laufen. Es gibt mehrere Möglichkeiten, dieses Problem zu lösen:

  • Zeitmultiplexing: Eine Steuerung startet nacheinander die Messung der einzelnen Kameras, sodass immer nur eine Beleuchtungseinheit aktiv ist.
  • Unterschiedliche Modulationsfrequenzen: Wenn die Kameras ihr Licht mit unterschiedlichen Modulationsfrequenzen modulieren, wird ihr Licht in den anderen Systemen nur als Hintergrundbeleuchtung gesammelt, stört aber nicht die Distanzmessung.

Da der einzelne Laserpuls kurz ist (zB 10 Nanosekunden), ist bei Kameras vom Typ Direct TOF, die einen einzelnen Laserpuls zur Beleuchtung verwenden, der TOF-Round-Trip zu und von den Objekten im Sichtfeld entsprechend kurz (zB 100 Meter = 660 .). ns TOF-Rundreise). Bei einem Imager, der mit 30 Hz aufnimmt, ist die Wahrscheinlichkeit einer störenden Interaktion die Zeit, in der das Erfassungstor der Kamera geöffnet ist, geteilt durch die Zeit zwischen den Laserpulsen oder ungefähr 1 zu 50.000 (0,66 μs geteilt durch 33 ms).

Mehrfachreflexionen

Im Gegensatz zu Laserscanning-Systemen, bei denen ein einzelner Punkt beleuchtet wird, beleuchten die Time-of-Flight-Kameras eine ganze Szene. Bei einem Phasendifferenzgerät (amplitudenmoduliertes Array) kann das Licht aufgrund von Mehrfachreflexionen die Objekte auf mehreren Wegen erreichen. Daher kann die gemessene Entfernung größer als die wahre Entfernung sein. Direkte TOF-Imager sind anfällig, wenn das Licht von einer spiegelnden Oberfläche reflektiert wird. Es gibt veröffentlichte Papiere, die die Stärken und Schwächen der verschiedenen TOF-Geräte und -Ansätze skizzieren.

Anwendungen

Entfernungsbild eines menschlichen Gesichts, aufgenommen mit einer Time-of-Flight-Kamera (Künstlerdarstellung)

Automobilanwendungen

Time-of-Flight-Kameras werden in Assistenz- und Sicherheitsfunktionen für fortschrittliche Automobilanwendungen wie aktive Fußgängersicherheit, Precrash-Erkennung und Indoor-Anwendungen wie Out-of-Position-Erkennung (OOP) verwendet.

Mensch-Maschine-Schnittstellen und Spiele

Da Time-of-Flight-Kameras Entfernungsbilder in Echtzeit liefern, ist es einfach, Bewegungen von Menschen zu verfolgen. Dies ermöglicht neue Interaktionen mit Verbrauchergeräten wie Fernsehern. Ein weiteres Thema ist die Verwendung dieser Art von Kameras, um mit Spielen auf Videospielkonsolen zu interagieren. Der Kinect- Sensor der zweiten Generation , der ursprünglich in der Xbox One- Konsole enthalten war, verwendete eine Time-of-Flight-Kamera für seine Reichweitenabbildung, die natürliche Benutzeroberflächen und Spielanwendungen mit Computer Vision und Gestenerkennungstechniken ermöglicht. Creative und Intel bieten auch eine ähnliche Art von interaktiver Gesten-Time-of-Flight-Kamera für Spiele an, die Senz3D basierend auf der DepthSense 325-Kamera von Softkinetic . Infineon und PMD Technologies ermöglichen winzige integrierte 3D-Tiefenkameras für die Nahbereichsgestensteuerung von Consumer-Geräten wie All-in-One-PCs und Laptops (Picco flexx- und Picco monstar-Kameras).

Smartphone-Kameras

Das Samsung Galaxy S20 Ultra verfügt über drei nach hinten gerichtete Kameraobjektive und eine ToF-Kamera.

Ab 2019 sind mehrere Smartphones mit Time-of-Flight-Kameras ausgestattet. Diese werden hauptsächlich verwendet, um die Qualität von Fotos zu verbessern, indem der Kamerasoftware Informationen über Vorder- und Hintergrund bereitgestellt werden.

Das erste Mobiltelefon, das eine solche Technologie verwendet, ist das LG G3 , das Anfang 2014 auf den Markt kam.

Messung und maschinelles Sehen

Reichweitenbild mit Höhenmessungen

Weitere Anwendungen sind Messaufgaben, zB für die Füllhöhe in Silos. In der industriellen Machine - Vision hilft die TOF-Kamera zu klassifizieren und auf einem Förderband vorbei Objekte für den Einsatz von Robotern, wie Gegenstände zu lokalisieren. Türsteuerungen können leicht zwischen Tieren und Menschen unterscheiden, die die Tür erreichen.

Robotik

Ein weiterer Einsatzbereich dieser Kameras ist die Robotik: Mobile Roboter können sehr schnell eine Karte ihrer Umgebung erstellen, um Hindernissen auszuweichen oder einer führenden Person zu folgen. Da die Entfernungsberechnung einfach ist, wird nur wenig Rechenleistung verbraucht.

Erdtopographie

ToF-Kameras wurden verwendet, um digitale Höhenmodelle der Topographie der Erdoberfläche für Studien in der Geomorphologie zu erhalten .

Marken

Aktive Marken (ab 2011)

  • ESPROS - 3D-TOF-Imager-Chips, TOF-Kamera und -Modul für Automobil-, Robotik-, Industrie- und IoT-Anwendungen
  • 3D-Blitz-LIDAR-Kameras und Vision-Systeme von Advanced Scientific Concepts, Inc. für Luft-, Automobil- und Raumfahrtanwendungen
  • DepthSense - TOF-Kameras und -Module, einschließlich RGB-Sensor und Mikrofone von SoftKinetic
  • IRMA MATRIX - TOF-Kamera, eingesetzt zur automatischen Fahrgastzählung bei mobilen und stationären Anwendungen der iris-GmbH
  • Kinect - Freisprechplattform von Microsoft für Videospielkonsolen und PCs, die Time-of-Flight-Kameras in der zweiten Generation von Sensorgeräten verwendet.
  • pmd - Kamera-Referenzdesigns und -Software (pmd[vision], einschließlich TOF-Module [CamBoard]) und TOF-Imager (PhotonICs) von PMD Technologies
  • real.IZ 2+3D - Hochauflösende SXGA (1280×1024) TOF-Kamera, entwickelt von der Startup-Firma odos imaging, die konventionelle Bilderfassung mit TOF-Entfernung im selben Sensor integriert. Basierend auf einer bei Siemens entwickelten Technologie .
  • Senz3D - TOF-Kamera von Creative und Intel basierend auf der DepthSense 325-Kamera von Softkinetic, die für Spiele verwendet wird.
  • SICK - 3D-Industrie-TOF-Kameras (Visionary-T) für industrielle Anwendungen und Software
  • 3D-MLI-Sensor - TOF-Imager, Module, Kameras und Software von IEE (International Electronics & Engineering), basierend auf modulierter Lichtintensität (MLI)
  • TOFCam Stanley - TOF-Kamera von Stanley Electric
  • TriDiCam - TOF-Module und -Software, der TOF-Imager, der ursprünglich vom Fraunhofer- Institut für Mikroelektronische Schaltungen und Systeme entwickelt wurde, jetzt von der Ausgründung TriDiCam entwickelt wurde
  • Hakvision - TOF-Stereokamera
  • Cube eye - ToF-Kamera und -Module , VGA-Auflösung, Website: www.cube-eye.co.kr

Nicht mehr existierende Marken

  • CanestaVision - TOF-Module und -Software von Canesta (Unternehmen, das 2010 von Microsoft übernommen wurde)
  • D-IMager - TOF-Kamera von Panasonic Electric Works
  • OptriCam - TOF-Kameras und -Module von Optrima (vor der Fusion von SoftKinetic im Jahr 2011 in DepthSense umbenannt)
  • ZCam - TOF-Kameraprodukte von 3DV Systems, die Vollfarbvideo mit Tiefeninformationen integrieren (2009 an Microsoft verkaufte Assets)
  • SwissRanger - eine industrielle TOF-only Kameralinie ursprünglich vom Centre Suisse d'Electronique et Microtechnique, SA ( CSEM ), jetzt von Mesa Imaging entwickelt (Mesa Imaging wurde 2014 von Heptagon übernommen)
  • Fotonic - TOF-Kameras und Software mit Panasonic CMOS-Chip (Fotonic wurde 2018 von Autoliv übernommen)
  • S.Cube - ToF Kamera und Module von Cube eye

Siehe auch

Verweise

Weiterlesen

  • Hansard, Miles; Lee, Seungkyu; Choi, Ouk; Horaud, Radu (2012). "Time-of-Flight-Kameras: Prinzipien, Methoden und Anwendungen" (PDF) . SpringerBriefs in Informatik (PDF) . doi : 10.1007/978-1-4471-4658-2 . ISBN 978-1-4471-4657-5. S2CID  5494636 . Dieses Buch beschreibt eine Vielzahl neuerer Forschungen zur Time-of-Flight-Bildgebung: […] das zugrundeliegende Messprinzip […] die damit verbundenen Fehler- und Mehrdeutigkeitsquellen […] die geometrische Kalibrierung von Time-of-Flight-Kameras, insbesondere im Einsatz in Kombination mit gewöhnlichen Farbkameras […und] verwenden Flugzeitdaten in Verbindung mit traditionellen Stereo-Matching-Techniken. Die fünf Kapitel beschreiben zusammen eine komplette Pipeline für die Tiefen- und Farb-3D-Rekonstruktion.