21. Mai 2023

Optische 3D-Erfassungsmethoden: Ein umfassender Leitfaden [Teil 2]

Mitwirkende
Francisco Pereira
Machine Learning Engineer
Keine Artikel gefunden.
Newsletter abonnieren
Diesen Beitrag teilen

Dieser Blogbeitrag ist der zweite Teil unserer fortlaufenden Blogserie über 3D-Computersehen. Falls Sie den ersten Blogbeitrag noch nicht gelesen haben, können Sie ihn hier nachlesen. Dieser zweite Artikel (Teil 2) gibt einen Überblick über optische 3D-Erfassungsmethoden. Wir befassen uns mit den Unterschieden zwischen den verschiedenen Sensortypen und deren Nutzen für bestimmte Anwendungsfälle. Wir gehen auch auf verschiedene 3D-Datenformate und Speicheroptionen ein.

Einführung

Im ersten Blogbeitrag dieser Serie haben wir gesehen, wie die Fähigkeit, die dreidimensionale Struktur der umgebenden Welt wahrzunehmen und zu interpretieren, in einer Vielzahl von Branchen immer wichtiger wird. Aber wie können Maschinen diese zusätzliche Informationsebene erhalten? Es gibt eine Vielzahl von optischen 3D-Erfassungsmethoden, mit denen sie Tiefen- und Rauminformationen über ihre Umgebung erfassen (oder schätzen) können.

Abbildung 1 zeigt verschiedene Erfassungstechniken, die in aktive und passive Methoden unterteilt sind. Aktive Methoden erfordern eine externe Lichtquelle, die ein Signal aussendet und das reflektierte oder zurückgesendete Signal misst, während passive Methoden dies nicht tun.

Abbildung 1: Taxonomie der optischen 3D-Erfassungsmethoden.

In Anlehnung an die Struktur der Pipeline, die im vorherigen Beitrag vorgestellt wurde (siehe auch Abbildung 2), werden wir uns in diesem zweiten Teil auf die Erfassung und Speicherung von 3D-Daten konzentrieren. Wir werden uns insbesondere auf vier bekannte Methoden konzentrieren, nämlich Stereo Vision, Structured Light, Time of Flight und LiDAR. Für jede Methode werden wir das Funktionsprinzip, die Vor- und Nachteile sowie reale Anwendungsfälle, in denen sich die Technik auszeichnet, untersuchen. Abschließend geben wir Ihnen eine Entscheidungshilfe an die Hand, die Sie bei der Auswahl der am besten geeigneten Methode auf der Grundlage verschiedener Faktoren unterstützt, sowie eine kurze Diskussion über zukünftige Trends in der optischen 3D-Erfassung.

Abbildung 2: Die Pipeline für maschinelles Lernen. In dieser Blogbeitragsreihe gehen wir auf die einzelnen Schritte der 3D-Computer-Vision ein. In diesem zweiten Teil der Serie konzentrieren wir uns auf das Erfassen und Speichern von 3D-Daten.

Durch die Vermittlung eines umfassenden Verständnisses dieser optischen 3D-Erfassungsmethoden möchten wir den Lesern das nötige Wissen vermitteln, um fundierte Entscheidungen bei der Auswahl der richtigen Technik für eine bestimmte Anwendung oder Branche zu treffen.

TLDR: Für alle, die wenig Zeit haben oder einfach zu faul sind, den ganzen Blogbeitrag zu lesen, stellen wir am Ende eine Entscheidungskarte zur Verfügung, die zeigt, wann die einzelnen Sensortypen auf der Grundlage verschiedener Anwendungsanforderungen und externer Faktoren eingesetzt werden sollten. Sie fasst den Artikel auf kurze, kompakte und visuelle Weise zusammen.

Stereo Vision

Funktionsprinzip

Stereo Vision, auch bekannt als stereoskopisches Sehen, ist eine passive 3D-Erfassungsmethode, die die menschliche Tiefenwahrnehmung nachahmt. Dabei werden zwei oder mehr Kameras verwendet, die in einem bestimmten Abstand voneinander (der so genannten Grundlinie) positioniert sind, um Bilder derselben Szene aus leicht unterschiedlichen Blickwinkeln aufzunehmen. Diese Bilder, die so genannten Stereopaare, werden dann von einem Stereo-Matching-Algorithmus verarbeitet, um entsprechende Punkte (Merkmale) in beiden Bildern zu identifizieren. Die Disparität zwischen diesen Punkten wird berechnet, d. h. die Differenz ihrer horizontalen Positionen im linken und rechten Bild.¹

Mit Hilfe der Geometrie der Kameraeinstellung und der Triangulation kann die Tiefe (oder die 3D-Koordinaten) jedes Punktes in der Szene bestimmt werden. Die Einzelheiten der Tiefenschätzung sind nicht Gegenstand dieses Blogbeitrags. Wer sich jedoch für eine mathematischere Behandlung des Themas interessiert, sollte sich das folgende Material ansehen.

Abbildung 3: Veranschaulichung des Funktionsprinzips von Stereo Vision. Der Grundlinienabstand zwischen den Kameras und den beiden unterschiedlichen Blickwinkeln führt dazu, dass die Objekte an unterschiedlichen Positionen entlang der horizontalen Achse erscheinen. Aus dieser Verschiebung lässt sich die Tiefe der Objekte anhand von intrinsischen und extrinsischen Parametern abschätzen.

Stereobildsensoren erzeugen in erster Linie zwei Arten von Daten: Stereopaare (linke und rechte Bilder) und Tiefenkarten (Disparitätskarten). Durch die Kombination der Tiefeninformationen aus der Tiefenkarte mit den ursprünglichen 2D-Bildern kann eine 3D-Darstellung der Szene rekonstruiert werden.

Vorteile

Wertvolle Eigenschaften von Stereo Vision Systemen sind:

  • Flexibilität: Stereobildsysteme sind relativ einfach einzurichten und können bei einer Vielzahl von Lichtverhältnissen gut funktionieren.
  • Echtzeit-Fähigkeiten: Sie können Tiefeninformationen in Echtzeit verarbeiten, was für Anwendungen nützlich ist, die ein sofortiges Feedback oder eine schnelle Entscheidungsfindung erfordern.
  • Kosteneffizienz: Im Vergleich zu aktiven Methoden wie LiDAR oder strukturiertem Licht sind Stereo-Vision-Systeme in der Regel kostengünstiger, was sie zu einer attraktiven Option für budgetbewusste Projekte macht.

Benachteiligungen

Auf der anderen Seite leiden diese in der Regel unter:

  • Abhängigkeit von der Textur: Stereosehen beruht auf der Identifizierung korrespondierender Merkmale in mehreren Bildern. In Szenen mit wenig Textur oder sich wiederholenden Mustern kann dies eine Herausforderung sein, die zu ungenauen oder fehlenden Tiefeninformationen führt. Dieses Problem ist als Stereokorrespondenzproblem bekannt.
  • Empfindlichkeit gegenüber Lichtveränderungen und schlechten Lichtverhältnissen: Diese Methode beruht auf der Identifizierung entsprechender Merkmale in mehreren Bildern. Wenn die Bilder aufgrund schneller oder signifikanter Beleuchtungsänderungen oder allgemeiner schlechter Lichtverhältnisse nicht klar sind, wird die Genauigkeit der Tiefenschätzung beeinträchtigt.
  • Begrenzte Reichweite: Hängt von der Basisentfernung (zwischen den Kameras), der Auflösung der Kameras und den Algorithmen zur Tiefenschätzung ab, aber die Reichweite ist in der Regel auf einige Meter begrenzt. Diese Sensoren können in der Regel Objekte bis zu einer Entfernung von 5 Metern genau scannen, aber die Genauigkeit der Messungen nimmt mit der Reichweite deutlich ab.

Während sich die zuvor beschriebenen Nachteile auf die passive Stereosicht beziehen, wird bei der aktiven Stereosicht eine Lichtquelle, z. B. ein Laser oder strukturiertes Licht, verwendet, um die zu erfassende Szene zu beleuchten. Dieser Ansatz verbessert den Stereoabgleich und ermöglicht es der Methode, auch bei schlechten Lichtverhältnissen gute Ergebnisse zu erzielen. Sie ist jedoch mit höheren Kosten verbunden, da eine zusätzliche Komponente benötigt wird - der Projektor.

Beispiele aus der Praxis

Stereoskopisches Sehen ist eine beliebte Erfassungsmethode, vor allem wegen ihrer Flexibilität und geringen Kosten. In der realen Welt gibt es zahlreiche Anwendungen des stereoskopischen Sehens, wie z. B:

  • Autonome Navigation: Stereobildverarbeitung ermöglicht es Robotern und autonomen Fahrzeugen, mit ihrer Umgebung zu interagieren und Hindernisse zu erkennen und zu vermeiden, dank ihrer Echtzeitfähigkeiten und ihrer Eignung für Außenbereiche.²
  • Räumliche Analyse: Diese Sensoren können zur Überwachung von Räumen mit einem höheren Grad an räumlichem Bewusstsein eingesetzt werden (im Vergleich zur herkömmlichen 2D-Computer-Vision) und ermöglichen Lösungen, die räumliche Beziehungen zwischen Menschen, Orten und Objekten effektiv modellieren.³

Zusammenfassend lässt sich sagen, dass Stereo Vision eine vielseitige und kostengünstige 3D-Erfassungsmethode ist, die sich für eine Reihe von Anwendungen eignet, insbesondere wenn Tiefeninformationen in Echtzeit erforderlich sind. Die Abhängigkeit von der Textur und die Empfindlichkeit gegenüber Lichtveränderungen können jedoch in bestimmten Szenarien eine Herausforderung darstellen.

Strukturiertes Licht

Funktionsprinzip

Strukturiertes Licht ist eine aktive optische 3D-Erfassungsmethode, bei der ein bekanntes Muster (häufig eine Reihe von Streifen oder ein Gitter) auf die Szene oder das zu scannende Objekt projiziert wird. Die Verformung des projizierten Musters auf der Oberfläche des Objekts wird von einer Kamera erfasst, die sich in einer bekannten Position und Ausrichtung relativ zum Projektor befindet. Die Beziehung zwischen dem Projektor, der Kamera und der Verformung des Musters ermöglicht die Gewinnung von Tiefeninformationen.⁴

Zu den von Systemen mit strukturiertem Licht erzeugten Daten gehören das aufgenommene 2D-Bild mit dem deformierten Muster und die daraus resultierende 3D-Punktwolke oder Tiefenkarte, die die 3D-Struktur des gescannten Objekts oder der Szene darstellen. Je nach den Eigenschaften des projizierten/kodierten Musters können verschiedene Algorithmen zur Dekodierung des verformten Musters und zur Berechnung der Tiefeninformationen verwendet werden.

Abbildung 4: Illustration des Funktionsprinzips von strukturiertem Licht. Ein bestimmtes Muster wird auf die Szene/das Objekt projiziert. Die Oberfläche der zu erfassenden Szene/des zu erfassenden Objekts verursacht Verformungen des Lichtmusters, die von der/den Kamera(s) erfasst und interpretiert werden, um eine detaillierte 3D-Darstellung der Szene/des Objekts zu erstellen.[Bildreferenz]

Vorteile

Strukturierte Beleuchtungsanlagen profitieren davon:

  • Hohe Genauigkeit und Auflösung: Strukturierte Lichtsysteme können hochpräzise und detaillierte 3D-Punktwolken oder Tiefenkarten erzeugen und eignen sich daher für Anwendungen, die präzise Messungen erfordern.
  • Robustheit gegenüber unterschiedlichen Lichtverhältnissen: Als aktive Methode kann strukturiertes Licht unter verschiedenen Beleuchtungsbedingungen gut funktionieren, da es sich auf seine eigene Lichtquelle stützt. Direktes Sonnenlicht oder helles indirektes Sonnenlicht kann jedoch die Lichtquelle stören, weshalb diese Sensoren in der Regel am besten in Innenräumen funktionieren.

Benachteiligungen

Zu den Problemen, die mit diesen Konfigurationen verbunden sind, gehören:

  • Begrenzte Reichweite: Strukturierte Lichtsysteme haben in der Regel eine begrenzte Reichweite und eignen sich eher für die Erfassung von Objekten im Nahbereich oder kleinen Objekten. Der optimale Arbeitsabstand liegt in der Regel zwischen 0,5 und 1,5 Metern, einige Sensoren können jedoch bis zu 3 Meter weit reichen.
  • Empfindlichkeit gegenüber Oberflächeneigenschaften: Die Leistung von Systemen mit strukturiertem Licht kann durch die Oberflächeneigenschaften des gescannten Objekts, wie z. B. Reflektivität oder Transparenz, beeinträchtigt werden, die das projizierte Muster verzerren und Rauschen oder Artefakte in den rekonstruierten 3D-Daten verursachen können.
  • Verdeckungen und Schatten: Da der Projektor und die Kamera an unterschiedlichen Orten platziert sind, können strukturierte Lichtsysteme mit Verdeckungen und Schatten zu kämpfen haben, was zu unvollständigen oder ungenauen 3D-Darstellungen führt.
  • Kalibrierung: Strukturierte Lichtsensoren erfordern in der Regel eine sorgfältige Kalibrierung und Ausrichtung.

Beispiele aus der Praxis

In der realen Welt gibt es viele Situationen, in denen diese Akquisitionsmethode erfolgreich ist:

  • Qualitätskontrolle und Inspektion: Strukturiertes Licht wird in der Fertigung und in der Industrie häufig für die Qualitätskontrolle und Inspektion von Komponenten verwendet, um genaue Messungen zu gewährleisten und Defekte zu erkennen.
  • 3D-Scannen für digitale Kunst und Animation: Strukturierte Lichtsysteme werden auch bei der Erstellung von detaillierten 3D-Modellen für digitale Kunst, Animation und visuelle Effekte eingesetzt.
  • Zahnmedizinische und medizinische Anwendungen: In der Zahnmedizin werden strukturierte Lichtscanner zur Erstellung präziser 3D-Modelle von Zähnen und Kieferstrukturen verwendet, während sie in der Medizin zum Scannen des Körpers und zur Herstellung maßgeschneiderter Prothesen eingesetzt werden können.⁶

Flugzeit (Time of Flight, ToF)

Funktionsprinzip

ToF-Sensoren (Time of Flight) sind eine aktive optische 3D-Erfassungsmethode, die die Zeit misst, die das ausgesendete Licht, in der Regel Infrarotlicht (IR), benötigt, um vom Sensor zum Objekt und zurück zu gelangen. Der ToF-Sensor sendet Lichtimpulse (direkte ToF-Sensoren) oder kontinuierliche Wellen (indirekte ToF-Sensoren) aus, die von der Oberfläche des Objekts reflektiert und dann vom Sensor erfasst werden. Die Abbildungslinse des Sensors sammelt das von der Szene reflektierte Licht und wandelt es in Tiefendaten auf jedem Pixel des Arrays um. Die Tiefe (bzw. die Entfernung zum Objekt) wird durch Kenntnis der Lichtgeschwindigkeit und Messung der Umlaufzeit des Lichts berechnet. Diese Tiefenkarte ist eine 2D-Darstellung der 3D-Struktur der Szene und kann mit zusätzlichen Daten, z. B. RGB-Bildern von einer separaten Kamera, kombiniert werden, um eine vollständigere 3D-Darstellung zu erhalten.⁷

Abbildung 5: Funktionsprinzip von direkten und indirekten Flugzeitsensoren. [Bildreferenz]

Vorteile

Gute Eigenschaften von ToF-Sensoren sind:

  • Leistung in Echtzeit: ToF-Sensoren können Tiefeninformationen in Echtzeit liefern und eignen sich daher für Anwendungen, die eine schnelle und dynamische 3D-Datenerfassung erfordern, wie z. B. Robotik oder Augmented Reality. Einige ToF-Sensoren können mit bis zu 60 fps arbeiten.
  • Größere Reichweite: ToF-Methoden haben im Vergleich zu strukturiertem Licht oder Stereosichtgeräten in der Regel eine größere Reichweite, was sie für die Navigation und Objekterkennung nützlich macht. In der Regel können diese Sensoren Entfernungen von bis zu 20 Metern erfassen.
  • Robustheit gegenüber Umgebungsbedingungen: Als aktive Methode können ToF-Sensoren unter verschiedenen Beleuchtungsbedingungen gut arbeiten, da sie auf ihre eigene Lichtquelle angewiesen sind.
  • Einfachheit: ToF-Systeme sind im Vergleich zu anderen 3D-Erfassungsmethoden im Allgemeinen einfacher zu konzipieren und zu implementieren, da sie keine komplexen Anpassungsalgorithmen oder mehrere Kameras erfordern.

Benachteiligungen

Die Kehrseite dieser Sensoren ist Folgendes:

  • Begrenzte Genauigkeit und Auflösung: ToF-Sensoren haben in der Regel eine geringere Genauigkeit und Auflösung als andere 3D-Erfassungsmethoden, wie strukturiertes Licht oder Stereosehen, was für Anwendungen, die hochdetaillierte 3D-Modelle erfordern, ungeeignet sein kann.
  • Empfindlichkeit gegenüber Oberflächeneigenschaften: Die Leistung von ToF-Sensoren kann durch die Oberflächeneigenschaften des Objekts, wie Reflexionsvermögen, Farbe oder Transparenz, beeinträchtigt werden, was zu ungenauen Tiefenmessungen führt.

Beispiele aus der Praxis

Flugzeitsensoren sind häufig in folgenden Bereichen zu finden:

  • Robotik und Automatisierung: Wird in Systemen für Aufgaben wie Hinderniserkennung, Navigation und Kollisionsvermeidung verwendet.⁸
  • Gestenerkennung und Mensch-Computer-Interaktion: ToF-Sensoren werden in Geräten wie Spielkonsolen und Smartphones zur Gestenerkennung und für interaktive Erlebnisse eingesetzt.
  • Erweiterte und virtuelle Realität: ToF-Sensoren werden in Augmented- und Virtual-Reality-Systemen eingesetzt, um die Verfolgung von Objekten und Umgebungen in Echtzeit zu ermöglichen und so das Nutzererlebnis zu verbessern.⁹

Abbildung 6: Atlas, der humanoide Roboter von Boston Dynamics - er nutzt Flugzeitsensoren, um die Welt um ihn herum zu verstehen.[Bildreferenz]

LiDAR

Funktionsprinzip

LiDAR (Light Detection and Ranging) arbeitet nach dem Prinzip der Laufzeitmessung (ToF), ähnlich wie ToF-Sensoren. Das bedeutet, dass es die Entfernung durch Berechnung der Umlaufzeit des Lichts und der Lichtgeschwindigkeit bestimmt. LiDAR verwendet jedoch in der Regel mehrere Laserstrahlen (Hochleistungslichtquellen) und einen rotierenden oder oszillierenden Mechanismus, um einen größeren Bereich abzudecken oder eine vollständige 360-Grad-Sicht auf die Umgebung zu erhalten. Die Laserstrahlen werden in der Regel auf eine bestimmte Richtung und einen bestimmten Winkel ausgerichtet, und die Entfernung wird für diese Koordinaten gemessen. Daher handelt es sich bei den resultierenden Daten um eine Punktwolke (und nicht um eine Tiefenkarte) und um eine direkte Darstellung der Umgebung, die genaue räumliche Informationen liefert.

Abbildung 7: Funktionsprinzip von LiDAR-Sensoren (Draufsicht).

Die von LiDAR-Sensoren erzeugten Daten umfassen die rohen Zeit- und Intensitätsinformationen für jeden Laserimpuls und die resultierende 3D-Punktwolke, die die 3D-Struktur der gescannten Umgebung darstellt. Die Punktwolke enthält die X-, Y- und Z-Koordinaten jedes Punktes im 3D-Raum, und in einigen Fällen können auch zusätzliche Informationen wie Intensität oder Farbe enthalten sein.

Vorteile

Zu den Vorteilen von LiDAR gehören:

  • Hohe Genauigkeit und Auflösung: LiDAR-Sensoren können hochgenaue und detaillierte 3D-Punktwolken erzeugen und eignen sich daher für Anwendungen, die präzise Messungen erfordern.
  • Langstreckenfähigkeiten: LiDAR-Sensoren können auch bei größeren Entfernungen effektiv arbeiten, manchmal bis zu einem Kilometer, je nach dem spezifischen Sensor und seiner Konfiguration.
  • Robustheit gegenüber Umweltbedingungen: Als aktive Methode kann LiDAR unter verschiedenen Beleuchtungsbedingungen gut funktionieren und wird im Vergleich zu anderen 3D-Erfassungsmethoden im Allgemeinen weniger durch Umweltfaktoren wie Nebel, Regen oder Staub beeinträchtigt.

Benachteiligungen

Weniger wünschenswerte Eigenschaften dieser Sensoren sind:

  • Kosten und Komplexität: LiDAR-Systeme können im Vergleich zu anderen 3D-Erfassungsmethoden teurer und komplexer sein, insbesondere wenn sie rotierende oder oszillierende Mechanismen zum Scannen verwenden.
  • Begrenztes vertikales Sichtfeld: Einige LiDAR-Sensoren können ein begrenztes vertikales Sichtfeld haben, was in bestimmten Szenarien zu unvollständigen oder ungenauen 3D-Rekonstruktionen führen kann.
Abbildung 8: LiDAR-Sensoren auf dem Dach eines autonom fahrenden Autos. [Bildreferenz]

Beispiele aus der Praxis

  • Autonome Fahrzeuge: LiDAR-Sensoren werden in autonomen Fahrzeugen häufig für Aufgaben wie Kartierung, Hinderniserkennung und Navigation eingesetzt.¹¹
  • 3D-Kartierung und Vermessung: LiDAR-Sensoren werden in luftgestützten, terrestrischen und mobilen Kartierungssystemen für die Vermessung und Erstellung genauer 3D-Modelle großer Gebiete, z. B. städtischer Umgebungen, Wälder oder Infrastruktur, eingesetzt.
  • Land- und Forstwirtschaft: LiDAR-Sensoren werden in der Präzisionslandwirtschaft und in der Forstwirtschaft eingesetzt, um die Gesundheit der Pflanzen zu überwachen, die Biomasse zu schätzen und die Waldressourcen zu beurteilen.¹²

Nachdem wir uns nun mit den verschiedenen Arten von 3D-Erfassungsmethoden beschäftigt haben. Es ist auch wichtig, darüber nachzudenken, welche Art von Daten diese Sensoren erzeugen und wie man sie am besten speichert.

3D-Daten und Speicherung

Die von diesen Sensoren erfassten Daten liegen in der Regel in einer der folgenden Formen vor: Tiefenkarten oder Punktwolken.

  • Tiefenkarten: werden in der Regel von Stereobild-, Strukturlicht- und ToF-Sensoren erzeugt. Da sie Entfernungsinformationen in einem 2D-Gitter speichern, kann dies zu Einschränkungen bei der Darstellung und Analyse von Daten führen.
  • Punktwolken: stellen 3D-Daten als eine Sammlung einzelner Punkte mit x-, y- und z-Koordinaten dar, was eine größere Flexibilität bei der Visualisierung und Bearbeitung ermöglicht.

Von Tiefenkarten zu Punktwolken

Um eine Punktwolke aus einer 2D-Tiefenkarte zu erzeugen, werden die Tiefeninformationen (Z-Koordinaten) jedes Pixels in der Tiefenkarte mit den entsprechenden räumlichen Informationen (X- und Y-Koordinaten) des Pixels im Sichtfeld des Sensors kombiniert. Dieser Vorgang wird als "Rückprojektion" oder "Unprojektion" bezeichnet.

Bei der Rückprojektion werden die intrinsischen und extrinsischen Parameter des Sensors, wie z. B. Brennweite, Sensorauflösung und Sensorposition, verwendet, um die 2D-Tiefenkarteninformationen in 3D-Koordinaten umzuwandeln. Dieser Prozess wird normalerweise in Software implementiert und ist in verschiedenen Open-Source-Bibliotheken wie Point Cloud Library (PCL), Open3D und OpenCV verfügbar.

Punktwolken-Speicherformate

Es gibt zwei Hauptkategorien von Formaten für die Speicherung von Punktwolkendaten: ASCII und LAS/LAZ.¹³

Bei ASCII-Formaten werden einfache Textdateien verwendet, in denen die X-, Y- und Z-Koordinaten jedes Punktes durch ein Zeichen, z. B. ein Leerzeichen oder ein Komma, getrennt sind. Diese Dateien können auch einen Tabellenkopf mit Metadaten und zusätzlichen Informationen für jeden Punkt, wie Intensität oder Amplitude, enthalten. Übliche Dateierweiterungen für ASCII-Dateien sind TXT, XYZ, PTS und PTX. OBJ-Dateien können auch zum Speichern von Punktwolkendaten verwendet werden, obwohl diese Methode für große Datensätze ineffizient sein kann (OBJ ist für die Speicherung geometrischer Eigenschaften von Objekten gedacht und enthält unnötige Mengen an Informationen für Punktwolkendaten).

Im Gegensatz dazu sind die LAS/LAZ-Formate binäre Dateiformate, die speziell für die Speicherung und den Austausch von Lidar-Daten entwickelt wurden.

Da diese Daten unstrukturiert sind, ist es üblich, sie in einem Data Lake zu speichern, entweder in der Cloud oder vor Ort, je nachdem, wie Sie eingerichtet sind. Cloud-basierte Speicherdienste wie Google Cloud Storage, Amazon S3 und Azure Blob Storage können zur Speicherung und Verwaltung großer Punktwolkendatensätze verwendet werden.

Fazit

In diesem Blogbeitrag haben wir uns mit verschiedenen optischen 3D-Erfassungsmethoden beschäftigt, darunter Stereo Vision, strukturiertes Licht, Time of Flight und LiDAR. Jede Technik hat ihre eigenen Funktionsprinzipien, Vor- und Nachteile und eignet sich daher für unterschiedliche Anwendungen und Szenarien. Die unten stehende Entscheidungsübersicht (Abbildung 9) bietet eine einfache Möglichkeit, den am besten geeigneten Sensor für eine Reihe von allgemeinen geschäftlichen oder praktischen Anforderungen auszuwählen. Beachten Sie, dass es sich bei dieser Entscheidungsübersicht um einen allgemeinen Leitfaden handelt und die beste Wahl für eine bestimmte Anwendung von verschiedenen anderen Faktoren abhängen kann.

Abbildung 9: Einfache Entscheidungskarte, die Ihnen helfen kann, ein besseres Gefühl für die geeignete optische 3D-Erfassungsmethode auf der Grundlage allgemeiner Anwendungsfallanforderungen/Entscheidungsfaktoren zu bekommen.

Neben den erörterten Methoden ist auch das Aufkommen hybrider Systeme erwähnenswert, die mehrere 3D-Erfassungstechniken kombinieren, um Einschränkungen zu überwinden und die Gesamtleistung zu verbessern. Fortschritte bei der Hardware und Software werden die Echtzeitverarbeitung von 3D-Daten verbessern und eine schnellere und effizientere Analyse von Szenen ermöglichen. Die Integration von 3D-Sensortechnologie und Computer Vision mit anderen Technologien wie Augmented Reality, Virtual Reality und Robotik wird neue Möglichkeiten für Interaktion und Automatisierung schaffen. Und natürlich können wir mit der weiteren Verbesserung der Techniken des maschinellen Lernens genauere und robustere Algorithmen erwarten, die die 3D-Rekonstruktion komplexer Umgebungen sowie die Erkennung und Verfolgung von Objekten mit größerem räumlichen Bewusstsein erleichtern werden.

Wir hoffen, dass dieser Blog-Beitrag Ihnen wertvolle Einblicke in die Welt der optischen 3D-Erfassungsmethoden gegeben hat und Ihnen hilft, fundierte Entscheidungen bei der Auswahl der geeigneten Technik für Ihre Bedürfnisse zu treffen.

Referenzen

[1] - Sanja Fidler. Einführung in das Bildverstehen: Tiefe aus Stereo. Universität von Toronto - CSC420, 2021.

[2] - Toyota Forschungsinstitut. Klares Sehen: Fortschrittliches robotisches Stereosehen.

[3] - Stereo Labs. Spatial Analytics Lösung.

[4] - D. Scharstein und R. Szeliski, "High-accuracy stereo depth maps using structured light," 2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2003. Proceedings, Madison, WI, USA, 2003, S. I-I, doi: 10.1109/CVPR.2003.1211354.

[5] - Zivid-Anwendungen. Industrielle Wartungsinspektion.

[6] - "Zahnärztliche 3D-Scanner-Technologie im Labor: Strukturiertes Licht oder Laserlicht-Scanning?". BIZ Dental.

[7] - Larry Li. "Time-of-Flight-Kamera - Eine Einführung". Texas Instruments.

[8] - Pat Marion. "Umdrehen des Drehbuchs mit Atlas". Boston Dynamics.

[9] - Magic Leap 2ein immersives Headset mit 3D Time-of-Flight.

[10] - Liu, Shan. 3D-Punktwolkenanalyse: Traditionelle, Deep Learning- und erklärbare maschinelle Lernmethoden. Cham: Springer International Publishing AG, 2022.

[11] - "Intelligente Lidar-Lösungen für die Zukunft". Waymo, September 21, 2022.

[12] - "3 Wege, wie LiDAR die moderne Landwirtschaft verändern kann". ACI Corporation.

[13] - "Ein Überblick über die Optionen für die Speicherung und den Zugriff auf Punktwolkendaten in der Cloud". NASA ESDIS Standards Coordination Office, Februar 2022.

Verwandte Beiträge

Alle anzeigen
Keine Ergebnisse gefunden.
Es gibt keine Ergebnisse mit diesen Kriterien. Versuchen Sie, Ihre Suche zu ändern.
Großes Sprachmodell
Stiftung Modelle
Unternehmen
Unser Team
Strukturierte Daten
Chat GPT
Nachhaltigkeit
Stimme und Ton
Front-End-Entwicklung
Schutz und Sicherheit von Daten
Verantwortungsvolle/ethische KI
Infrastruktur
Hardware und Sensoren
MLOps
Generative KI
Verarbeitung natürlicher Sprache
Computer Vision