gianni-blk2gopulse-selfie

Technik im Gespräch: Blick auf den neuen Leica BLK2GO PULSE

Von Christopher Curley

|
11/30/2023

Der Leica BLK2GO PULSE setzt neue Maßstäbe im Bereich Laserscanning mit tragbaren Geräten. Er verfügt über eine neuartige Implementierung von zwei Flugzeitsensoren (Time-of-Flight = ToF), die das Scannen aus der "Ich-Perspektive" ermöglichen. Wir sprachen mit Gian-Philipp Patri, Produktmanager BLK, über das Vorhaben von Leica Geosystems, innovative neue Technologien zu realisieren, sowie darüber, wie es eigentlich dazu kam, dass es den BLK2GO PULSE nun gibt.    

Lassen Sie uns über die Entstehung des BLK2GO PULSE sprechen: Wie kam es zu dieser Idee?  

Hexagon investiert viel in Forschung und Entwicklung. Die grundlegenden Elemente des BLK2GO PULSE stammen aus einem Joint Venture mit Sony, das einen neuen Time-of-Flight-Sensor entwickelt hat. Unsere Aufgabe bestand darin, uns mit dieser Technologie auseinanderzusetzen und uns zu überlegen, welche Einsatzmöglichkeiten es geben könnte. Es stellte sich die Frage, ob man damit wirklich etwas anfangen konnte. Und wenn ja, wofür könnte sie nützlich sein?        

Je mehr wir uns mit dieser Technologie vertraut machten und sie aus verschiedenen Blickwinkeln betrachteten, desto mehr waren wir davon überzeugt, dass bestimmte Elemente einzigartige Vorteile gegenüber unseren bisherigen Lösungen boten, z. B. die Tatsache, dass diese Sensoren mit einem einheitlichen Raster arbeiteten und farbige Punktwolken sofort erstellt werden konnten. Alles begann damit, dass wir unsere Komfortzone verließen und sich dadurch neue Möglichkeiten ergaben.    

Ich weiß auch, dass das wesentliche Element des BLK2GO PULSE nicht die Sensoren selbst sind, sondern die Tatsache, dass es zwei davon gibt. Wie kam es zu dieser Erkenntnis?  

Mit der Flugzeitfunktion erhält man ein bestimmtes Sichtfeld und so dachten wir, dass es von Vorteil wäre, mehr als nur einen dieser Sensoren zu integrieren - unter anderem, um dadurch mehr Daten in kürzerer Zeit erfassen zu können.  

Ein BLK2GO mit zweiachsigem LiDAR erfasst die gesamte Kuppel, auch Daten, die in vielen Fällen eigentlich gar nicht notwendig gewesen wären.

Die beiden ToF-Sensoren gaben uns den Anstoß, anders zu denken, und veranlassten uns zu folgender Frage: Was wäre, wenn wir sie nebeneinander platzieren würden? Es war nicht einfach, zwei der Sensoren zu einer einzigen Lösung zu kombinieren, denn die gesamte Kalibrierung, die an einem Sensor vorgenommen wird, muss für beide zusammen funktionieren. Das ist wahrlich ein ziemlich hoher Aufwand.        

Es sei anzumerken, dass zwei gut positionierte Sensoren all das erfassen können, was ein Nutzer eigentlich so benötigt. Das optimiert Kosten und reduziert dadurch vor allem den Endpreis für die Kunden.  

Auf diese Weise wurde das "First-Person-Scanning" geboren.14  

Dies ist ein neuer Begriff. Was bedeutet "First-Person-Scanning" wirklich?  

Das bedeutet im Wesentlichen, dass der Nutzer genau das sieht, was auch der Scanner sieht. Die beiden Sensoren sind nämlich wie "Augen" positioniert. Wird nun der BLK2GO PULSE mit der BLK Live-App auf einem Smartphone, das auf dem Gerät angebracht ist, verbunden, dann stimmt das, was auf dem Display zu sehen ist, genau mit dem überein, was in Echtzeit aufgenommen wird.  

Dies ist ein neuer Ansatz, der u. a. die Arbeitsabläufe beschleunigt und die Datenmenge reduziert, da Sie nur die Daten erfassen, die Sie auch tatsächlich benötigen.  

Stellen Sie sich einen Grundriss vor. Warum sollten Sie die Decke erfassen, wenn Sie nur die Daten des Bodens benötigen? Das würde bedeuten, dass Sie viel mehr Daten erfassen, übertragen, verarbeiten und dann wieder entfernen müssten, oder? Solch eine Arbeitsweise ist nicht effektiv.        

Und selbst wenn Sie die Daten des BLK2GO PULSE einer Nachbearbeitung unterziehen, ist das Paket kleiner, da Sie sich nicht mit Daten von Decken oder uninteressanten Objekten befassen müssen. Sie hatten ja während des gesamten Scanvorgangs die Kontrolle über das, was Sie scannen. Das ist großartig.  

Ich habe eine weitere Frage. Die PULSE-Technologie ist viel mehr als nur ein neuer Sensor, nicht wahr?  

Ja. Die PULSE-Technologie ist die Verschmelzung dieses dualen Time-of-Flight-LiDAR-Sensors mit GrandSLAM.  

GrandSLAM ist eine Kombination aus dem visuellen Inertialsystem (VIS) und LiDAR, wobei VIS eine Kombination aus Kameras und einer inertialen Messeinheit (IMU) ist. All dies ermöglicht die räumliche Orientierung und die gleichzeitige Ortung und Kartierung. Sie kartieren die Welt somit in Echtzeit von einer unbekannten Position aus.      

Es wäre einfach zu sagen: "Okay, wir können die zweiachsige LiDAR-Technologie durch Time-of-Flight-LiDAR ersetzen, sodass die X- und Y-Koordinateninformationen von einem anderen Sensortyp stammen."  

Wir stellten jedoch fest, dass es nicht nur darum ging, ein Teil durch ein anderes zu ersetzen, sondern dass wir über die einzigartigen Vorteile nachdenken mussten, die dieser Sensor bietet. Als wir tiefer in die Materie eindrangen, entdeckten wir die Kolorierung in Echtzeit.  

1_5

Die Frage ist: Warum kann dies der BLK2GO PULSE, jedoch nicht der BLK2GO?

Gute Frage. Das hat mit dem Datenvolumen und der Synchronisation zu tun. Bei GrandSLAM erfassen die Kameras die visuellen Daten in einem bestimmten Intervall, beim BLK2GO hingegen erfasst das zweiachsige LiDAR die Daten in einem ganz anderen Intervall, nämlich im Intervall von 420.000 Punkte pro Sekunde. Daher erhalten Sie regelmäßig Farbinformationen, aber weniger häufig, als der LiDAR-Sensor Punkte sammelt. Die Folge ist, dass viele der erfassten Punkte noch nicht mit den Farbinformationen verknüpft sind. Dieses Problem lässt sich nicht in Echtzeit beheben, da die Frequenzen nicht übereinstimmen. Daher muss dies während der Nachbearbeitung erfolgen.              

Im Falle des BLK2GO PULSE ist der Prozess etwas anders, denn der Time-of-Flight-Sensor ist eine Art 3D-Kamera, die bei jedem Impuls eine 3D-Information erhält und diese Impulse mit der Kamerafrequenz synchronisiert. Das bedeutet, dass Sie mit einer Aufnahme des BLK2GO PULSE vom LiDAR-System über das Kamerasystem und zur RGB-Farbe übergehen können.    

Wir können also sagen, dass ein Punkt in Echtzeit eine bestimmte Farbe hat. Werden alle Punkte zusammengebracht, so erhält man eine farbige Punktwolke in Echtzeit.    

Diese Erklärung ist anschaulicher und technisch weniger korrekt als die des Forschungs- und Entwicklungsteams, aber der Punkt ist, dass es technisch sehr schwierig ist, diese Sensorfusion zu realisieren. Hexagon und Sony haben es jedoch gemeinsam geschafft und das Ergebnis ist eine sofortige In-situ-Darstellung der Punktwolke. Solch eine Darstellung war bislang nicht möglich.