gianni-blk2gopulse-selfie

Conversaciones sobre tecnología: dentro del nuevo Leica BLK2GO PULSE

De Christopher Curley

|
11/30/2023

El Leica BLK2GO PULSE representa una nueva frontera en el escaneado láser de mano e incluye una novedosa implementación de sensores duales de tiempo de vuelo para crear una experiencia de escaneado en “primera persona”. Hemos conversado con Gian-Philipp Patri, director de producto de BLK, sobre el interés de Leica Geosystems por desarrollar nuevas tecnologías y sobre el proceso de creación del BLK2GO PULSE.    

Hablemos sobre la génesis del BLK2GO PULSE. ¿Cómo surgió la idea?  

Hexagon hace una enorme inversión en investigación y desarrollo. Los elementos fundacionales del BLK2GO PULSE surgieron de una empresa conjunta con Sony, que desarrolló un nuevo sensor de tiempo de vuelo. Nosotros nos encargamos de estudiar esta tecnología e imaginar las posibilidades. ¿Tendría algún interés? Y de ser así, ¿para qué podría servir?         

Cuanto más nos familiarizábamos con ella y la estudiábamos desde distintas perspectivas, más nos convencíamos de que algunos elementos proporcionaban ventajas únicas con respecto a nuestras soluciones actuales, desde el funcionamiento de los sensores con una cuadrícula uniforme hasta las nubes de puntos coloreadas de manera instantánea que se pueden crear ahora. Se trataba de salir de nuestra zona de confort y explorar sus posibilidades.    

Sé que un aspecto crucial del BLK2GO PULSE no son los sensores propiamente dichos, sino el hecho de que son dos. ¿Cómo se llegó a esa idea?  

Con el tiempo de vuelo se obtiene un campo de visión concreto, y nos habíamos planteado integrar más de uno de estos sensores porque eso tenía algunas ventajas, sobre todo la posibilidad de capturar más datos en menos tiempo.  

Un BLK2GO con LiDAR de doble eje captura toda la cúpula, lo que incluye en muchos casos algunos datos que no se pretendía capturar. 

Los sensores duales de tiempo de vuelo nos daban la oportunidad de pensar de otro modo y nos hicieron plantearnos la siguiente pregunta: ¿Y si los colocamos uno al lado del otro? Tomar dos de las unidades de sensor y combinarlas en una sola solución no fue fácil, porque toda la calibración que se hace para uno de los sensores tiene que funcionar para los dos juntos. Conseguirlo exige un gran esfuerzo.        

Pero dos sensores bien colocados pueden capturar todo lo que desea un usuario y optimizar a la vez los costes para reducir el precio final para nuestros clientes.  

Así nació el “escaneado en primera persona”.14  

Este término es nuevo. ¿Qué significa realmente “escaneado en primera persona”?  

En esencia, significa que el usuario ve lo que ve el escáner. Los dos sensores están colocados como “ojos” y, al conectar el BLK2GO PULSE a la app BLK Live en un smartphone montado en el dispositivo, lo que se ve en la pantalla es lo que se está capturando en tiempo real.   

Es una forma nueva de hacer las cosas que agiliza los flujos de trabajo y hace que los datos sean mucho más ligeros porque solo se capturan los que se necesitan.  

Pensemos por ejemplo en un plano de planta. ¿Por qué tengo que capturar el techo si quiero capturar el suelo? Eso solo hace que el volumen de datos sea innecesariamente grande, y a continuación hay que transferirlos, procesarlos y dedicar tiempo a eliminar los datos sobrantes. No es una forma inteligente de hacer las cosas.        

E incluso si se transfieren estos datos del BLK2GO PULSE para el procesamiento posterior, el paquete es más pequeño porque no hace falta procesar los datos del techo o de los objetos sin interés, ya que el usuario tiene el control y no los ha capturado. Es perfecto.   

Tengo otra pregunta. La tecnología PULSE es mucho más que un nuevo sensor, ¿verdad?   

Sí. La tecnología PULSE es la fusión de este LiDAR dual de tiempo de vuelo con GrandSLAM.   

GrandSLAM es una combinación de Visual Inertial System (VIS) y LiDAR. VIS, a su vez, es una combinación de las cámaras y la unidad de medición inercial (IMU). Todo esto permite determinar el punto del espacio en el que se encuentra el usuario y realizar localización y mapeo simultáneos. De este modo, se crea un mapa del mundo desde una posición desconocida en tiempo real.      

Habría sido fácil decir: “Muy bien, podemos reemplazar la tecnología LiDAR de doble eje con LiDAR de tiempo de vuelo, de manera que la información sobre las coordenadas X e Y se obtenga de un tipo diferente de sensor”.   

Pero entonces nos dimos cuenta de que la clave no estaba en limitarnos a reemplazar una pieza por otra, sino en pensar en las ventajas únicas de este nuevo sensor. Al profundizar en ello, descubrimos que podíamos colorear en tiempo real.  

1_5

 

La pregunta obligada es: ¿por qué puede hacer esto el BLK2GO PULSE, pero no el BLK2GO?

Buena pregunta. Tiene que ver con el volumen de datos y la sincronización. Con GrandSLAM, las cámaras capturan datos visuales a un intervalo concreto. En cambio, en el BLK2GO, el LiDAR de doble eje captura los datos a un intervalo totalmente distinto, de 420 000 puntos por segundo. Por tanto, la información de color se obtiene con regularidad, pero con una frecuencia inferior a la que el sensor LiDAR usa para recopilar puntos. Como resultado, muchos de los puntos capturados no tienen todavía información de color. Esto no se puede resolver en tiempo real porque las frecuencias no coinciden. Solo se puede hacer en el procesamiento posterior.              

En el caso del BLK2GO PULSE, el proceso es diferente, porque el tiempo de vuelo es una especie de cámara 3D en la que, en cada pulso, obtenemos información 3D, y podemos sincronizar esos pulsos con la frecuencia de las cámaras. Eso significa que con una toma del BLK2GO PULSE podemos pasar del sistema LiDAR al sistema de cámaras y al color RGB.    

Así que podemos afirmar que un punto tiene un color concreto en tiempo real. Al combinar todos esos puntos, se obtiene una nube de puntos coloreada de manera instantánea.    

Esta explicación es más ilustrativa y algo menos correcta desde el punto de vista técnico que la que daría el equipo de I+D, pero la idea es que es técnicamente muy difícil conseguir que esta fusión de sensores funcione. Hexagon y Sony, sin embargo, lo han logrado, y el resultado es una renderización instantánea in situ de la nube de puntos que nunca hasta ahora había sido posible.