Flotando a dos metros de altura, el dron que navega entre estructuras derrumbadas convierte datos LIDAR 3D en un mapa 2D, analizando píxeles para identificar puertas y habitaciones.
El novedoso enfoque creado por un equipo del Instituto de Robótica (RI) de la Universidad Carnegie Mellon podría ayudar a los socorristas a recopilar datos y tomar decisiones más inteligentes después de un desastre.
La investigación se centró en minimizar los esfuerzos de exploración redundantes, optimizar los recursos y mejorar la eficiencia del proceso de descubrimiento.
Drones de rescate
Cada año, alrededor de 100 terremotos en todo el mundo causan daños, incluidos edificios derrumbados y líneas eléctricas caídas. Para los socorristas, evaluar la escena y priorizar los esfuerzos de rescate es crítico y peligroso.
En este nuevo método, los drones priorizan la detección rápida de puertas, ya que es más probable encontrar objetivos importantes, como personas, en las habitaciones que en los pasillos.
Para identificar estas entradas cruciales, los robots utilizan un sensor lidar integrado para analizar las propiedades geométricas de su entorno.
Flotando a unos dos metros del suelo, los drones transforman datos de nubes de puntos LIDAR 3D en un mapa de transformación 2D.
Este mapa muestra el diseño del espacio como una imagen compuesta de celdas o píxeles, que luego los drones examinan en busca de características estructurales que indiquen puertas y habitaciones.
Cerca del dron, las paredes se representan como píxeles ocupados, mientras que una puerta o pasillo abierto aparece como píxeles vacíos. Los investigadores modelaron puertas como puntos de silla en los datos, lo que permitió a los drones reconocer pasillos y navegar a través de ellos rápidamente.
Al entrar en una habitación, la posición del robot se visualiza como un círculo en el mapa.
Según el equipo, el enfoque permite a los drones localizar e ingresar a habitaciones de manera eficiente, mejorando su capacidad para encontrar y ayudar en las operaciones de rescate.
LIDAR aumenta la eficiencia
Hay dos razones principales por las que los investigadores eligieron un sensor lidar en lugar de una cámara. En primer lugar, un sensor requiere menos potencia de procesamiento que una cámara.
En segundo lugar, una cámara estándar tendría problemas para ver en ambientes polvorientos o llenos de humo que se encuentran comúnmente dentro de edificios caídos o en escenas de desastres naturales.
Los robots no están controlados por una única estación base.
En cambio, cada robot se comunica con los demás robots y utiliza su conocimiento del entorno para tomar decisiones y elegir los mejores caminos.
La lista de puertas y habitaciones que los robots aéreos han examinado se comparte entre ellos y utilizan esta información para evitar lugares visitados anteriormente.
Las pruebas revelaron que el proceso del equipo asigna tareas de manera eficiente entre los robots y respalda la exploración metódica de la sala.
Según los investigadores, las evaluaciones de rendimiento con hasta tres robots aéreos demostraron que su método supera la línea de base en un 33,4 por ciento en simulaciones y un 26,4 por ciento en experimentos del mundo real.
Debido a la transformación 2D de vóxeles 3D, el enfoque se limita a edificios de un solo piso y tiene una prevención de colisiones implícita en lugar de explícita.
El trabajo futuro tiene como objetivo extenderlo a edificios de varios pisos, explorar sistemas heterogéneos de múltiples robots y mejorar estos sistemas con módulos de aprendizaje y visión avanzada.
Los detalles de la investigación del equipo se publicaron en la revista IEEE Robotics and Automation Letters.