Un innovador modelo desarrollado por la Universidad de Córdoba ha logrado avances significativos en el ámbito de la visión artificial, utilizando redes neuronales para optimizar la decodificación de marcadores que permiten a las máquinas identificar y localizar objetos. Esta tecnología resulta crucial en la configuración de robots, como el Atlas de Boston Dynamics, que realiza tareas como hacer ejercicio y organizar cajas.
Los marcadores fiduciales son esenciales para que estos robots se desplacen con precisión, detecten objetos y determinen su ubicación exacta. Aunque a simple vista parecen códigos cuadrados en blanco y negro, su diseño permite una detección efectiva a mayores distancias en comparación con los códigos QR tradicionales. En el sector logístico, por ejemplo, una cámara situada en el techo puede identificar automáticamente la ubicación de un paquete utilizando estos marcadores, lo que se traduce en un ahorro significativo de tiempo y recursos.
Desafíos en condiciones de poca luz
A pesar de sus ventajas, el sistema presentaba limitaciones bajo condiciones de iluminación adversas. Las técnicas convencionales de visión artificial que localizan y decodifican los marcadores no lograban funcionar adecuadamente en entornos oscuros. Para abordar este desafío, un equipo de investigadores compuesto por Rafael Berral, Rafael Muñoz, Rafael Medina y Manuel J. Marín ha desarrollado un sistema pionero que permite detectar y decodificar los marcadores fiduciales incluso en situaciones difíciles de iluminación.
“El uso de redes neuronales en nuestro modelo nos brinda mayor flexibilidad para detectar estos marcadores, superando así las dificultades relacionadas con la iluminación durante todas las etapas del proceso”, señala Berral. Este proceso consta de tres etapas: detección de marcadores, refinamiento de esquinas y decodificación, cada una respaldada por una red neuronal específica.
Entrenamiento del modelo y disponibilidad del código
Este enfoque integral es inédito; como destaca Manuel J. Marín, “existen numerosos estudios que han intentado mejorar la velocidad en condiciones óptimas, pero hasta ahora no se había abordado completamente el problema de la escasa iluminación o las sombras”. Para entrenar este modelo eficazmente, el equipo creó un conjunto de datos sintéticos que simulan las diversas condiciones lumínicas que pueden encontrarse al trabajar con sistemas basados en marcadores fuera del entorno ideal.
Una vez completado el entrenamiento, los investigadores probaron el modelo con datos reales obtenidos tanto internamente como a partir de referencias previas. Tanto los datos generados artificialmente como aquellos recogidos bajo condiciones desfavorables están disponibles públicamente. Esto significa que “el sistema puede ser aplicado actualmente ya que el código está liberado, facilitando su prueba con cualquier imagen que contenga marcadores fiduciales”, recuerda Muñoz.
Con este avance, las aplicaciones de visión artificial han logrado superar otro obstáculo importante, permitiendo un progreso notable incluso en entornos oscuros.
Referencia:
Berral Soler, R., Muñoz-Salinas, R., Medina-Carnicer, R. & Marín-Jiménez, M.J. (2024) DeepArUco++: Improved detection of square fiducial markers in challenging lighting conditions, Image and Vision Computing, https://doi.org/10.1016/j.imavis.2024.105313
Preguntas sobre la noticia
¿Qué es el modelo desarrollado por la Universidad de Córdoba?
Es un sistema que utiliza redes neuronales para optimizar la decodificación de marcadores fiduciales, permitiendo a las máquinas detectar y conocer la ubicación de los objetos incluso en condiciones de poca iluminación.
¿Cuál es la ventaja de los marcadores fiduciales sobre los códigos QR?
Los marcadores fiduciales pueden ser detectados a mayor distancia en comparación con los códigos QR, lo que los hace más útiles para aplicaciones como la robótica y la logística.
¿Qué problema resuelve este nuevo modelo?
Resuelve el problema de la detección y decodificación de marcadores fiduciales en situaciones de iluminación difícil, donde las técnicas clásicas fallan.
¿Cómo se entrena el modelo?
El equipo creó un conjunto de datos sintéticos que simulan condiciones de iluminación desfavorables. Luego, el modelo fue probado con datos del mundo real para validar su efectividad.
¿Está disponible el código del modelo?
Sí, el código está liberado y se puede probar con cualquier imagen que contenga marcadores fiduciales, facilitando su aplicación práctica.