1 minute read

Esta semana he comenzado a investigar y a realizar image stitching para unir dos imágenes en una. Esta técnica es altamente revelante en el contexto de la percepción visual que nos ocupa. Permite integrar múltiples capturas 2D (2 Dimensiones) en un fichero común, una tarea fundamental al trabajar con varias cámaras en los vehículos autónomos.

Image stitching se basa en detectar descriptores o características visuales robustas de cada imagen, emparejarlas entre vistas solapadas y estimar la transformación geométrica que alinea ambas imágenes. Para la alineación se suelen usar algoritmos como RANSAC (Random sample consensus). Una vez alineadas, las imágenes se proyectan en un mismo plano y se aplican técnicas de mezcla (blending) como Alpha Blending para suavizar transiciones de iluminación o bordes visibles.

Para implementar este proceso he utilizado el repositorio OpenStitching/stitching, una librería en Python basada en el módulo de stitching de OpenCV. Esta herramienta encapsula la pipeline completa: detección de features (ORB/SIFT), matching, estimación de parámetros de cámara, corrección geométrica y mezcla multibanda. Desde el punto de vista práctico, basta con instanciar la clase Stitcher y proporcionar las imágenes; sin embargo, internamente se ejecuta una cadena compleja de estimación y optimización geométrica.

HELSINKICIUDAD

Además, esta semana he estado analizando y probando el repositorio desarrollado por @2025-tfg-joan-aristizabal, concretamente el módulo brain_predict. El repositorio se centra en la fase de inferencia dentro de un módulo de percepción para conducción autónoma, donde el “brain” actúa como módulo de decisión/predicción a partir de las entradas sensoriales procesadas previamente.