less than 1 minute read

Control autónomo del vehículo en CARLA desde ROS2 con modelo entrenado

Esta semana ejecute una inferencia un flujo completo de inferencia en tiempo real dentro del ecosistema ROS2, utilizando un modelo de red neuronal previamente entrenado con datos capturados en CARLA.


Integración del modelo .pth en un nodo ROS2

Se adaptó el modelo entrenado con PilotNet a un nodo de ROS2 llamado carla_ros2_drive usando el dataset de Carlos, el cual:

  • Escucha imágenes en tiempo real desde /carla/hero/rgb_front/image
  • Realiza inferencia utilizando PyTorch
  • Publica comandos de conducción (steer, throttle, brake) al tópico /carla/hero/vehicle_control_cmd_manual

Esto permitió tener el vehículo completamente controlado por el modelo desde ROS 2 aunque no se puede conducir de forma autónoma aún.


Validación del control de freno

Se identificó que valores pequeños en el campo brake bloqueaban el movimiento del vehículo.
Se implementó un filtro para eliminar frenados menores a 0.1, logrando así que el modelo permitiera la conducción continua.


Monitoreo de frecuencia de inferencia

Se agregó una medición en tiempo real de la frecuencia de inferencia del modelo (Hz), permitiendo verificar el rendimiento del nodo y su capacidad de respuesta en situaciones dinámicas.