2 minute read

Índice


Formas de controlar el dron

  • En primer lugar, siguiendo la instalación, encontramos que utilizando el SDK el dron se conecta correctamente.
  • Posteriormente, se exploraron 2 opciones para controlar el dron: aerostack y djitellopy.

Time-Optimal Flight with Safety Constraints and Data-driven Dynamics

El paper explica cómo los circuitos de carreras de drones son uno de los entornos más útiles para comprobar la agilidad de los mismos. Además, se explican algoritmos utilizados para este tipo de problema. En este caso, se menciona MPCC (Model Predictive Contourning Control) como un algoritmo importante. Se destaca que al ser un sistema de predicción dinámica, esto implica que se debe ajustar y adaptar a elementos impredecibles para optimizar su rendimiento. También se presenta la dinámica del dron, lo cual puede ser interesante para la redacción del TFG.


Ideas para añadir en el desarrollo

  • Se propone aumentar la velocidad lineal al piloto experto y al piloto neuronal para determinar si uno reacciona mejor que el otro en realidad.

Bootstrapping Reinforcement Learning with Imitation for Vision-Based Agile Flight

En este paper se combina la efectividad del aprendizaje por refuerzo e imitation learning. Se explica la importancia de que las máquinas sean capaces de reaccionar a estímulos visuales.


Imitation Learning-Based Online Time-Optimal Control with Multiple-Waypoint Constraints for Quadrotors

Este proyecto es diferente ya que se tienen waypoints desde el principio y se va calculando el error y redirigiendo el vuelo con la red neuronal. Se tiene en cuenta la latencia en el mundo real.


Autonomous Drone Racing: Time-Optimal Spatial Iterative Learning Control within a Virtual Tube

En este caso, se describe cómo se genera un piloto experto capaz de atravesar ventanas utilizando un tubo virtual que describe una zona segura para el dron.


Robust Navigation for Racing Drones based on Imitation Learning and Modularization

Se presenta un estudio bastante similar al trabajo realizado actualmente donde se pueden observar resultados similares a los obtenidos.


CCIL: Continuity-Based Data Augmentation for Corrective Imitation Learning

Cuando las políticas robóticas encuentran estados no cubiertos en el conjunto de datos de expertos debido al ruido del sensor, entornos estocásticos, perturbaciones externas o cambio covariable causado por errores acumulativos, pueden actuar de manera impredecible y peligrosa. Para la implementación generalizada del aprendizaje por imitación en aplicaciones robóticas del mundo real, necesitamos una solución que garantice la robustez de estas políticas incluso cuando se encuentren con estados desconocidos. CCIL, aprovechando la continuidad local en la dinámica para generar etiquetas correctivas para el aprendizaje por imitación y validarlas empíricamente en una variedad de dominios robóticos en simulación. De manera sencilla estas etiquetas consisten en a partir del modelo cinemático de nuestro sistema generar etiquetas donde se pueda corregir este error.