less than 1 minute read

Esta semana he probado a desarrollar la estrategia de extraer varias subnubes (ventanas) de la misma nube original para entrenar (Tensorflow), recorriendo toda la información o una gran parte de esta. Los resultados no mejoraron al primer entrenamiento que hice con el submuestreo aleatorio. Opté por cambiar el enotorno de desarrollo de Tensorflow Keras a PyTorch, que ofrece mayor control sobre las iteraciones en entrenamiento y validación. Empecé por probar a entrenar con la primera estrategia, submuestreando en puntos aleatorios. También añadí una nueva figura de mérito, el índice de correlación de Matthews para clasificación multiclase, para el analizar si el modelo clasifica correctamente o simplemente acierta aleatoriamente. Se mejoraron los resultados considerablemente obteniendo un 73% de accuracy, 42% de MCC, yun 50% en MIoU. Aún no he podido visualizar predicciones debido a que la inferencia de información nueva en PyTorch sin actualización de pesos es distinta y estoy aprendiendo cómo hacerlo.