Segmentación de Imágenes Biomédicas Basada en Modelos Fundacionales Adaptados Sin Reentrenamiento y con Estimación de Incertidumbre
Autoría
F.G.S.
Máster Universitario en Inteligencia Artificial
F.G.S.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.07.2025 09:30
18.07.2025 09:30
Resumen
Dos importantes limitaciones reducen la efectividad de las soluciones actuales basadas en aprendizaje para la segmentación de imágenes biomédicas. Una de ellas es que las nuevas tareas de segmentación suelen requerir el entrenamiento o ajuste fino de nuevos modelos, un proceso costoso en recursos y que exige conocimientos especializados en aprendizaje automático, a menudo fuera del alcance de investigadores y profesionales médicos. La segunda gran limitación es que la mayoría de los métodos existentes ofrecen únicamente una máscara de segmentación determinista, a pesar de la incertidumbre significativa que a menudo existe sobre qué constituye una segmentación correcta. Esta incertidumbre puede deberse tanto a la variabilidad inherente de los datos (incertidumbre aleatoria) como a las lagunas en el conocimiento del modelo (incertidumbre epistémica). Este trabajo aborda específicamente la estimación de dichas incertidumbres en el proceso de segmentación. Comprender y cuantificar estas incertidumbres permite aumentar significativamente la explicabilidad e interpretabilidad de los modelos de segmentación, lo que favorece una toma de decisiones más segura e informada en aplicaciones médicas críticas. Proponemos el desarrollo de un método generalizado para analizar estos diferentes tipos de incertidumbre sin necesidad de reentrenar los modelos.
Dos importantes limitaciones reducen la efectividad de las soluciones actuales basadas en aprendizaje para la segmentación de imágenes biomédicas. Una de ellas es que las nuevas tareas de segmentación suelen requerir el entrenamiento o ajuste fino de nuevos modelos, un proceso costoso en recursos y que exige conocimientos especializados en aprendizaje automático, a menudo fuera del alcance de investigadores y profesionales médicos. La segunda gran limitación es que la mayoría de los métodos existentes ofrecen únicamente una máscara de segmentación determinista, a pesar de la incertidumbre significativa que a menudo existe sobre qué constituye una segmentación correcta. Esta incertidumbre puede deberse tanto a la variabilidad inherente de los datos (incertidumbre aleatoria) como a las lagunas en el conocimiento del modelo (incertidumbre epistémica). Este trabajo aborda específicamente la estimación de dichas incertidumbres en el proceso de segmentación. Comprender y cuantificar estas incertidumbres permite aumentar significativamente la explicabilidad e interpretabilidad de los modelos de segmentación, lo que favorece una toma de decisiones más segura e informada en aplicaciones médicas críticas. Proponemos el desarrollo de un método generalizado para analizar estos diferentes tipos de incertidumbre sin necesidad de reentrenar los modelos.
Dirección
Pardo López, Xosé Manuel (Tutoría)
Pardo López, Xosé Manuel (Tutoría)
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vocal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vocal)
Módulo de seguimiento automático de objetos aéreos de largo alcance
Autoría
I.A.M.S.
Máster Universitario en Inteligencia Artificial
I.A.M.S.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.07.2025 10:00
18.07.2025 10:00
Resumen
Esta TFM se centra en la evaluación de diferentes métodos de seguimiento integrados en MMTracking, una biblioteca de código abierto que ofrece implementaciones para rastreadores de un solo objeto y de múltiples objetos. Explora en detalle las capacidades de cada rastreador para identificar el mejor método para maximizar la captura de información relevante sobre el objeto en movimiento. La evaluación se realizó utilizando benchmarks conocidos como MOTChallenge y OTB2015, que ofrecen diversas condiciones y escenarios. Los resultados permitieron un análisis exhaustivo de cada método, mostrando cuál se adapta mejor a cada escenario. Además, este estudio contribuye a la búsqueda continua de algoritmos de seguimiento, aportando información valiosa e identificando áreas de mejora.
Esta TFM se centra en la evaluación de diferentes métodos de seguimiento integrados en MMTracking, una biblioteca de código abierto que ofrece implementaciones para rastreadores de un solo objeto y de múltiples objetos. Explora en detalle las capacidades de cada rastreador para identificar el mejor método para maximizar la captura de información relevante sobre el objeto en movimiento. La evaluación se realizó utilizando benchmarks conocidos como MOTChallenge y OTB2015, que ofrecen diversas condiciones y escenarios. Los resultados permitieron un análisis exhaustivo de cada método, mostrando cuál se adapta mejor a cada escenario. Además, este estudio contribuye a la búsqueda continua de algoritmos de seguimiento, aportando información valiosa e identificando áreas de mejora.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Blanco Freire, Lara Cotutoría
Dago Casas, Pablo Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Blanco Freire, Lara Cotutoría
Dago Casas, Pablo Cotutoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vocal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vocal)
KIME: Kumite Intelligent Movement Evaluation
Autoría
H.M.C.
Máster Universitario en Inteligencia Artificial
H.M.C.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.07.2025 10:30
18.07.2025 10:30
Resumen
Este trabajo de fin de máster aborda el reto de analizar objetivamente combates de kárate (kumite), en los que se deben juzgar técnicas rápidas y precisas en tiempo real, mediante el uso de la visión por ordenador y el aprendizaje profundo únicamente a partir de grabaciones de vídeo. El arbitraje tradicional se basa en jueces humanos, lo que introduce subjetividad, posibles sesgos y una capacidad limitada para procesar grandes volúmenes de imágenes para la valoración de atletas y de su rendimiento. Para superar estas limitaciones, se desarrollaron tres componentes interrelacionados: En primer lugar, se diseñó un proceso de extracción de datos para localizar y segmentar momentos de interés en vídeos de partidos completos. Combinando la detección de cambios en el marcador mediante una CNN ligera y la validación manual, se generó un conjunto de datos de acciones puntuables y no puntuables. En segundo lugar, se creó un flujo de trabajo para distinguir a los dos luchadores, Aka y Ao, mediante la detección de los límites del tatami, la detección de personas, la segmentación de instancias y el filtrado basado en el color. A continuación, se aplicó el seguimiento de objetos para reducir la carga computacional y mantener la coherencia de la identidad entre los fotogramas, lo que dio como resultado un conjunto de datos validado para clasificación. Por último, se exploraron estrategias de aprendizaje por transferencia para clasificar fotogramas individuales como acciones puntuables o no puntuables y determinar el karateka que obtiene una cantidad concreta de puntos. Se compararon dos enfoques: congelar el extractor de características de un modelo preentrenado y ajustar solo su cabecera de clasificación, frente realizar ajuste fino de las capas superiores del extractor de características y la cabecera del modelo. La estrategia que mantiene intacto el extractor de características demostró una mayor generalización y un bajo índice de falsos positivos, un atributo esencial para la integración en el mundo real de sistemas semiautomatizados de evaluación o análisis. En conjunto, este trabajo demuestra la viabilidad de una solución no intrusiva, basada únicamente en vídeo, para el análisis de Kumite y sienta las bases para un desarrollo más profundo con vistas a su despliegue en tiempo real, una mejor capacidad de explicación y una mayor comprensión táctica.
Este trabajo de fin de máster aborda el reto de analizar objetivamente combates de kárate (kumite), en los que se deben juzgar técnicas rápidas y precisas en tiempo real, mediante el uso de la visión por ordenador y el aprendizaje profundo únicamente a partir de grabaciones de vídeo. El arbitraje tradicional se basa en jueces humanos, lo que introduce subjetividad, posibles sesgos y una capacidad limitada para procesar grandes volúmenes de imágenes para la valoración de atletas y de su rendimiento. Para superar estas limitaciones, se desarrollaron tres componentes interrelacionados: En primer lugar, se diseñó un proceso de extracción de datos para localizar y segmentar momentos de interés en vídeos de partidos completos. Combinando la detección de cambios en el marcador mediante una CNN ligera y la validación manual, se generó un conjunto de datos de acciones puntuables y no puntuables. En segundo lugar, se creó un flujo de trabajo para distinguir a los dos luchadores, Aka y Ao, mediante la detección de los límites del tatami, la detección de personas, la segmentación de instancias y el filtrado basado en el color. A continuación, se aplicó el seguimiento de objetos para reducir la carga computacional y mantener la coherencia de la identidad entre los fotogramas, lo que dio como resultado un conjunto de datos validado para clasificación. Por último, se exploraron estrategias de aprendizaje por transferencia para clasificar fotogramas individuales como acciones puntuables o no puntuables y determinar el karateka que obtiene una cantidad concreta de puntos. Se compararon dos enfoques: congelar el extractor de características de un modelo preentrenado y ajustar solo su cabecera de clasificación, frente realizar ajuste fino de las capas superiores del extractor de características y la cabecera del modelo. La estrategia que mantiene intacto el extractor de características demostró una mayor generalización y un bajo índice de falsos positivos, un atributo esencial para la integración en el mundo real de sistemas semiautomatizados de evaluación o análisis. En conjunto, este trabajo demuestra la viabilidad de una solución no intrusiva, basada únicamente en vídeo, para el análisis de Kumite y sienta las bases para un desarrollo más profundo con vistas a su despliegue en tiempo real, una mejor capacidad de explicación y una mayor comprensión táctica.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
RODRIGUEZ FERNANDEZ, ISMAEL Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
RODRIGUEZ FERNANDEZ, ISMAEL Cotutoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vocal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vocal)
Desarrollo de una herramienta basada en visión por computador para la detección automática de tiros en baloncesto y el análisis de la posición en la pista.
Autoría
A.M.R.
Máster Universitario en Inteligencia Artificial
A.M.R.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este trabajo presenta un sistema modular de visión por computador para la detección automática de tiros en baloncesto y el análisis de la posición en pista a partir de grabaciones con una sola cámara. Con el objetivo de democratizar el acceso a la analítica deportiva y reducir la dependencia de la anotación manual, la herramienta integra técnicas de vanguardia en detección de objetos (YOLO y RT-DETR), seguimiento (ByteTrack) y mapeo de pista basado en homografía para posicionar a los jugadores. Detecta intentos de tiro, clasifica los resultados (encestado/fallado), asigna la posesión y genera tanto vídeos anotados como conjuntos de datos estructurados. Evaluado con vídeos reales de partidos amateurs, el sistema demuestra un rendimiento robusto en métricas espaciales, temporales y de clasificación. Estos resultados subrayan su potencial como una solución práctica y accesible para el análisis automatizado de partidos de baloncesto.
Este trabajo presenta un sistema modular de visión por computador para la detección automática de tiros en baloncesto y el análisis de la posición en pista a partir de grabaciones con una sola cámara. Con el objetivo de democratizar el acceso a la analítica deportiva y reducir la dependencia de la anotación manual, la herramienta integra técnicas de vanguardia en detección de objetos (YOLO y RT-DETR), seguimiento (ByteTrack) y mapeo de pista basado en homografía para posicionar a los jugadores. Detecta intentos de tiro, clasifica los resultados (encestado/fallado), asigna la posesión y genera tanto vídeos anotados como conjuntos de datos estructurados. Evaluado con vídeos reales de partidos amateurs, el sistema demuestra un rendimiento robusto en métricas espaciales, temporales y de clasificación. Estos resultados subrayan su potencial como una solución práctica y accesible para el análisis automatizado de partidos de baloncesto.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
MALLO ANTELO, JAIME Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
MALLO ANTELO, JAIME Cotutoría
Tribunal
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Modelos de voz del estado del arte para el gallego utilizando un corpus TTS de tamaño medio
Autoría
A.M.S.
Máster Universitario en Inteligencia Artificial
A.M.S.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
La síntesis de texto a voz (TTS) desempeña un papel crucial en la interacción persona-ordenador y sigue siendo un tema de investigación candente en las comunidades de tecnología del habla y aprendizaje automático. Con los avances en las técnicas de aprendizaje profundo y el aumento de la potencia informática, los sistemas TTS basados en redes neuronales profundas han surgido como una potente alternativa a los métodos tradicionales. Recientemente, los modelos TTS de aprendizaje profundo de extremo a extremo han producido impresionantes resultados de sonido natural y alta calidad. Sin embargo, extender estos modelos a múltiples idiomas y hablantes es un reto, especialmente para idiomas de recursos bajos a medios como el gallego. En nuestro estudio, utilizamos un conjunto de datos abierto de TTS gallego de pequeño a mediano tamaño para entrenar diferentes modelos de voz en gallego. También aplicamos la generación de datos sintéticos para abordar las deficiencias identificadas en el conjunto de datos original. Exploramos arquitecturas de última generación, incluyendo el entrenamiento desde cero y técnicas de aprendizaje por transferencia. Los modelos resultantes se validan y comparan mediante evaluaciones subjetivas y automáticas.
La síntesis de texto a voz (TTS) desempeña un papel crucial en la interacción persona-ordenador y sigue siendo un tema de investigación candente en las comunidades de tecnología del habla y aprendizaje automático. Con los avances en las técnicas de aprendizaje profundo y el aumento de la potencia informática, los sistemas TTS basados en redes neuronales profundas han surgido como una potente alternativa a los métodos tradicionales. Recientemente, los modelos TTS de aprendizaje profundo de extremo a extremo han producido impresionantes resultados de sonido natural y alta calidad. Sin embargo, extender estos modelos a múltiples idiomas y hablantes es un reto, especialmente para idiomas de recursos bajos a medios como el gallego. En nuestro estudio, utilizamos un conjunto de datos abierto de TTS gallego de pequeño a mediano tamaño para entrenar diferentes modelos de voz en gallego. También aplicamos la generación de datos sintéticos para abordar las deficiencias identificadas en el conjunto de datos original. Exploramos arquitecturas de última generación, incluyendo el entrenamiento desde cero y técnicas de aprendizaje por transferencia. Los modelos resultantes se validan y comparan mediante evaluaciones subjetivas y automáticas.
Dirección
BUGARIN DIZ, ALBERTO JOSE (Tutoría)
MAGARIÑOS IGLESIAS, MARIA DEL CARMEN Cotutoría
BUGARIN DIZ, ALBERTO JOSE (Tutoría)
MAGARIÑOS IGLESIAS, MARIA DEL CARMEN Cotutoría
Tribunal
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Detección de anomalías mediante modelos de autocodificadores en entornos industriales
Autoría
F.M.S.
Máster Universitario en Inteligencia Artificial
F.M.S.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
El aumento de la conectividad y la automatización en los entornos de la Industria 4.0 ha introducido nuevos retos para garantizar la fiabilidad y la seguridad operativas. La detección de anomalías desempeña un papel crucial en la identificación de fallos y ciberataques que podrían comprometer los sistemas de producción. Este trabajo investiga el uso de modelos basados en autocodificadores para la detección no supervisada de anomalías tanto en el tráfico de red como en los datos de sensores, recogidos de un sistema de producción de cócteles simulado. Se emplea un autocodificador totalmente conectado para detectar desviaciones en los flujos de red Modbus, mientras que se utiliza un autocodificador LSTM secuencia a secuencia para modelar patrones temporales en flujos de sensores multivariantes. Ambos modelos se entrenan con datos normales y se evalúan en escenarios de ataque realistas, como la manipulación de registros Modbus y la denegación de servicio SYN Flood. Los resultados experimentales demuestran que los autocodificadores pueden detectar eficazmente anomalías en entornos industriales, y que los modelos basados en LSTM ofrecen un mejor rendimiento en entornos con comportamiento cíclico.
El aumento de la conectividad y la automatización en los entornos de la Industria 4.0 ha introducido nuevos retos para garantizar la fiabilidad y la seguridad operativas. La detección de anomalías desempeña un papel crucial en la identificación de fallos y ciberataques que podrían comprometer los sistemas de producción. Este trabajo investiga el uso de modelos basados en autocodificadores para la detección no supervisada de anomalías tanto en el tráfico de red como en los datos de sensores, recogidos de un sistema de producción de cócteles simulado. Se emplea un autocodificador totalmente conectado para detectar desviaciones en los flujos de red Modbus, mientras que se utiliza un autocodificador LSTM secuencia a secuencia para modelar patrones temporales en flujos de sensores multivariantes. Ambos modelos se entrenan con datos normales y se evalúan en escenarios de ataque realistas, como la manipulación de registros Modbus y la denegación de servicio SYN Flood. Los resultados experimentales demuestran que los autocodificadores pueden detectar eficazmente anomalías en entornos industriales, y que los modelos basados en LSTM ofrecen un mejor rendimiento en entornos con comportamiento cíclico.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Pérez Vilarelle, Laura Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Pérez Vilarelle, Laura Cotutoría
Tribunal
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)