Planta de producción de xilitol a partir de raquis de maíz
Autoría
C.A.C.
Grado en Ingeniería Química
C.A.C.
Grado en Ingeniería Química
Fecha de la defensa
15.09.2025 15:00
15.09.2025 15:00
Resumen
Los raquis de maíz se alimentan en un reactor (diseñado por Carlos) donde son hidrolizados al utilizar una disolución de ácido acuosa. De ahí, la corriente resultante es separada en una fracción líquida que continua el proceso, y otra sólida que es enviada a una caldera de biomasa, donde su energía de combustión será aprovechada para generar parte del vapor que consume la planta. Volviendo a la corriente principal, esta se purifica, retirando primero el ácido oxálico que es reciclado y seguidamente se eliminan otras impurezas. En este momento, la disolución de xilosa se alimenta a un segundo reactor, de cuya hidrogenación surge el xilitol. Este atraviesa de nuevo distintas etapas de purificación (evaporación, cristalización, secado) para alcanzar ls especificaciones deseadas. El evaporador es diseñado por Iván.
Los raquis de maíz se alimentan en un reactor (diseñado por Carlos) donde son hidrolizados al utilizar una disolución de ácido acuosa. De ahí, la corriente resultante es separada en una fracción líquida que continua el proceso, y otra sólida que es enviada a una caldera de biomasa, donde su energía de combustión será aprovechada para generar parte del vapor que consume la planta. Volviendo a la corriente principal, esta se purifica, retirando primero el ácido oxálico que es reciclado y seguidamente se eliminan otras impurezas. En este momento, la disolución de xilosa se alimenta a un segundo reactor, de cuya hidrogenación surge el xilitol. Este atraviesa de nuevo distintas etapas de purificación (evaporación, cristalización, secado) para alcanzar ls especificaciones deseadas. El evaporador es diseñado por Iván.
Dirección
MAURICIO IGLESIAS, MIGUEL (Tutoría)
MAURICIO IGLESIAS, MIGUEL (Tutoría)
Tribunal
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
FREIRE LEIRA, MARIA SONIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
FREIRE LEIRA, MARIA SONIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
Planta de producción de ácido acético a partir de metanol.
Autoría
M.A.G.
Grado en Ingeniería Química
M.A.G.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 09:30
16.07.2025 09:30
Resumen
Planta de producción de ácido acético a partir de metanol Obtención de 70.000 t/año de ácido acético a partir de metanol y monóxido de carbono mediante el proceso de carbonilación del metanol. Este compuesto orgánico tiene una gran variedad de utilidades, desde la elaboración de productos cosméticos, farmacéuticos o en la industria alimentaria, téxtil y química, lo cual lo convierte en un producto de gran interés industrial. En este proyecto, Martín Álvarez llevará a cabo el diseño riguroso del reactor, encargado del proceso de carbonilación del metanol para la obtención de ácido acético, y Elena Ojea de la primera columna, encargada de separar el ácido acético y el agua del resto de componentes del medio de reacción.
Planta de producción de ácido acético a partir de metanol Obtención de 70.000 t/año de ácido acético a partir de metanol y monóxido de carbono mediante el proceso de carbonilación del metanol. Este compuesto orgánico tiene una gran variedad de utilidades, desde la elaboración de productos cosméticos, farmacéuticos o en la industria alimentaria, téxtil y química, lo cual lo convierte en un producto de gran interés industrial. En este proyecto, Martín Álvarez llevará a cabo el diseño riguroso del reactor, encargado del proceso de carbonilación del metanol para la obtención de ácido acético, y Elena Ojea de la primera columna, encargada de separar el ácido acético y el agua del resto de componentes del medio de reacción.
Dirección
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Evolución de Emobook: seguridad, usabilidad e integración de proveedores de contenido multimedia para musicoterapia
Autoría
J.A.L.
Grao en Ingeniería Informática (2ªed)
J.A.L.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
16.09.2025 16:30
16.09.2025 16:30
Resumen
La musicoterapia y la terapia de reminiscencia han demostrado un impacto positivo en el bienestar emocional de personas que se encuentran en contextos terapéuticos muy diversos. Emobook es una aplicación Android que permite crear y visualizar historias de vida para la estimulación de la memoria y la expresión emocional a través de contenido multimedia personalizado. Este proyecto contribuye a la evolución de la herramienta, centrando sus esfuerzos en la incorporación de mejoras que afectan tanto al diseño técnico y funcional de la aplicación como a la experiencia terapéutica. Estas mejoras buscan consolidar Emobook como una herramienta accesible, segura y versátil, adaptable a distintos perfiles de usuarios y escenarios terapéuticos. El resultado es una aplicación más fuerte y enriquecida, mejor preparada para servir como recurso tecnológico en el acompañamiento emocional y en la recuperación de la memoria autobiográfica.
La musicoterapia y la terapia de reminiscencia han demostrado un impacto positivo en el bienestar emocional de personas que se encuentran en contextos terapéuticos muy diversos. Emobook es una aplicación Android que permite crear y visualizar historias de vida para la estimulación de la memoria y la expresión emocional a través de contenido multimedia personalizado. Este proyecto contribuye a la evolución de la herramienta, centrando sus esfuerzos en la incorporación de mejoras que afectan tanto al diseño técnico y funcional de la aplicación como a la experiencia terapéutica. Estas mejoras buscan consolidar Emobook como una herramienta accesible, segura y versátil, adaptable a distintos perfiles de usuarios y escenarios terapéuticos. El resultado es una aplicación más fuerte y enriquecida, mejor preparada para servir como recurso tecnológico en el acompañamiento emocional y en la recuperación de la memoria autobiográfica.
Dirección
CATALA BOLOS, ALEJANDRO (Tutoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotutoría
CATALA BOLOS, ALEJANDRO (Tutoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotutoría
Tribunal
Fernández Rivera, Francisco (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
RODRIGUEZ PRESEDO, JESUS MARIA (Vocal)
Fernández Rivera, Francisco (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
RODRIGUEZ PRESEDO, JESUS MARIA (Vocal)
Arquetipo Backend con Arquitectura Hexagonal
Autoría
S.A.P.
Grao en Ingeniería Informática (2ªed)
S.A.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 11:00
18.07.2025 11:00
Resumen
En el desarrollo de software, la fase inicial de un nuevo proyecto suele implicar tareas repetitivas y propensas a errores, especialmente cuando se requiere el uso de patrones arquitectónicos complejos, como es el caso de la arquitectura hexagonal, que promueve una estricta separación entre el dominio del negocio y sus dependencias externas. En este contexto, el presente Trabajo de Fin de Grado aborda la necesidad de facilitar y estandarizar esta fase en un entorno empresarial real, concretamente en colaboración con Altia Consultores. Para ello, se ha desarrollado un generador de proyectos basado en el motor de plantillas Yeoman, que permite automatizar la construcción de una estructura base en Java con Spring Boot. El generador crea, a partir de un modelo de datos, todas las capas necesarias de un microservicio en arquitectura hexagonal, incluyendo entidades de negocio, casos de uso, puertos y adaptadores, sirviendo como punto de partida para el desarrollo de nuevas aplicaciones.
En el desarrollo de software, la fase inicial de un nuevo proyecto suele implicar tareas repetitivas y propensas a errores, especialmente cuando se requiere el uso de patrones arquitectónicos complejos, como es el caso de la arquitectura hexagonal, que promueve una estricta separación entre el dominio del negocio y sus dependencias externas. En este contexto, el presente Trabajo de Fin de Grado aborda la necesidad de facilitar y estandarizar esta fase en un entorno empresarial real, concretamente en colaboración con Altia Consultores. Para ello, se ha desarrollado un generador de proyectos basado en el motor de plantillas Yeoman, que permite automatizar la construcción de una estructura base en Java con Spring Boot. El generador crea, a partir de un modelo de datos, todas las capas necesarias de un microservicio en arquitectura hexagonal, incluyendo entidades de negocio, casos de uso, puertos y adaptadores, sirviendo como punto de partida para el desarrollo de nuevas aplicaciones.
Dirección
Fernández Pena, Anselmo Tomás (Tutoría)
Rial Dosil, Mónica Cotutoría
Antón Bueso, José Luis Cotutoría
Fernández Pena, Anselmo Tomás (Tutoría)
Rial Dosil, Mónica Cotutoría
Antón Bueso, José Luis Cotutoría
Tribunal
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
TrollHunter: Sistema de gestión de reseñas basado en Modelos de Lenguaje Grande e IA.
Autoría
J.A.R.
Grao en Ingeniería Informática (2ªed)
J.A.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 11:30
18.07.2025 11:30
Resumen
En la era digital actual, la reputación online se ha convertido en uno de los activos más estratégicos para cualquier empresa. Plataformas como Google Maps, Trustpilot o las redes sociales funcionan como espacios públicos donde los clientes comparten sus experiencias, generando un gran volumen de datos. Gestionar adecuadamente esta información, distinguir entre críticas legítimas y ataques malintencionados, y extraer conclusiones útiles representa hoy un verdadero reto para las organizaciones. Este Trabajo de Fin de Grado propone el diseño e implementación de TrollHunter, un sistema basado en inteligencia artificial orientado al análisis y gestión de la reputación online empresarial. Su objetivo principal es doble: por una parte, optimizar la medición de la satisfacción del cliente mediante informes estadísticos detallados a partir de las reseñas; y por otra, mejorar la imagen corporativa facilitando herramientas para detectar y gestionar comentarios anómalos o procedentes de trolls, incluyendo respuestas generadas con asistencia de IA. Para alcanzar estos fines, se ha desarrollado una solución tecnológica compuesta por un backend robusto en Python y una interfaz web construida con React y TypeScript. El sistema permite la extracción automatizada de reseñas desde Google Places, combinando el uso de su API oficial con técnicas de scraping. El componente de inteligencia artificial opera localmente mediante Ollama y se basa en una arquitectura de Generación Aumentada por Recuperación (RAG), sustentada por una base de datos vectorial persistente. Esta base de datos centraliza tanto el sistema conversacional como los procesos de análisis, asegurando coherencia en la información procesada. Finalmente, se ha implementado un portal web que permite a los usuarios interactuar con todas las funcionalidades: búsqueda de negocios, conversaciones con el modelo, generación de informes por empresa y sugerencia automática de respuestas ante comentarios anómalos. Este sistema ofrece una vía eficaz para comprender mejor la percepción pública de una empresa en entornos digitales.
En la era digital actual, la reputación online se ha convertido en uno de los activos más estratégicos para cualquier empresa. Plataformas como Google Maps, Trustpilot o las redes sociales funcionan como espacios públicos donde los clientes comparten sus experiencias, generando un gran volumen de datos. Gestionar adecuadamente esta información, distinguir entre críticas legítimas y ataques malintencionados, y extraer conclusiones útiles representa hoy un verdadero reto para las organizaciones. Este Trabajo de Fin de Grado propone el diseño e implementación de TrollHunter, un sistema basado en inteligencia artificial orientado al análisis y gestión de la reputación online empresarial. Su objetivo principal es doble: por una parte, optimizar la medición de la satisfacción del cliente mediante informes estadísticos detallados a partir de las reseñas; y por otra, mejorar la imagen corporativa facilitando herramientas para detectar y gestionar comentarios anómalos o procedentes de trolls, incluyendo respuestas generadas con asistencia de IA. Para alcanzar estos fines, se ha desarrollado una solución tecnológica compuesta por un backend robusto en Python y una interfaz web construida con React y TypeScript. El sistema permite la extracción automatizada de reseñas desde Google Places, combinando el uso de su API oficial con técnicas de scraping. El componente de inteligencia artificial opera localmente mediante Ollama y se basa en una arquitectura de Generación Aumentada por Recuperación (RAG), sustentada por una base de datos vectorial persistente. Esta base de datos centraliza tanto el sistema conversacional como los procesos de análisis, asegurando coherencia en la información procesada. Finalmente, se ha implementado un portal web que permite a los usuarios interactuar con todas las funcionalidades: búsqueda de negocios, conversaciones con el modelo, generación de informes por empresa y sugerencia automática de respuestas ante comentarios anómalos. Este sistema ofrece una vía eficaz para comprender mejor la percepción pública de una empresa en entornos digitales.
Dirección
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Vidal De la Rosa, José Luis Cotutoría
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Vidal De la Rosa, José Luis Cotutoría
Tribunal
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Implementación dun Simulador de señais SOME/IP en Sistemas de Antena Intelixente
Autoría
J.M.A.F.
Grao en Ingeniería Informática (2ªed)
J.M.A.F.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
16.09.2025 17:30
16.09.2025 17:30
Resumen
La migración hacia un nuevo sistema de conectividad en el vehículo, impulsada por la transición al paradigma del vehículo definido por software (SDV), plantea nuevos retos para Renault en la validación de los sistemas electrónicos del vehículo. Este trabajo se centra en el desarrollo de un entorno de validación unitaria dentro de un dominio de aplicación específico, con el objetivo de evaluar el comportamiento de la ECU (Electronic Control Unit) real Smart Antenna (SA) frente a una ECU simulada, PCU_PROX_FrontEnd. La finalidad es verificar la correcta implementación y funcionamiento de los servicios Scalable Service-Oriented Middleware over IP (SOME/IP), garantizando el cumplimiento de las especificaciones de red y servicios definidos en la norma interna Ethernet Network Design Specification (ENDS). Para ello, se ha diseñado un entorno de pruebas junto con una herramienta software capaz de simular secuencias de mensajes SOME/IP, facilitando una verificación precisa y reproducible del sistema.
La migración hacia un nuevo sistema de conectividad en el vehículo, impulsada por la transición al paradigma del vehículo definido por software (SDV), plantea nuevos retos para Renault en la validación de los sistemas electrónicos del vehículo. Este trabajo se centra en el desarrollo de un entorno de validación unitaria dentro de un dominio de aplicación específico, con el objetivo de evaluar el comportamiento de la ECU (Electronic Control Unit) real Smart Antenna (SA) frente a una ECU simulada, PCU_PROX_FrontEnd. La finalidad es verificar la correcta implementación y funcionamiento de los servicios Scalable Service-Oriented Middleware over IP (SOME/IP), garantizando el cumplimiento de las especificaciones de red y servicios definidos en la norma interna Ethernet Network Design Specification (ENDS). Para ello, se ha diseñado un entorno de pruebas junto con una herramienta software capaz de simular secuencias de mensajes SOME/IP, facilitando una verificación precisa y reproducible del sistema.
Dirección
CABALEIRO DOMINGUEZ, JOSE CARLOS (Tutoría)
Míllara Castro, Ana Cotutoría
CABALEIRO DOMINGUEZ, JOSE CARLOS (Tutoría)
Míllara Castro, Ana Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
RIOS VIQUEIRA, JOSE RAMON (Secretario/a)
FELIX LAMAS, PAULO MANUEL (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
RIOS VIQUEIRA, JOSE RAMON (Secretario/a)
FELIX LAMAS, PAULO MANUEL (Vocal)
Arquitecturas de aprendizaje profundo basadas en estados para monitorización predictiva
Autoría
J.A.V.
Grao en Ingeniería Informática (2ªed)
J.A.V.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
La minería de procesos es un área que permite analizar registros de eventos con el fin de descubrir, monitorizar y mejorar procesos de negocio. Dentro de este campo, la predicción de la siguiente actividad es una tarea central en la monitorización predictiva, que ha sido abordada con éxito mediante arquitecturas de aprendizaje profundo, especialmente mediante redes neuronales recurrentes, LSTM y Transformers. En este trabajo se estudia el rendimiento de Mamba, una arquitectura reciente basada en modelos de espacios de estados, que ha dado resultados prometedores en áreas como el procesado de lenguaje natural y será adaptada específicamente para la tarea de predicción de la siguiente actividad por primera vez. Para ello, se lleva a cabo un análisis comparativo entre Mamba, LSTM y Transformers, mediante la implementación de cinco versiones incrementales de cada arquitectura. Estas versiones incorporan progresivamente atributos temporales, del recurso y mecanismos de atención, y son evaluadas sobre tres conjuntos de datos públicos siguiendo un protocolo de validación cruzada. Los resultados obtenidos muestran que Mamba puede competir en precisión con las arquitecturas tradicionales. Sin embargo, su rendimiento presenta mayor variabilidad y sus tiempos de entrenamiento son considerablemente elevados, lo que indica que aún requiere optimización. Este trabajo pone de manifiesto el potencial de Mamba en el ámbito de la minería de procesos y sienta las bases para futuras investigaciones que profundicen en su uso y mejora.
La minería de procesos es un área que permite analizar registros de eventos con el fin de descubrir, monitorizar y mejorar procesos de negocio. Dentro de este campo, la predicción de la siguiente actividad es una tarea central en la monitorización predictiva, que ha sido abordada con éxito mediante arquitecturas de aprendizaje profundo, especialmente mediante redes neuronales recurrentes, LSTM y Transformers. En este trabajo se estudia el rendimiento de Mamba, una arquitectura reciente basada en modelos de espacios de estados, que ha dado resultados prometedores en áreas como el procesado de lenguaje natural y será adaptada específicamente para la tarea de predicción de la siguiente actividad por primera vez. Para ello, se lleva a cabo un análisis comparativo entre Mamba, LSTM y Transformers, mediante la implementación de cinco versiones incrementales de cada arquitectura. Estas versiones incorporan progresivamente atributos temporales, del recurso y mecanismos de atención, y son evaluadas sobre tres conjuntos de datos públicos siguiendo un protocolo de validación cruzada. Los resultados obtenidos muestran que Mamba puede competir en precisión con las arquitecturas tradicionales. Sin embargo, su rendimiento presenta mayor variabilidad y sus tiempos de entrenamiento son considerablemente elevados, lo que indica que aún requiere optimización. Este trabajo pone de manifiesto el potencial de Mamba en el ámbito de la minería de procesos y sienta las bases para futuras investigaciones que profundicen en su uso y mejora.
Dirección
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
LAMA PENIN, MANUEL Cotutoría
Gamallo Fernández, Pedro Cotutoría
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
LAMA PENIN, MANUEL Cotutoría
Gamallo Fernández, Pedro Cotutoría
Tribunal
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
Planta de producción de hidrógeno por reformado de metano
Autoría
S.A.G.
Grado en Ingeniería Química
S.A.G.
Grado en Ingeniería Química
Fecha de la defensa
15.09.2025 15:40
15.09.2025 15:40
Resumen
El presente Trabajo de Fin de Grado tiene como objetivo el diseño de una planta para la producción de hidrógeno con una capacidad de 40 000 toneladas anuales, empleando el proceso de reformado de metano con vapor de agua. El proyecto se centra en el diseño del reactor, el cual utiliza un catalizador de níquel, a cargo de la alumna Laura Lucinda Vásquez Cardozo. Además, se contempla el diseño de una columna de absorción, desarrollado por Sara Arija García. Dado que el metano empleado ya se suministra desulfurado, no será necesario incluir una etapa de desulfuración previa. Este proyecto responde a la creciente demanda de hidrógeno en aplicaciones industriales como la producción de amoníaco y metanol.
El presente Trabajo de Fin de Grado tiene como objetivo el diseño de una planta para la producción de hidrógeno con una capacidad de 40 000 toneladas anuales, empleando el proceso de reformado de metano con vapor de agua. El proyecto se centra en el diseño del reactor, el cual utiliza un catalizador de níquel, a cargo de la alumna Laura Lucinda Vásquez Cardozo. Además, se contempla el diseño de una columna de absorción, desarrollado por Sara Arija García. Dado que el metano empleado ya se suministra desulfurado, no será necesario incluir una etapa de desulfuración previa. Este proyecto responde a la creciente demanda de hidrógeno en aplicaciones industriales como la producción de amoníaco y metanol.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
FREIRE LEIRA, MARIA SONIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
FREIRE LEIRA, MARIA SONIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
Desarrollo de una herramienta de profiling y análisis de aplicaciones Big Data en tiempo real
Autoría
A.B.P.
Grao en Ingeniería Informática (2ªed)
A.B.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
20.02.2025 11:45
20.02.2025 11:45
Resumen
Con el avance exponencial de la tecnología en la actualidad, cada vez se producen y manejan cantidades cada vez más grandes de datos. Para poder lidiar con esta enorme cantidad de datos, se desarrollaron con los años diversas herramientas en el ámbito Big Data. Una de las técnicas de mayor interés es la Computación de Altas Prestaciones, ya que esta permite un uso eficiente de los recursos disponibles en los clústeres de computación con el objetivo de acelerar el proceso y análisis de grandes cantidades de datos. El framework IgnisHPC, combina tareas HPC y Big Data, permitiendo el desarrollo de aplicaciones multilenguaje en las cuales se paraleliza el procesamiento. Otros frameworks Big Data como Spark y Hadoop poseen interfaces web, las cuales facilitan de gran manera la visualización del estado de los clústeres. Por lo tanto, con este trabajo de fin de grado, se creará una herramienta de profiling que extraiga los datos que hay en cada uno de los trabajos que un usuario tenga lanzados, y exponerlos en una interfaz web, lo que facilitará de gran manera el análisis del estado de ejecución de las tareas. Así pues, lo primero será escoger una base de datos para el almacenaje de los datos de la interfaz, después se desarrollará el frontend, la interfaz de la aplicación, lo que ve el usuario, discutiendo brevemente primero que tecnología web sería la más adecuada. Después se creará el backend, encargado de recibir las solicitudes de IgnisHPC que garantizarán que actualizarán la base de datos y que se vea reflejado en la interfaz. Finalmente se implementarán las funciones en IgnisHPC que enviarán las solicitudes http al backend de la interfaz.
Con el avance exponencial de la tecnología en la actualidad, cada vez se producen y manejan cantidades cada vez más grandes de datos. Para poder lidiar con esta enorme cantidad de datos, se desarrollaron con los años diversas herramientas en el ámbito Big Data. Una de las técnicas de mayor interés es la Computación de Altas Prestaciones, ya que esta permite un uso eficiente de los recursos disponibles en los clústeres de computación con el objetivo de acelerar el proceso y análisis de grandes cantidades de datos. El framework IgnisHPC, combina tareas HPC y Big Data, permitiendo el desarrollo de aplicaciones multilenguaje en las cuales se paraleliza el procesamiento. Otros frameworks Big Data como Spark y Hadoop poseen interfaces web, las cuales facilitan de gran manera la visualización del estado de los clústeres. Por lo tanto, con este trabajo de fin de grado, se creará una herramienta de profiling que extraiga los datos que hay en cada uno de los trabajos que un usuario tenga lanzados, y exponerlos en una interfaz web, lo que facilitará de gran manera el análisis del estado de ejecución de las tareas. Así pues, lo primero será escoger una base de datos para el almacenaje de los datos de la interfaz, después se desarrollará el frontend, la interfaz de la aplicación, lo que ve el usuario, discutiendo brevemente primero que tecnología web sería la más adecuada. Después se creará el backend, encargado de recibir las solicitudes de IgnisHPC que garantizarán que actualizarán la base de datos y que se vea reflejado en la interfaz. Finalmente se implementarán las funciones en IgnisHPC que enviarán las solicitudes http al backend de la interfaz.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Benchmark para compresión de señales y procesamiento de imaxes en aritmética de 16 y 32 bits
Autoría
E.B.P.
Grao en Ingeniería Informática (2ªed)
E.B.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
El campo de los tipos de datos de punto flotante de precisión reducida, binary16 y bfloat16, está dominado por las GPUs; un campo donde se concentran la mayor parte de las herramientas, el desarrollo y la investigación. En comparación, la situación de estos tipos de datos en las CPUs es más limitada en todas estas áreas. En este trabajo, se desarrolla un benchmark que permite evaluar la precisión y el rendimiento de estos tipos de datos en las arquitecturas de CPU x86 y ARM. A lo largo de este trabajo, se presentará el estado actual de la compatibilidad de estos tipos de datos por parte de las arquitecturas, se explicarán los programas que componen este benchmark y las CPU donde se ejecutará, y se analizarán los resultados obtenidos. Posteriormente, se desarrollarán métricas para evaluar y contextualizar el rendimiento de estos tipos de datos para poder así extraer conclusiones sobre la situación actual de binary16 y bfloat16 en las CPUs.
El campo de los tipos de datos de punto flotante de precisión reducida, binary16 y bfloat16, está dominado por las GPUs; un campo donde se concentran la mayor parte de las herramientas, el desarrollo y la investigación. En comparación, la situación de estos tipos de datos en las CPUs es más limitada en todas estas áreas. En este trabajo, se desarrolla un benchmark que permite evaluar la precisión y el rendimiento de estos tipos de datos en las arquitecturas de CPU x86 y ARM. A lo largo de este trabajo, se presentará el estado actual de la compatibilidad de estos tipos de datos por parte de las arquitecturas, se explicarán los programas que componen este benchmark y las CPU donde se ejecutará, y se analizarán los resultados obtenidos. Posteriormente, se desarrollarán métricas para evaluar y contextualizar el rendimiento de estos tipos de datos para poder así extraer conclusiones sobre la situación actual de binary16 y bfloat16 en las CPUs.
Dirección
QUESADA BARRIUSO, PABLO (Tutoría)
LOPEZ FANDIÑO, JAVIER Cotutoría
QUESADA BARRIUSO, PABLO (Tutoría)
LOPEZ FANDIÑO, JAVIER Cotutoría
Tribunal
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
Validación visual automática de biomarcadores mediante la técnica IHC en tecnología farmacéutica
Autoría
I.B.P.
Grao en Ingeniería Informática (2ªed)
I.B.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
16.09.2025 18:00
16.09.2025 18:00
Resumen
La clasificacón de la tinción de las células tratadas con inmunohistoquímica es un trabajo lento y laborioso. Para agilizar la clasificación se implementó una herramienta basada en un enfoque en dos partes. Se empleará la red neuronal Cellpose ajustada al dataset de este trabajo para segmentar las células de las imágenes y, estas delimitaciones, se pasarán a un modelo ResNet de 18 capas modificado para extraer las características y clasificarlas en cuatro tipos distintos de tinciones. El resultado de emplear esta herramienta, pasándole como argumento un directorio con imágenes, es un único archivo con todas las células de cada tipo de tinción de todas las imágenes analizadas.
La clasificacón de la tinción de las células tratadas con inmunohistoquímica es un trabajo lento y laborioso. Para agilizar la clasificación se implementó una herramienta basada en un enfoque en dos partes. Se empleará la red neuronal Cellpose ajustada al dataset de este trabajo para segmentar las células de las imágenes y, estas delimitaciones, se pasarán a un modelo ResNet de 18 capas modificado para extraer las características y clasificarlas en cuatro tipos distintos de tinciones. El resultado de emplear esta herramienta, pasándole como argumento un directorio con imágenes, es un único archivo con todas las células de cada tipo de tinción de todas las imágenes analizadas.
Dirección
Pardo López, Xosé Manuel (Tutoría)
DOSIL LAGO, RAQUEL Cotutoría
DIAZ RODRIGUEZ, PATRICIA Cotutoría
Pardo López, Xosé Manuel (Tutoría)
DOSIL LAGO, RAQUEL Cotutoría
DIAZ RODRIGUEZ, PATRICIA Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
RIOS VIQUEIRA, JOSE RAMON (Secretario/a)
FELIX LAMAS, PAULO MANUEL (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
RIOS VIQUEIRA, JOSE RAMON (Secretario/a)
FELIX LAMAS, PAULO MANUEL (Vocal)
Planta de producción de solketal por ketalización de glicerol bioderivado
Autoría
R.B.C.
Grado en Ingeniería Química
R.B.C.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:10
16.07.2025 10:10
Resumen
El objeto del presente proyecto es el diseño de una planta de producción de solketal, mediante una reacción de ketalización entre acetona y glicerol bioderivado. La capacidad de producción de la planta será de 20.021 toneladas al año de producto solketal con una pureza del 99,9 % en peso. La planta operará en régimen continuo 330 días al año, 24 horas al día. En el presente proyecto se realiza el diseño riguroso de la unidad T-202, siendo esta una columna de destilación. Mediante la elaboración de este proyecto, el alumno Rodrigo Barrio Corbillón opta al título del Grado de Ingeniería Química, otorgado por la Escola Técnica Superior de Enxeñaría de la Universidade de Santiago de Compostela.
El objeto del presente proyecto es el diseño de una planta de producción de solketal, mediante una reacción de ketalización entre acetona y glicerol bioderivado. La capacidad de producción de la planta será de 20.021 toneladas al año de producto solketal con una pureza del 99,9 % en peso. La planta operará en régimen continuo 330 días al año, 24 horas al día. En el presente proyecto se realiza el diseño riguroso de la unidad T-202, siendo esta una columna de destilación. Mediante la elaboración de este proyecto, el alumno Rodrigo Barrio Corbillón opta al título del Grado de Ingeniería Química, otorgado por la Escola Técnica Superior de Enxeñaría de la Universidade de Santiago de Compostela.
Dirección
SANCHEZ FERNANDEZ, ADRIAN (Tutoría)
SANCHEZ FERNANDEZ, ADRIAN (Tutoría)
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Enlazado de Entidades Nombradas en el Dominio Médico
Autoría
E.B.P.
Grao en Ingeniería Informática (2ªed)
E.B.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 09:30
18.07.2025 09:30
Resumen
La interoperabilidad semántica es uno de los principales desafíos en los sistemas clínicos actuales, especialmente en lo que respecta al proceso de enlazado automático de conceptos médicos definidos libremente con entidades estandarizadas en ontologías como SNOMED CT o UMLS. Este proceso, conocido como enlazado de entidades biomédicas (biomedical entity linking), es clave para garantizar la calidad de los datos clínicos, integrar información procedente de fuentes heterogéneas y posibilitar análisis automatizados con base semántica. Sin embargo, se trata de una tarea particularmente compleja, debido a la ambigüedad terminológica, la variabilidad lingüística y la dependencia del contexto clínico. En este trabajo se propuso el desarrollo de un sistema automático capaz de verificar y/o establecer correspondencias entre conceptos definidos por expertos y entidades de la base de conocimiento UMLS. Para ello, se utilizaron modelos de lenguaje biomédicos preentrenados como BioBERT, capaces de generar representaciones vectoriales (embeddings) que capturan la semántica de las descripciones médicas y permiten comparar entidades en función de su similitud contextual. La validación del sistema se llevó a cabo mediante un conjunto de experimentos que abarca tres escenarios principales: la revisión de las correspondencias existentes entre conceptos y entidades UMLS; el enlazado automático de entidades sin identificación previa; y la reevaluación de las correspondencias ya anotadas mediante técnicas de recuperación semántica. Estos experimentos permitieron observar el comportamiento del sistema en situaciones tanto controladas como reales, evidenciando que modelos de mayor capacidad como BioBERT-large obtienen mejores resultados. Además, se puso de manifiesto la importancia de la calidad y riqueza textual de las descripciones: entidades mal definidas o sin contexto dan lugar a errores, incluso cuando la entidad correcta está disponible en la base de conocimiento. Uno de los retos técnicos más relevantes fue la construcción de la base de conocimiento, que requirió la obtención de más de 318.000 conceptos de SNOMED CT a través de la API de BioPortal. Este proceso, limitado por restricciones de acceso y costoso en tiempo, evidenció la necesidad de fuentes más directas y eficientes para la integración de conocimiento biomédico. Como resultado final, este trabajo presenta una arquitectura reproducible y funcional que demuestra el potencial de los modelos de lenguaje en la tarea de enlazado de entidades biomédicas, identificando al mismo tiempo sus limitaciones actuales. Las conclusiones apuntan hacia la necesidad de integrar estrategias complementarias como el reranking semántico, el uso de filtros basados en tipos ontológicos y la incorporación de contexto clínico ampliado. Este sistema constituye, así, un primer paso hacia la automatización fiable de la normalización terminológica en registros clínicos reales.
La interoperabilidad semántica es uno de los principales desafíos en los sistemas clínicos actuales, especialmente en lo que respecta al proceso de enlazado automático de conceptos médicos definidos libremente con entidades estandarizadas en ontologías como SNOMED CT o UMLS. Este proceso, conocido como enlazado de entidades biomédicas (biomedical entity linking), es clave para garantizar la calidad de los datos clínicos, integrar información procedente de fuentes heterogéneas y posibilitar análisis automatizados con base semántica. Sin embargo, se trata de una tarea particularmente compleja, debido a la ambigüedad terminológica, la variabilidad lingüística y la dependencia del contexto clínico. En este trabajo se propuso el desarrollo de un sistema automático capaz de verificar y/o establecer correspondencias entre conceptos definidos por expertos y entidades de la base de conocimiento UMLS. Para ello, se utilizaron modelos de lenguaje biomédicos preentrenados como BioBERT, capaces de generar representaciones vectoriales (embeddings) que capturan la semántica de las descripciones médicas y permiten comparar entidades en función de su similitud contextual. La validación del sistema se llevó a cabo mediante un conjunto de experimentos que abarca tres escenarios principales: la revisión de las correspondencias existentes entre conceptos y entidades UMLS; el enlazado automático de entidades sin identificación previa; y la reevaluación de las correspondencias ya anotadas mediante técnicas de recuperación semántica. Estos experimentos permitieron observar el comportamiento del sistema en situaciones tanto controladas como reales, evidenciando que modelos de mayor capacidad como BioBERT-large obtienen mejores resultados. Además, se puso de manifiesto la importancia de la calidad y riqueza textual de las descripciones: entidades mal definidas o sin contexto dan lugar a errores, incluso cuando la entidad correcta está disponible en la base de conocimiento. Uno de los retos técnicos más relevantes fue la construcción de la base de conocimiento, que requirió la obtención de más de 318.000 conceptos de SNOMED CT a través de la API de BioPortal. Este proceso, limitado por restricciones de acceso y costoso en tiempo, evidenció la necesidad de fuentes más directas y eficientes para la integración de conocimiento biomédico. Como resultado final, este trabajo presenta una arquitectura reproducible y funcional que demuestra el potencial de los modelos de lenguaje en la tarea de enlazado de entidades biomédicas, identificando al mismo tiempo sus limitaciones actuales. Las conclusiones apuntan hacia la necesidad de integrar estrategias complementarias como el reranking semántico, el uso de filtros basados en tipos ontológicos y la incorporación de contexto clínico ampliado. Este sistema constituye, así, un primer paso hacia la automatización fiable de la normalización terminológica en registros clínicos reales.
Dirección
CHAVES FRAGA, DAVID (Tutoría)
LAMA PENIN, MANUEL Cotutoría
PEÑA GIL, CARLOS Cotutoría
CHAVES FRAGA, DAVID (Tutoría)
LAMA PENIN, MANUEL Cotutoría
PEÑA GIL, CARLOS Cotutoría
Tribunal
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
TOBAR QUINTANAR, ALEJANDRO JOSE (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
TOBAR QUINTANAR, ALEJANDRO JOSE (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
Tecnologías de búsqueda y análisis longitudinal sobre letras de canciones: el caso de la discografía de Bruce Springsteen
Autoría
M.B.C.
Grao en Ingeniería Informática (2ªed)
M.B.C.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
20.02.2025 12:15
20.02.2025 12:15
Resumen
Las tecnologías de procesamiento de lenguaje natural (PLN) han experimentado una gran evolución en los últimos años, impulsada por avances en arquitecturas de modelos como Transformers y el acceso a grandes volúmenes de datos. Estas técnicas dan lugar a modelos capaces de entender, interpretar y generar texto similar al humano, habilitando aplicaciones como el análisis de emociones, asistentes conversacionales avanzados, sistemas de recomendación personalizados y generación automática de contenido. En este trabajo se utilizan diferentes modelos de procesamiento de textos y recuperación de información para poder realizar un análisis exploratorio sobre letras de canciones y extraer conclusiones sobre la discografía de Bruce Springsteen. Es interesante realizar este análisis por la extensa carrera musical que tiene y por la complejidad emocional de su persona: el propio artista ha comentado en diversos medios que sufrió diferentes etapas depresivas a lo largo de su vida y ha intentado reflejar siempre su estado de ánimo en su obra. Cabe señalar que este tipo de estudios son extrapolables a otros artistas, pero se escogió este por la gran cantidad de datos que se pueden recoger y por la posibilidad de contrastar los resultados obtenidos en las diferentes pruebas con la información real que él mismo nos ofrece. El desarrollo de este TFG implica una serie de retos tecnológicos, relacionados primero con la extracción automática del corpus de canciones (para lo cual se recurrió a métodos de rastreo enfocado y extracción de información), el desarrollo de tecnologías de búsqueda (de modo que un usuario pueda realizar consultas en texto libre sobre las letras de canciones) y seguidamente con el análisis avanzado del lenguaje (para detectar por ejemplo emociones u otros aspectos psicológicos en las canciones). En primer lugar se generó un indexador que permite realizar búsquedas de canciones por títulos o letras y que devuelve en un tiempo razonable los resultados más relevantes. A continuación, se aplicaron diferentes variantes del modelo estado del conocimiento BERT para analizar y explorar la discografía. Esto incluye la posibilidad de generar resúmenes de canciones, nubes de tópicos, analizar emociones y obtener estimaciones de signos de trastornos, como la depresión. Estas técnicas fueron implementadas en módulos separados y se habilitó una interacción mediante widgets para que el usuario pueda filtrar a su gusto de manera sencilla y realizar las visualizaciones que considere relevante para lo que desee investigar. La tecnología desarrollada, además de explorar el corpus de canciones y realizar búsquedas personalizadas, permite por ejemplo comprobar si existe correlación entre las diferentes etapas emocionales del artista y su estilo, tanto de letra (tópicos, emociones, etc.) como de estructura (ritmo y tonalidad), de su música en ese momento. Basándonos en los resultados que muestra el software desarrollado y la teoría musical y comparando las diferentes etapas marcadas por el músico se puede observar que existe cierta correlación, ya que en algunos casos la diferencia entre las canciones de una época depresiva y una época neutral o alegre es bastante notoria.
Las tecnologías de procesamiento de lenguaje natural (PLN) han experimentado una gran evolución en los últimos años, impulsada por avances en arquitecturas de modelos como Transformers y el acceso a grandes volúmenes de datos. Estas técnicas dan lugar a modelos capaces de entender, interpretar y generar texto similar al humano, habilitando aplicaciones como el análisis de emociones, asistentes conversacionales avanzados, sistemas de recomendación personalizados y generación automática de contenido. En este trabajo se utilizan diferentes modelos de procesamiento de textos y recuperación de información para poder realizar un análisis exploratorio sobre letras de canciones y extraer conclusiones sobre la discografía de Bruce Springsteen. Es interesante realizar este análisis por la extensa carrera musical que tiene y por la complejidad emocional de su persona: el propio artista ha comentado en diversos medios que sufrió diferentes etapas depresivas a lo largo de su vida y ha intentado reflejar siempre su estado de ánimo en su obra. Cabe señalar que este tipo de estudios son extrapolables a otros artistas, pero se escogió este por la gran cantidad de datos que se pueden recoger y por la posibilidad de contrastar los resultados obtenidos en las diferentes pruebas con la información real que él mismo nos ofrece. El desarrollo de este TFG implica una serie de retos tecnológicos, relacionados primero con la extracción automática del corpus de canciones (para lo cual se recurrió a métodos de rastreo enfocado y extracción de información), el desarrollo de tecnologías de búsqueda (de modo que un usuario pueda realizar consultas en texto libre sobre las letras de canciones) y seguidamente con el análisis avanzado del lenguaje (para detectar por ejemplo emociones u otros aspectos psicológicos en las canciones). En primer lugar se generó un indexador que permite realizar búsquedas de canciones por títulos o letras y que devuelve en un tiempo razonable los resultados más relevantes. A continuación, se aplicaron diferentes variantes del modelo estado del conocimiento BERT para analizar y explorar la discografía. Esto incluye la posibilidad de generar resúmenes de canciones, nubes de tópicos, analizar emociones y obtener estimaciones de signos de trastornos, como la depresión. Estas técnicas fueron implementadas en módulos separados y se habilitó una interacción mediante widgets para que el usuario pueda filtrar a su gusto de manera sencilla y realizar las visualizaciones que considere relevante para lo que desee investigar. La tecnología desarrollada, además de explorar el corpus de canciones y realizar búsquedas personalizadas, permite por ejemplo comprobar si existe correlación entre las diferentes etapas emocionales del artista y su estilo, tanto de letra (tópicos, emociones, etc.) como de estructura (ritmo y tonalidad), de su música en ese momento. Basándonos en los resultados que muestra el software desarrollado y la teoría musical y comparando las diferentes etapas marcadas por el músico se puede observar que existe cierta correlación, ya que en algunos casos la diferencia entre las canciones de una época depresiva y una época neutral o alegre es bastante notoria.
Dirección
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Yatter 2.0: Soporte para la traducción de reglas declarativas entre YARRRML y RML
Autoría
R.B.V.
Grao en Ingeniería Informática (2ªed)
R.B.V.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
21.02.2025 10:30
21.02.2025 10:30
Resumen
Este proyecto cubre una mejora del código y una ampliación de las funcionalidades de la herramienta Yatter. Esta aplicación facilita la generación de mapeos RML hacia contenido RDF, utilizados en proyectos relacionados con la inteligencia artificial y la web semántica, empleando YARRRML, un lenguaje diseñado para crear mapeos en un formato más comprensible para los desarrolladores. Las mejoras implementadas optimizan el rendimiento, hacen el código más legible y modular, y amplían su capacidad para gestionar datos y abarcar mapeos más complejos y diversos.
Este proyecto cubre una mejora del código y una ampliación de las funcionalidades de la herramienta Yatter. Esta aplicación facilita la generación de mapeos RML hacia contenido RDF, utilizados en proyectos relacionados con la inteligencia artificial y la web semántica, empleando YARRRML, un lenguaje diseñado para crear mapeos en un formato más comprensible para los desarrolladores. Las mejoras implementadas optimizan el rendimiento, hacen el código más legible y modular, y amplían su capacidad para gestionar datos y abarcar mapeos más complejos y diversos.
Dirección
CHAVES FRAGA, DAVID (Tutoría)
CHAVES FRAGA, DAVID (Tutoría)
Tribunal
CHAVES FRAGA, DAVID (Tutor del alumno)
CHAVES FRAGA, DAVID (Tutor del alumno)
Planta de producción de ácido fórmico a partir de metanol y monóxido de carbono
Autoría
P.C.L.
Grado en Ingeniería Química
P.C.L.
Grado en Ingeniería Química
Fecha de la defensa
10.02.2025 09:30
10.02.2025 09:30
Resumen
El proyecto consiste en el diseño de una planta de produccion de 10.000 t/año de acido formico en dos etapas. La primera reaccion consiste en la carbonilacion de monoxido de carbono y metanol para dar lugar a formiato de metilo. Ese compuesto se hidroliza posteriormente en un segundo reactor produciendose el acido formico con un 85% de pureza. La encargada de realizar el diseño del reactor de hidrolisis del formiato R-202 en la Seccion 200 es Paula Campo Lopez. Por otra parte, el alumno Alejandro de Prado Gonzalez es el responsable del diseño de la columna de destilacion T-302 en la Seccion 300.
El proyecto consiste en el diseño de una planta de produccion de 10.000 t/año de acido formico en dos etapas. La primera reaccion consiste en la carbonilacion de monoxido de carbono y metanol para dar lugar a formiato de metilo. Ese compuesto se hidroliza posteriormente en un segundo reactor produciendose el acido formico con un 85% de pureza. La encargada de realizar el diseño del reactor de hidrolisis del formiato R-202 en la Seccion 200 es Paula Campo Lopez. Por otra parte, el alumno Alejandro de Prado Gonzalez es el responsable del diseño de la columna de destilacion T-302 en la Seccion 300.
Dirección
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
González Álvarez, Julia (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
González Álvarez, Julia (Vocal)
Planta de producción de tetrahidrotiofeno
Autoría
F.J.C.A.
Grado en Ingeniería Química
F.J.C.A.
Grado en Ingeniería Química
Fecha de la defensa
15.09.2025 16:20
15.09.2025 16:20
Resumen
El proyecto tiene como objetivo la producción de tetrahidrotiofeno a partir de sulfuro de hidrógeno y tetrahdrofuran, esta reacción es conocida como la reacción de Yuryev y por cada mol de tetrahidrotiofeno generado se genera otro de agua. El objetivo de producción será satisfacer la demanda nacional de tetrahidrotiofeno como odorizante para gas natural dada la falta de producción dentro del país.
El proyecto tiene como objetivo la producción de tetrahidrotiofeno a partir de sulfuro de hidrógeno y tetrahdrofuran, esta reacción es conocida como la reacción de Yuryev y por cada mol de tetrahidrotiofeno generado se genera otro de agua. El objetivo de producción será satisfacer la demanda nacional de tetrahidrotiofeno como odorizante para gas natural dada la falta de producción dentro del país.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
Tribunal
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
FREIRE LEIRA, MARIA SONIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
FREIRE LEIRA, MARIA SONIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
Argo: Aplicación de exploración y análisis de dispositivos conectados a Internet
Autoría
D.C.D.
Grao en Ingeniería Informática (2ªed)
D.C.D.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 10:00
18.07.2025 10:00
Resumen
Este Trabajo de Fin de Grado (TFG) propone un sistema informático inspirado en motores de búsqueda de dispositivos como Shodan o Censys, diseñado para ofrecer a investigadores, auditores de seguridad y administradores de red una visión clara y actualizada de los activos expuestos en la red global. El sistema desarrollado integra un crawler distribuido que explora rangos de direcciones IPv4 con técnicas de escaneo paralelo y balanceo de carga, garantizando un recorrido exhaustivo sin comprometer la estabilidad de la infraestructura. El proceso incluye el escaneo de puertos y servicios, con detección de versiones, la geolocalización de direcciones IP, el análisis de vulnerabilidades y la clasificación del tipo de dispositivo. Para la gestión de la gran cantidad de información generada, se ha implementado un sistema de almacenamiento e indexación basado en una base de datos NoSQL que permite filtrar dispositivos por ubicación, tipo de servicio o versión de software, y realizar agregaciones de alto rendimiento. Además, se pone a disposición de los usuarios finales una interfaz web intuitiva que permite explorar los datos a través de filtros dinámicos, configurar alertas personalizadas y exportar informes detallados. Por último, se expone un caso de estudio real que abarca un escaneo masivo de un gran conjunto de direcciones IP y el posterior análisis de los datos obtenidos. Los experimentos realizados evidencian que la solución propuesta alcanzó con éxito los objetivos de cobertura de escaneo, rendimiento y escalabilidad, así como una detección precisa de servicios y vulnerabilidades. Asimismo, las pruebas de usuario confirmaron la fiabilidad de la interfaz web y la robustez del sistema frente a distintos escenarios de uso.
Este Trabajo de Fin de Grado (TFG) propone un sistema informático inspirado en motores de búsqueda de dispositivos como Shodan o Censys, diseñado para ofrecer a investigadores, auditores de seguridad y administradores de red una visión clara y actualizada de los activos expuestos en la red global. El sistema desarrollado integra un crawler distribuido que explora rangos de direcciones IPv4 con técnicas de escaneo paralelo y balanceo de carga, garantizando un recorrido exhaustivo sin comprometer la estabilidad de la infraestructura. El proceso incluye el escaneo de puertos y servicios, con detección de versiones, la geolocalización de direcciones IP, el análisis de vulnerabilidades y la clasificación del tipo de dispositivo. Para la gestión de la gran cantidad de información generada, se ha implementado un sistema de almacenamiento e indexación basado en una base de datos NoSQL que permite filtrar dispositivos por ubicación, tipo de servicio o versión de software, y realizar agregaciones de alto rendimiento. Además, se pone a disposición de los usuarios finales una interfaz web intuitiva que permite explorar los datos a través de filtros dinámicos, configurar alertas personalizadas y exportar informes detallados. Por último, se expone un caso de estudio real que abarca un escaneo masivo de un gran conjunto de direcciones IP y el posterior análisis de los datos obtenidos. Los experimentos realizados evidencian que la solución propuesta alcanzó con éxito los objetivos de cobertura de escaneo, rendimiento y escalabilidad, así como una detección precisa de servicios y vulnerabilidades. Asimismo, las pruebas de usuario confirmaron la fiabilidad de la interfaz web y la robustez del sistema frente a distintos escenarios de uso.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Viqueira Hierro, Bernardo Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Viqueira Hierro, Bernardo Cotutoría
Tribunal
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
TOBAR QUINTANAR, ALEJANDRO JOSE (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
TOBAR QUINTANAR, ALEJANDRO JOSE (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
Técnica de clasificación de imágenes de observación terrestre baseada en un transformador híbrido
Autoría
H.C.R.
Grao en Ingeniería Informática (2ªed)
H.C.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 10:30
18.07.2025 10:30
Resumen
Durante los últimos años, el aprendizaje automático y las redes neuronales de deep learning están siendo el punto neurálgico del interés de muchos investigadores, empresas y administraciones públicas. Concretamente, en el área de remote sensing, el conocimiento está focalizándose en las imágenes multiespectrais y en la creación de gemelos digitales para el análisis de vertidos, superficies arbóreas o el mantenimiento de grandes extensiones de praderías agrícolas. Por este motivo, se consideró que realizar un trabajo en una materia de actualidad podría resultar interesante para conocer el estado del arte, así como aportar un grano de arena al campo de la clasificación de imágenes. Para eso, se emplearon diversos transformadores, con el fin de adaptarlos a un conjunto de imágenes multiespectrais obtenidas de las cuencas de varios ríos gallegos. Uno de los principales retos consistió en la elección de métodos precisos y eficientes, que a su vez pudieran ser trasladados a situaciones en tiempo real, muy aplicables, como mencionamos, a los gemelos digitales que también desde Galicia se están potenciando. Con esto, se realizó una experimentación que permitió obtener unas métricas de precisión y coste muy interesantes. Se destacó principalmente que los modelos transformadores híbridos, como FastViT o CoAtNet, son potencialmente útiles para situaciones que requieren la mayor precisión y el menor tiempo. También se concluyó que existe una fuerte componente global en las imágenes de teledetección de las tazas de los ríos, por lo que es necesario captar dichas características en estas primeras etapas para realizar la inferencia de clase de forma correcta.
Durante los últimos años, el aprendizaje automático y las redes neuronales de deep learning están siendo el punto neurálgico del interés de muchos investigadores, empresas y administraciones públicas. Concretamente, en el área de remote sensing, el conocimiento está focalizándose en las imágenes multiespectrais y en la creación de gemelos digitales para el análisis de vertidos, superficies arbóreas o el mantenimiento de grandes extensiones de praderías agrícolas. Por este motivo, se consideró que realizar un trabajo en una materia de actualidad podría resultar interesante para conocer el estado del arte, así como aportar un grano de arena al campo de la clasificación de imágenes. Para eso, se emplearon diversos transformadores, con el fin de adaptarlos a un conjunto de imágenes multiespectrais obtenidas de las cuencas de varios ríos gallegos. Uno de los principales retos consistió en la elección de métodos precisos y eficientes, que a su vez pudieran ser trasladados a situaciones en tiempo real, muy aplicables, como mencionamos, a los gemelos digitales que también desde Galicia se están potenciando. Con esto, se realizó una experimentación que permitió obtener unas métricas de precisión y coste muy interesantes. Se destacó principalmente que los modelos transformadores híbridos, como FastViT o CoAtNet, son potencialmente útiles para situaciones que requieren la mayor precisión y el menor tiempo. También se concluyó que existe una fuerte componente global en las imágenes de teledetección de las tazas de los ríos, por lo que es necesario captar dichas características en estas primeras etapas para realizar la inferencia de clase de forma correcta.
Dirección
Argüello Pedreira, Francisco Santiago (Tutoría)
Blanco Heras, Dora Cotutoría
Argüello Pedreira, Francisco Santiago (Tutoría)
Blanco Heras, Dora Cotutoría
Tribunal
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
TOBAR QUINTANAR, ALEJANDRO JOSE (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
TOBAR QUINTANAR, ALEJANDRO JOSE (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
Comparativa de tecnologías de búsqueda en bancos de prueba para el estudio de la desinformación en el ámbito de consultas de la salud
Autoría
X.C.A.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
X.C.A.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
18.07.2025 11:00
18.07.2025 11:00
Resumen
La desinformación presente en los resultados de búsquedas web sobre salud es una cuestión preocupante tanto a nivel social como científico, pues puede influir negativamente en la toma de decisiones de los/las usuarios/as y acarrear graves consecuencias para la salud. Este fenómeno, que cobró especial visibilidad con la pandemia de la COVID-19, es una de las áreas de investigación dentro del ámbito de la Recuperación de Información (RI), en torno a la cual se articula este trabajo. El proyecto tiene como objetivo central explorar cómo discernir documentos relevantes y correctos de documentos dañinos, dada una cierta intención de búsqueda. Para ello, se propone un estudio estructurado en tres líneas de investigación. En primer lugar, se lleva a cabo un análisis sistemático del desempeño de sistemas de búsqueda del estado del arte con respecto a esta tarea. En segundo lugar, se diseña, implementa y evalúa una nueva técnica basada en Modelos Grandes de Lenguaje (LLMs) para la generación de alternativas de consultas enviadas por usuarios/as, de forma que sus variantes favorezcan la recuperación de documentos relevantes y correctos, en detrimento de la recuperación de documentos dañinos. Por último, se presenta un estudio sobre la predicción de la presencia de desinformación sanitaria en los resultados de búsqueda de consultas, para lo cual se prueban técnicas procedentes de ámbitos relacionados y se diseña, implementa y evalúa un nuevo predictor basado en LLMs y específico para esta tarea. Los hallazgos del trabajo avalan el potencial de los LLMs en el campo de la RI, al lograr mejorar la eficacia de sistemas de búsqueda punteros. Además, se subsana la ausencia de literatura previa en cuanto a la predicción de desinformación en consultas, a la vez que se prueba la capacidad de los LLMs para ello, superior a la capacidad que demuestran técnicas más generales. Parte de las aportaciones de este proyecto han sido aceptadas para su publicación en la conferencia ACM SIGIR 2025.
La desinformación presente en los resultados de búsquedas web sobre salud es una cuestión preocupante tanto a nivel social como científico, pues puede influir negativamente en la toma de decisiones de los/las usuarios/as y acarrear graves consecuencias para la salud. Este fenómeno, que cobró especial visibilidad con la pandemia de la COVID-19, es una de las áreas de investigación dentro del ámbito de la Recuperación de Información (RI), en torno a la cual se articula este trabajo. El proyecto tiene como objetivo central explorar cómo discernir documentos relevantes y correctos de documentos dañinos, dada una cierta intención de búsqueda. Para ello, se propone un estudio estructurado en tres líneas de investigación. En primer lugar, se lleva a cabo un análisis sistemático del desempeño de sistemas de búsqueda del estado del arte con respecto a esta tarea. En segundo lugar, se diseña, implementa y evalúa una nueva técnica basada en Modelos Grandes de Lenguaje (LLMs) para la generación de alternativas de consultas enviadas por usuarios/as, de forma que sus variantes favorezcan la recuperación de documentos relevantes y correctos, en detrimento de la recuperación de documentos dañinos. Por último, se presenta un estudio sobre la predicción de la presencia de desinformación sanitaria en los resultados de búsqueda de consultas, para lo cual se prueban técnicas procedentes de ámbitos relacionados y se diseña, implementa y evalúa un nuevo predictor basado en LLMs y específico para esta tarea. Los hallazgos del trabajo avalan el potencial de los LLMs en el campo de la RI, al lograr mejorar la eficacia de sistemas de búsqueda punteros. Además, se subsana la ausencia de literatura previa en cuanto a la predicción de desinformación en consultas, a la vez que se prueba la capacidad de los LLMs para ello, superior a la capacidad que demuestran técnicas más generales. Parte de las aportaciones de este proyecto han sido aceptadas para su publicación en la conferencia ACM SIGIR 2025.
Dirección
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Tribunal
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
TOBAR QUINTANAR, ALEJANDRO JOSE (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
TOBAR QUINTANAR, ALEJANDRO JOSE (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
Curvas elípticas y aplicaciones en criptografía
Autoría
X.C.A.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
X.C.A.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
02.07.2025 11:30
02.07.2025 11:30
Resumen
El objetivo de este trabajo es ofrecer un estudio exhaustivo sobre las curvas elípticas, un caso particular de curvas algebraicas que ha ocupado un lugar destacado en diversas ramas de las matemáticas, como la geometría algebraica y la teoría de números, y que ha encontrado importantes aplicaciones en la criptografía moderna. Con el fin de ofrecer un análisis detallado tanto de los aspectos teóricos como de sus aplicaciones, el trabajo comienza introduciendo conceptos y resultados de geometría algebraica que constituyen el marco fundamental para el desarrollo posterior. A continuación, se presenta tanto la definición formal de curva elíptica como su clasificación en función del invariante j. Tras abordar una de sus más importantes características, su estructura de grupo, se examinan las propiedades teóricas de las curvas elípticas en cuerpos finitos, que son el objeto de interés para la parte final, en la que se explora su uso práctico en la criptografía.
El objetivo de este trabajo es ofrecer un estudio exhaustivo sobre las curvas elípticas, un caso particular de curvas algebraicas que ha ocupado un lugar destacado en diversas ramas de las matemáticas, como la geometría algebraica y la teoría de números, y que ha encontrado importantes aplicaciones en la criptografía moderna. Con el fin de ofrecer un análisis detallado tanto de los aspectos teóricos como de sus aplicaciones, el trabajo comienza introduciendo conceptos y resultados de geometría algebraica que constituyen el marco fundamental para el desarrollo posterior. A continuación, se presenta tanto la definición formal de curva elíptica como su clasificación en función del invariante j. Tras abordar una de sus más importantes características, su estructura de grupo, se examinan las propiedades teóricas de las curvas elípticas en cuerpos finitos, que son el objeto de interés para la parte final, en la que se explora su uso práctico en la criptografía.
Dirección
ALONSO TARRIO, LEOVIGILDO (Tutoría)
ALONSO TARRIO, LEOVIGILDO (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
PIDASS - Plataforma Inteligente para el Diseño de Alimentos Saludables y Sostenibles
Autoría
A.C.R.
Grao en Ingeniería Informática (2ªed)
A.C.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 13:30
18.07.2025 13:30
Resumen
Este proyecto desarrolla una aplicación web para optimizar la creación de productos alimenticios en PYMES, siguiendo una metodología estructurada basada en el enfoque del investigador Jairo Torres. La herramienta busca reducir el tiempo de desarrollo y mejorar la competitividad frente a grandes empresas del sector. La aplicación es un ERP que permite a los usuarios gestionar proyectos de desarrollo de alimentos, integrando funcionalidades clave. Está desarrollada en Flask con bases de datos SQL y sigue un flujo de trabajo organizado en cuatro fases principales, que incluyen 27 funcionalidades definidas en un tablero de Miró. Para avanzar entre fases, el usuario debe revisar y aprobar el progreso manualmente. La plataforma se implementa como una solución web accesible desde cualquier dispositivo sin necesidad de instalación, alojada en un servidor remoto. Su impacto esperado es cubrir las necesidades del investigador Jairo Torres, reduciendo el tiempo de desarrollo de alimentos, con potencial para adaptarse a otras PYMES del sector con mínimas modificaciones. En este documento se detalla el proceso completo: gestión del proyecto, requisitos, diseño, pruebas, conclusiones y futuras líneas de trabajo. Además, se incluyen un manual técnico (para desarrolladores) y un manual de usuario (para clientes finales) que facilitan la comprensión y el uso del sistema.
Este proyecto desarrolla una aplicación web para optimizar la creación de productos alimenticios en PYMES, siguiendo una metodología estructurada basada en el enfoque del investigador Jairo Torres. La herramienta busca reducir el tiempo de desarrollo y mejorar la competitividad frente a grandes empresas del sector. La aplicación es un ERP que permite a los usuarios gestionar proyectos de desarrollo de alimentos, integrando funcionalidades clave. Está desarrollada en Flask con bases de datos SQL y sigue un flujo de trabajo organizado en cuatro fases principales, que incluyen 27 funcionalidades definidas en un tablero de Miró. Para avanzar entre fases, el usuario debe revisar y aprobar el progreso manualmente. La plataforma se implementa como una solución web accesible desde cualquier dispositivo sin necesidad de instalación, alojada en un servidor remoto. Su impacto esperado es cubrir las necesidades del investigador Jairo Torres, reduciendo el tiempo de desarrollo de alimentos, con potencial para adaptarse a otras PYMES del sector con mínimas modificaciones. En este documento se detalla el proceso completo: gestión del proyecto, requisitos, diseño, pruebas, conclusiones y futuras líneas de trabajo. Además, se incluyen un manual técnico (para desarrolladores) y un manual de usuario (para clientes finales) que facilitan la comprensión y el uso del sistema.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
BARBOSA PEREIRA, LETRICIA Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
BARBOSA PEREIRA, LETRICIA Cotutoría
Tribunal
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Diseño de una instalación de captura de CO2 asociado a un ciclo de recuperación de Ca(OH)2
Autoría
M.C.D.
Grado en Ingeniería Química
M.C.D.
Grado en Ingeniería Química
Fecha de la defensa
10.02.2025 10:10
10.02.2025 10:10
Resumen
El presente proyecto tiene como objetivo el diseño de una instalación de captura de CO2 asociado a un ciclo de recuperación de Ca(OH)2. La planta localizada en la provincia de A Coruña, concretamente en el polígono industrial de Curtis-Teixeiro, tendrá una capacidad de 1Mt/año de CO2 con una pureza del 97,12% y operará en régimen continuo 330 días al año y 24 horas al día. En este proceso, se lleva a cabo la captura del CO2 directamente de la atmósfera y, paralelamente, también se captura el CO2 de los gases de combustión generados en la planta para satisfacer las necesidades energéticas de esta. Para eso, se emplea la absorción química mediante la técnica del ciclo de carbonatación-calcinación. La planta consta de cuatro secciones principales: absorción, reacción, calcinación e hidratación. Paula Fariña diseñará el absorbedor A-101 de la sección de absorción y María Chao diseñará el reactor R-201 de la sección de reacción.
El presente proyecto tiene como objetivo el diseño de una instalación de captura de CO2 asociado a un ciclo de recuperación de Ca(OH)2. La planta localizada en la provincia de A Coruña, concretamente en el polígono industrial de Curtis-Teixeiro, tendrá una capacidad de 1Mt/año de CO2 con una pureza del 97,12% y operará en régimen continuo 330 días al año y 24 horas al día. En este proceso, se lleva a cabo la captura del CO2 directamente de la atmósfera y, paralelamente, también se captura el CO2 de los gases de combustión generados en la planta para satisfacer las necesidades energéticas de esta. Para eso, se emplea la absorción química mediante la técnica del ciclo de carbonatación-calcinación. La planta consta de cuatro secciones principales: absorción, reacción, calcinación e hidratación. Paula Fariña diseñará el absorbedor A-101 de la sección de absorción y María Chao diseñará el reactor R-201 de la sección de reacción.
Dirección
BELLO BUGALLO, PASTORA MARIA (Tutoría)
BELLO BUGALLO, PASTORA MARIA (Tutoría)
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
González Álvarez, Julia (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
González Álvarez, Julia (Vocal)
Planta de producción de acrilonitrilo
Autoría
D.I.C.S.
Grado en Ingeniería Química
D.I.C.S.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:40
16.07.2025 10:40
Resumen
El objetivo de este TFG es el diseño de una planta de producción de 50.000 toneladas anuales de acrilonitrilo. Este compuesto tiene un gran uso a nivel industrial. Se emplea comúnmente para producir fibras sintéticas, plásticos, resinas y para la síntesis de otros químicos. Este producto se obtiene mediante la reacción de amoxidación del propileno, amoníaco y oxígeno, conocido como proceso Sohio. Los principales productos de reacción son: el acrilonitrilo, HCN, acetonitrilo, agua, dióxido de carbono y monóxido de carbono. La reacción tendrá lugar en un reactor de lecho fluidizado con un catalizador óxido de bismuto molibdeno soportado en alúmina, posteriormente, los productos de reacción pasarán por un absorbedor (empleando agua como disolvente) para recuperar la mayor cantidad de acrilonitrilo posible, y finalmente, los productos pasarán por un tren de columnas de destilación, cuyo objetivo principal es la separación y purificación a un 99,7% de pureza del acrilonitrilo.
El objetivo de este TFG es el diseño de una planta de producción de 50.000 toneladas anuales de acrilonitrilo. Este compuesto tiene un gran uso a nivel industrial. Se emplea comúnmente para producir fibras sintéticas, plásticos, resinas y para la síntesis de otros químicos. Este producto se obtiene mediante la reacción de amoxidación del propileno, amoníaco y oxígeno, conocido como proceso Sohio. Los principales productos de reacción son: el acrilonitrilo, HCN, acetonitrilo, agua, dióxido de carbono y monóxido de carbono. La reacción tendrá lugar en un reactor de lecho fluidizado con un catalizador óxido de bismuto molibdeno soportado en alúmina, posteriormente, los productos de reacción pasarán por un absorbedor (empleando agua como disolvente) para recuperar la mayor cantidad de acrilonitrilo posible, y finalmente, los productos pasarán por un tren de columnas de destilación, cuyo objetivo principal es la separación y purificación a un 99,7% de pureza del acrilonitrilo.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Desarrollo e implementación de un videojuego independiente en Unreal Engine 5: CodeBreaker
Autoría
A.O.C.
Grao en Ingeniería Informática (2ªed)
A.O.C.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Motivado por la relevancia y crecimiento de la industria de los videojuegos, así como por la complejidad del desarrollo de un videojuego, se pretende desarrollar un proyecto que explore los varios aspectos del proceso de desarrollo de un videojuego de manera independiente. Comenzando por un análisis del estado del arte, y tras escoger un motor gráfico como herramienta de apoyo en la creación del sistema informático, se aborda el desarrollo de un videojuego multijugador siguiendo líneas similares a juegos desarrollados en la industria. El foco central se sitúa en la implementación de un sistema en tiempo real que permite la comunicación entre varios equipos conectados entre sí. En el proyecto se abordan las fases del diseño, implementación y pruebas, proporcionando explicaciones de las decisiones tomadas y de las pruebas realizadas, finalizando con una conclusión que une todos los esfuerzos del proyecto. Adicionalmente, se proporcionan manuales técnicos y de usuario complementarios para facilitar el desarrollo futuro y el uso del software.
Motivado por la relevancia y crecimiento de la industria de los videojuegos, así como por la complejidad del desarrollo de un videojuego, se pretende desarrollar un proyecto que explore los varios aspectos del proceso de desarrollo de un videojuego de manera independiente. Comenzando por un análisis del estado del arte, y tras escoger un motor gráfico como herramienta de apoyo en la creación del sistema informático, se aborda el desarrollo de un videojuego multijugador siguiendo líneas similares a juegos desarrollados en la industria. El foco central se sitúa en la implementación de un sistema en tiempo real que permite la comunicación entre varios equipos conectados entre sí. En el proyecto se abordan las fases del diseño, implementación y pruebas, proporcionando explicaciones de las decisiones tomadas y de las pruebas realizadas, finalizando con una conclusión que une todos los esfuerzos del proyecto. Adicionalmente, se proporcionan manuales técnicos y de usuario complementarios para facilitar el desarrollo futuro y el uso del software.
Dirección
FLORES GONZALEZ, JULIAN CARLOS (Tutoría)
González Santos, Alejandro Cotutoría
FLORES GONZALEZ, JULIAN CARLOS (Tutoría)
González Santos, Alejandro Cotutoría
Tribunal
LAMA PENIN, MANUEL (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
VARELA PET, JOSE (Vocal)
LAMA PENIN, MANUEL (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
VARELA PET, JOSE (Vocal)
Implementación y Optimización de un Entorno de Virtualización con Proxmox VE para la Gestión Eficiente de Recursos en un Centro de Datos
Autoría
D.C.P.
Grao en Ingeniería Informática (2ªed)
D.C.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
20.02.2025 12:45
20.02.2025 12:45
Resumen
Este trabajo busca diseñar, implementar y optimizar un entorno de virtualización para una pequeña organización con el fin de mejorar la eficiencia de gestión de los recursos computacionales, de almacenamiento y de red en su centro de datos, garantizando un rendimiento estable y un uso adecuado del hardware disponible. La parte principal del trabajo se centra en lograr esto con Proxmox VE, configurando un clúster de tres nodos, con un sistema de almacenamiento compartido y mecanismos de alta disponibilidad y backup. Se demuestra que Proxmox VE es una solución eficiente para entornos con recursos limitados, proporcionando herramientas avanzadas para la administración centralizada y la optimización del uso de hardware. Sin embargo, también se identificaron limitaciones como la dependencia del servidor NFS, que podría generar cuellos de botella. Finalmente, se proponen ampliaciones que incluyen la migración a un sistema de almacenamiento distribuido y la incorporación de herramientas de automatización y monitorización. Además, si el presupuesto lo permite, otra vía de mejora podría ser la evaluación de entornos de virtualización alternativos para mejorar el rendimiento y la escalabilidad en futuras implementaciones.
Este trabajo busca diseñar, implementar y optimizar un entorno de virtualización para una pequeña organización con el fin de mejorar la eficiencia de gestión de los recursos computacionales, de almacenamiento y de red en su centro de datos, garantizando un rendimiento estable y un uso adecuado del hardware disponible. La parte principal del trabajo se centra en lograr esto con Proxmox VE, configurando un clúster de tres nodos, con un sistema de almacenamiento compartido y mecanismos de alta disponibilidad y backup. Se demuestra que Proxmox VE es una solución eficiente para entornos con recursos limitados, proporcionando herramientas avanzadas para la administración centralizada y la optimización del uso de hardware. Sin embargo, también se identificaron limitaciones como la dependencia del servidor NFS, que podría generar cuellos de botella. Finalmente, se proponen ampliaciones que incluyen la migración a un sistema de almacenamiento distribuido y la incorporación de herramientas de automatización y monitorización. Además, si el presupuesto lo permite, otra vía de mejora podría ser la evaluación de entornos de virtualización alternativos para mejorar el rendimiento y la escalabilidad en futuras implementaciones.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Álvarez Calvo, Francisco Javier Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Álvarez Calvo, Francisco Javier Cotutoría
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Exploración de catálogos de datos medioambientales de tipo OM
Autoría
A.C.M.
Grao en Ingeniería Informática (2ªed)
A.C.M.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
16.09.2025 17:00
16.09.2025 17:00
Resumen
El presente Trabajo Fin de Grado aborda el diseño e implementación de un prototipo de explorador web genérico para la API de un framework de modelado ambiental basado en el estándar Observations and Measurements (OM) del OGC, desarrollado en el grupo de investigación COGRADE de la USC. El sistema desarrollado permite el descubrimiento, filtrado y visualización de datos de observación y modelado provenientes de servicios externos, empleando un enfoque modular y tecnologías web abiertas (HTML5, CSS3, JavaScript y Node.js). El prototipo integra cuatro módulos principales (index, view-map, filter y view) que proporcionan funcionalidades de búsqueda de procesos, aplicación de filtros espaciales y temporales, exploración jerárquica de metadatos y representación geoespacial de datos en mapas interactivos. El sistema fue validado mediante un conjunto de pruebas funcionales e integradas, ejecutadas conforme al modelo incremental definido en la fase de desarrollo. Los resultados obtenidos confirman el cumplimiento de los requisitos funcionales y no funcionales establecidos, así como la interoperabilidad con servicios externos basados en estándares OGC.
El presente Trabajo Fin de Grado aborda el diseño e implementación de un prototipo de explorador web genérico para la API de un framework de modelado ambiental basado en el estándar Observations and Measurements (OM) del OGC, desarrollado en el grupo de investigación COGRADE de la USC. El sistema desarrollado permite el descubrimiento, filtrado y visualización de datos de observación y modelado provenientes de servicios externos, empleando un enfoque modular y tecnologías web abiertas (HTML5, CSS3, JavaScript y Node.js). El prototipo integra cuatro módulos principales (index, view-map, filter y view) que proporcionan funcionalidades de búsqueda de procesos, aplicación de filtros espaciales y temporales, exploración jerárquica de metadatos y representación geoespacial de datos en mapas interactivos. El sistema fue validado mediante un conjunto de pruebas funcionales e integradas, ejecutadas conforme al modelo incremental definido en la fase de desarrollo. Los resultados obtenidos confirman el cumplimiento de los requisitos funcionales y no funcionales establecidos, así como la interoperabilidad con servicios externos basados en estándares OGC.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Martínez Casas, David Cotutoría
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Martínez Casas, David Cotutoría
Tribunal
Fernández Rivera, Francisco (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
RODRIGUEZ PRESEDO, JESUS MARIA (Vocal)
Fernández Rivera, Francisco (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
RODRIGUEZ PRESEDO, JESUS MARIA (Vocal)
ENERGETIC: Modelos fundacionales few-shot para segmentación de imagen médica
Autoría
C.C.R.
Grao en Ingeniería Informática (2ªed)
C.C.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
La segmentación automática de imágenes médicas puede facilitar el diagnóstico y pronóstico de patologías en el ámbito clínico. Sin embargo, se enfrenta a dos grandes retos: la escasez de datos etiquetados y la enorme heterogeneidad de las imágenes, por la diversidad de modalidades de imagen y variaciones de contraste, ruido y anatomías. Los modelos fundacionales, entrenados con grandes volúmenes de datos, prometen ofrecer una gran capacidad de generalización, mientras que las técnicas few-shot permiten adaptarse a entornos con muy pocos ejemplos anotados, reduciendo costes. El objetivo de este trabajo consiste en realizar un estudio comparativo de varios modelos few-shot de segmentación entrenados en conjuntos de datos de imágenes médicas multimodales, valorando su capacidad de generalización como modelo fundacional. En primer lugar, se recopilaron diversos conjuntos de datos de imágenes médicas 2D y 3D para crear una base de datos heterogénea, formada por modalidades de imagen y tareas de segmentación diversas. A continuación, sobre esta, se entrenaron cuatro arquitecturas de segmentación few-shot (PANet, PFENet, CyCTR y UniverSeg), variando tanto el uso de aumento de datos como el tamaño del conjunto de soporte (1-shot frente a 5-shot). Los resultados cuantitativos basados en la métrica DSC y la distancia de Hausdorff mostraron que el aumento de datos empeoraba el desempeño, mientras que incrementar el número de imágenes de soporte mejoraba la precisión de las segmentaciones. CyCTR y UniverSeg fueron los más precisos en tareas de segmentación utilizadas en la fase de entrenamiento, pero ambos sufrieron una caída notable en modalidades no incluidas en esa fase. Solo UniverSeg con 5 imágenes de soporte sin aumento de datos mantuvo resultados relativamente estables en escenarios nuevos, lo que sugiere que es el modelo que mejor extrae características relevantes de las imágenes de soporte. En conjunto, este estudio demuestra que los enfoques few-shot actuales presentan limitaciones significativas para comportarse como modelos fundacionales de segmentación. Esto resalta la necesidad de continuar investigando y desarrollando métodos con mejores capacidades en este ámbito.
La segmentación automática de imágenes médicas puede facilitar el diagnóstico y pronóstico de patologías en el ámbito clínico. Sin embargo, se enfrenta a dos grandes retos: la escasez de datos etiquetados y la enorme heterogeneidad de las imágenes, por la diversidad de modalidades de imagen y variaciones de contraste, ruido y anatomías. Los modelos fundacionales, entrenados con grandes volúmenes de datos, prometen ofrecer una gran capacidad de generalización, mientras que las técnicas few-shot permiten adaptarse a entornos con muy pocos ejemplos anotados, reduciendo costes. El objetivo de este trabajo consiste en realizar un estudio comparativo de varios modelos few-shot de segmentación entrenados en conjuntos de datos de imágenes médicas multimodales, valorando su capacidad de generalización como modelo fundacional. En primer lugar, se recopilaron diversos conjuntos de datos de imágenes médicas 2D y 3D para crear una base de datos heterogénea, formada por modalidades de imagen y tareas de segmentación diversas. A continuación, sobre esta, se entrenaron cuatro arquitecturas de segmentación few-shot (PANet, PFENet, CyCTR y UniverSeg), variando tanto el uso de aumento de datos como el tamaño del conjunto de soporte (1-shot frente a 5-shot). Los resultados cuantitativos basados en la métrica DSC y la distancia de Hausdorff mostraron que el aumento de datos empeoraba el desempeño, mientras que incrementar el número de imágenes de soporte mejoraba la precisión de las segmentaciones. CyCTR y UniverSeg fueron los más precisos en tareas de segmentación utilizadas en la fase de entrenamiento, pero ambos sufrieron una caída notable en modalidades no incluidas en esa fase. Solo UniverSeg con 5 imágenes de soporte sin aumento de datos mantuvo resultados relativamente estables en escenarios nuevos, lo que sugiere que es el modelo que mejor extrae características relevantes de las imágenes de soporte. En conjunto, este estudio demuestra que los enfoques few-shot actuales presentan limitaciones significativas para comportarse como modelos fundacionales de segmentación. Esto resalta la necesidad de continuar investigando y desarrollando métodos con mejores capacidades en este ámbito.
Dirección
VILA BLANCO, NICOLAS (Tutoría)
Carreira Nouche, María José Cotutoría
VILA BLANCO, NICOLAS (Tutoría)
Carreira Nouche, María José Cotutoría
Tribunal
LAMA PENIN, MANUEL (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
VARELA PET, JOSE (Vocal)
LAMA PENIN, MANUEL (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
VARELA PET, JOSE (Vocal)
AÚPAS: Plataforma en línea para la participación activa en el aula
Autoría
S.C.B.
Grao en Ingeniería Informática (2ªed)
S.C.B.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
16.09.2025 18:30
16.09.2025 18:30
Resumen
Este Trabajo de Fin de Grado presenta el diseño y desarrollo de una aplicación web educativa llamada AÚPAS, acrónimo que surge de la idea de 'aupar' al alumnado, es decir, impulsarlo mediante su participación activa y reflexiva en las clases. La plataforma busca reforzar el papel del estudiante como protagonista del proceso de aprendizaje, ofreciendo herramientas interactivas para el feedback y la autoevaluación, así como funcionalidades de análisis automático de opiniones mediante técnicas de Procesamiento del Lenguaje Natural (PLN). AÚPAS combina un frontend moderno desarrollado con React y Vite, y un backend híbrido compuesto por Django y Strapi. La integración de bibliotecas como spaCy y Hugging Face permite el tratamiento automático de respuestas textuales del alumnado, generando visualizaciones útiles para el profesorado, como nubes de palabras. La aplicación ha sido diseñada y evaluada bajo principios de usabilidad e interacción centrada en la persona usuaria, incorporando escalas tipo Likert, rankings, preguntas de suma de 100 puntos, elección múltiple, preguntas abiertas y actividades anónimas accesibles mediante código QR. Todo el proceso se llevó a cabo partiendo de una situación de inexperiencia inicial, con un enfoque eminentemente práctico e iterativo, superando limitaciones de tiempo y recursos mediante aprendizaje autónomo. Este trabajo representa una primera aportación al desarrollo de herramientas digitales que promueven una educación más participativa, personalizada y basada en datos, abriendo caminos para futuras mejoras y adaptaciones a diferentes contextos docentes.
Este Trabajo de Fin de Grado presenta el diseño y desarrollo de una aplicación web educativa llamada AÚPAS, acrónimo que surge de la idea de 'aupar' al alumnado, es decir, impulsarlo mediante su participación activa y reflexiva en las clases. La plataforma busca reforzar el papel del estudiante como protagonista del proceso de aprendizaje, ofreciendo herramientas interactivas para el feedback y la autoevaluación, así como funcionalidades de análisis automático de opiniones mediante técnicas de Procesamiento del Lenguaje Natural (PLN). AÚPAS combina un frontend moderno desarrollado con React y Vite, y un backend híbrido compuesto por Django y Strapi. La integración de bibliotecas como spaCy y Hugging Face permite el tratamiento automático de respuestas textuales del alumnado, generando visualizaciones útiles para el profesorado, como nubes de palabras. La aplicación ha sido diseñada y evaluada bajo principios de usabilidad e interacción centrada en la persona usuaria, incorporando escalas tipo Likert, rankings, preguntas de suma de 100 puntos, elección múltiple, preguntas abiertas y actividades anónimas accesibles mediante código QR. Todo el proceso se llevó a cabo partiendo de una situación de inexperiencia inicial, con un enfoque eminentemente práctico e iterativo, superando limitaciones de tiempo y recursos mediante aprendizaje autónomo. Este trabajo representa una primera aportación al desarrollo de herramientas digitales que promueven una educación más participativa, personalizada y basada en datos, abriendo caminos para futuras mejoras y adaptaciones a diferentes contextos docentes.
Dirección
CATALA BOLOS, ALEJANDRO (Tutoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotutoría
CATALA BOLOS, ALEJANDRO (Tutoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
RIOS VIQUEIRA, JOSE RAMON (Secretario/a)
FELIX LAMAS, PAULO MANUEL (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
RIOS VIQUEIRA, JOSE RAMON (Secretario/a)
FELIX LAMAS, PAULO MANUEL (Vocal)
Diseño de una planta de captura de dióxido de carbono empleando líquidos iónicos
Autoría
T.C.D.
Grado en Ingeniería Química
T.C.D.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 11:35
16.07.2025 11:35
Resumen
El objeto del presente proyecto es el diseño de una planta para la captura de dióxido de carbono de la corriente de gases emitida por una industria (las instalaciones de MGR Magnesitas de Rubián S.A., en cuyo proceso productivo generan de forma intrínseca CO2). Así, el objetivo de esta planta es la captura de este componente para evitar su emisión a la atmósfera (debido a los problemas de calentamiento global que causa). Para ello, se propone el uso de la tecnología de absorción química empleando un líquido iónico de tipo AHA (aniones heterocíclicos apróticos), concretamente el [P2228][2-CNPyr]. La planta se organiza en una primera sección en la que se acondicionan los gases a tratar y el líquido iónico a utilizar; una segunda en la que tiene lugar la absorción química y, posteriormente, la regeneración del líquido iónico y consecuente aislamiento del CO2; y una tercera en la que se acondiciona este dióxido para disponer de él como producto en fase líquida, y así poder llevar a cabo su venta. El equipo cuyo diseño se realiza en profundidad es la torre de absorción.
El objeto del presente proyecto es el diseño de una planta para la captura de dióxido de carbono de la corriente de gases emitida por una industria (las instalaciones de MGR Magnesitas de Rubián S.A., en cuyo proceso productivo generan de forma intrínseca CO2). Así, el objetivo de esta planta es la captura de este componente para evitar su emisión a la atmósfera (debido a los problemas de calentamiento global que causa). Para ello, se propone el uso de la tecnología de absorción química empleando un líquido iónico de tipo AHA (aniones heterocíclicos apróticos), concretamente el [P2228][2-CNPyr]. La planta se organiza en una primera sección en la que se acondicionan los gases a tratar y el líquido iónico a utilizar; una segunda en la que tiene lugar la absorción química y, posteriormente, la regeneración del líquido iónico y consecuente aislamiento del CO2; y una tercera en la que se acondiciona este dióxido para disponer de él como producto en fase líquida, y así poder llevar a cabo su venta. El equipo cuyo diseño se realiza en profundidad es la torre de absorción.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
Tribunal
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
Planta de producción de ácido fórmico a partir de metanol y monóxido de carbono
Autoría
A.D.P.G.
Grado en Ingeniería Química
A.D.P.G.
Grado en Ingeniería Química
Fecha de la defensa
10.02.2025 09:30
10.02.2025 09:30
Resumen
El proyecto consiste en el diseño de una planta de produccion de 10.000 t/año de acido formico en dos etapas. La primera reacción consiste en la carbonilacion de monoxido de carbono y metanol para dar lugar a formiato de metilo. Ese compuesto se hidroliza posteriormente en un segundo reactor produciendose el acido formico con un 85% de pureza. La encargada de realizar el diseño del reactor de hidrolisis del formiato R-202 en la Sección 200 es Paula Campo Lopez. Por otra parte, el alumno Alejandro de Prado Gonzalez es el responsable del diseño de la columna de destilacion T-302 en la Seccion 300.
El proyecto consiste en el diseño de una planta de produccion de 10.000 t/año de acido formico en dos etapas. La primera reacción consiste en la carbonilacion de monoxido de carbono y metanol para dar lugar a formiato de metilo. Ese compuesto se hidroliza posteriormente en un segundo reactor produciendose el acido formico con un 85% de pureza. La encargada de realizar el diseño del reactor de hidrolisis del formiato R-202 en la Sección 200 es Paula Campo Lopez. Por otra parte, el alumno Alejandro de Prado Gonzalez es el responsable del diseño de la columna de destilacion T-302 en la Seccion 300.
Dirección
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
González Álvarez, Julia (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
González Álvarez, Julia (Vocal)
Estudio y evaluación de algoritmos criptográficos ligeros
Autoría
L.D.C.
Grao en Ingeniería Informática (2ªed)
L.D.C.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
16.09.2025 12:00
16.09.2025 12:00
Resumen
El presente trabajo se centra en un análisis de ASCON, un algoritmo de cifrado ligero seleccionado como estándar por el NIST. Este estudio se fundamenta en una revisión bibliográfica detallada y se estudia experimentalmente mediante la implementación de ASCON y AES en dos plataformas distintas: PYNQ, una plataforma basada en FPGA, y un ordenador convencional. El análisis se enfoca en cinco métricas: velocidad, memoria, recursos de hardware, energía y resistencia a ataques. Estas métricas son esenciales para evaluar la eficacia de los algoritmos de cifrado en entornos con limitaciones de recursos. A través de implementaciones en software y pruebas experimentales, se evalúan métricas clave como el tiempo de ejecución y el consumo de memoria. Este trabajo no solo evalúa ASCON en comparación con AES, sino que también lo contextualiza dentro del panorama más amplio de los algoritmos de cifrado ligeros, destacando sus fortalezas y debilidades en diferentes contextos de implementación.
El presente trabajo se centra en un análisis de ASCON, un algoritmo de cifrado ligero seleccionado como estándar por el NIST. Este estudio se fundamenta en una revisión bibliográfica detallada y se estudia experimentalmente mediante la implementación de ASCON y AES en dos plataformas distintas: PYNQ, una plataforma basada en FPGA, y un ordenador convencional. El análisis se enfoca en cinco métricas: velocidad, memoria, recursos de hardware, energía y resistencia a ataques. Estas métricas son esenciales para evaluar la eficacia de los algoritmos de cifrado en entornos con limitaciones de recursos. A través de implementaciones en software y pruebas experimentales, se evalúan métricas clave como el tiempo de ejecución y el consumo de memoria. Este trabajo no solo evalúa ASCON en comparación con AES, sino que también lo contextualiza dentro del panorama más amplio de los algoritmos de cifrado ligeros, destacando sus fortalezas y debilidades en diferentes contextos de implementación.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
López Vilariño, David Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
López Vilariño, David Cotutoría
Tribunal
CARIÑENA AMIGO, MARIA PURIFICACION (Tutor del alumno)
López Vilariño, David (Tutor del alumno)
CARIÑENA AMIGO, MARIA PURIFICACION (Tutor del alumno)
López Vilariño, David (Tutor del alumno)
FasterThanLight: Métricas agregadas en entornos Agiles con integración con sistemas heterogéneos
Autoría
A.D.S.
Grao en Ingeniería Informática (2ªed)
A.D.S.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 12:00
18.07.2025 12:00
Resumen
Este Trabajo de Fin de Grado, realizado en colaboración con la empresa HP, tiene como objetivo el diseño e implementación de un sistema automatizado para la extracción, procesamiento, almacenamiento y visualización de datos provenientes de las plataformas Jira y Azure DevOps. La motivación principal surge de la necesidad real de HP de consolidar y analizar la información dispersa en ambas herramientas, optimizando así la gestión de proyectos y la toma de decisiones basada en datos. El sistema desarrollado automatiza la obtención de datos relevantes mediante el uso de APIs REST, homogeneiza la información para asegurar su coherencia y la almacena en una base de datos gestionada con Django. Finalmente, los datos se presentan en dashboards interactivos creados con Power BI, facilitando el análisis visual y la extracción de conclusiones prácticas.
Este Trabajo de Fin de Grado, realizado en colaboración con la empresa HP, tiene como objetivo el diseño e implementación de un sistema automatizado para la extracción, procesamiento, almacenamiento y visualización de datos provenientes de las plataformas Jira y Azure DevOps. La motivación principal surge de la necesidad real de HP de consolidar y analizar la información dispersa en ambas herramientas, optimizando así la gestión de proyectos y la toma de decisiones basada en datos. El sistema desarrollado automatiza la obtención de datos relevantes mediante el uso de APIs REST, homogeneiza la información para asegurar su coherencia y la almacena en una base de datos gestionada con Django. Finalmente, los datos se presentan en dashboards interactivos creados con Power BI, facilitando el análisis visual y la extracción de conclusiones prácticas.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Gago Pérez, Alicia Cotutoría
Morán Bautista, Rafael Cotutoría
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Gago Pérez, Alicia Cotutoría
Morán Bautista, Rafael Cotutoría
Tribunal
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Estudio y mejora del rendimiento de modelos Octree para búsqueda de vecinos en nubes de puntos 3D
Autoría
P.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
P.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
18.07.2025 12:30
18.07.2025 12:30
Resumen
En este trabajo se presenta un enfoque para la búsqueda eficiente de vecinos en nubes de puntos 3D, en especial las obtenidas mediante tecnología LiDAR. El método propuesto consiste en un reordenamiento espacial de la nube fundamentado en las Curvas de Llenado del Espacio (SFCs), junto a implementaciones eficientes de búsqueda basadas en Octrees. Se explora cómo las SFCs de Morton y Hilbert pueden optimizar la organización de los datos tridimensionales, mejorando el rendimiento de las consultas de vecindad y la construcción de estructuras sobre la nube. Se proponen y evalúan diversas variantes del Octree, analizando su impacto en la eficiencia y escalabilidad del método propuesto. Los resultados experimentales demuestran que el reordenamiento mediante SFCs y el uso de algoritmos de búsqueda sobre Octrees especializados mejoran significativamente el acceso a datos espaciales, ofreciendo una solución robusta para aplicaciones que requieren procesamiento rápido de grandes conjuntos de puntos 3D. Una parte de este trabajo ha sido presentado en las XXXV Jornadas de Paralelismo de SARTECO.
En este trabajo se presenta un enfoque para la búsqueda eficiente de vecinos en nubes de puntos 3D, en especial las obtenidas mediante tecnología LiDAR. El método propuesto consiste en un reordenamiento espacial de la nube fundamentado en las Curvas de Llenado del Espacio (SFCs), junto a implementaciones eficientes de búsqueda basadas en Octrees. Se explora cómo las SFCs de Morton y Hilbert pueden optimizar la organización de los datos tridimensionales, mejorando el rendimiento de las consultas de vecindad y la construcción de estructuras sobre la nube. Se proponen y evalúan diversas variantes del Octree, analizando su impacto en la eficiencia y escalabilidad del método propuesto. Los resultados experimentales demuestran que el reordenamiento mediante SFCs y el uso de algoritmos de búsqueda sobre Octrees especializados mejoran significativamente el acceso a datos espaciales, ofreciendo una solución robusta para aplicaciones que requieren procesamiento rápido de grandes conjuntos de puntos 3D. Una parte de este trabajo ha sido presentado en las XXXV Jornadas de Paralelismo de SARTECO.
Dirección
Fernández Rivera, Francisco (Tutoría)
YERMO GARCIA, MIGUEL Cotutoría
Fernández Rivera, Francisco (Tutoría)
YERMO GARCIA, MIGUEL Cotutoría
Tribunal
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
La transformada rápida de Fourier
Autoría
P.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
P.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
02.07.2025 11:00
02.07.2025 11:00
Resumen
Desde su redescubrimiento en los años 50, la clase de algoritmos conocida como Transformadas Rápidas de Fourier (FFTs) ha sido fundamental en numerosos campos de las matemáticas, la ciencia y la ingeniería. No es de sorprender que el algoritmo de Cooley-Tukey (conocido comúnmente como la FFT) sea ampliamente reconocido como uno de los algoritmos más importantes del siglo XX. En este trabajo, buscamos ofrecer un enfoque estructurado y bien fundamentado para el desarrollo de FFTs. Comenzamos con los fundamentos matemáticos de los espacios Lp y la transformada continua de Fourier, que proporcionan una nueva forma de ver funciones a través de su espectro de frecuencias. Más adelante, introducimos la Transformada Discreta de Fourier (DFT) como una herramienta numérica que permite aplicar los métodos de Fourier. El cálculo de la DFT para entradas de gran tamaño solo es viable gracias a la FFT. Finalmente, presentamos una breve introducción a dos de los grandes ámbitos de aplicación: el procesamiento de señales digitales y la compresión de datos. En particular, revisamos los filtros de audio digital y examinamos el papel de las FFTs en la compresión de imágenes JPEG.
Desde su redescubrimiento en los años 50, la clase de algoritmos conocida como Transformadas Rápidas de Fourier (FFTs) ha sido fundamental en numerosos campos de las matemáticas, la ciencia y la ingeniería. No es de sorprender que el algoritmo de Cooley-Tukey (conocido comúnmente como la FFT) sea ampliamente reconocido como uno de los algoritmos más importantes del siglo XX. En este trabajo, buscamos ofrecer un enfoque estructurado y bien fundamentado para el desarrollo de FFTs. Comenzamos con los fundamentos matemáticos de los espacios Lp y la transformada continua de Fourier, que proporcionan una nueva forma de ver funciones a través de su espectro de frecuencias. Más adelante, introducimos la Transformada Discreta de Fourier (DFT) como una herramienta numérica que permite aplicar los métodos de Fourier. El cálculo de la DFT para entradas de gran tamaño solo es viable gracias a la FFT. Finalmente, presentamos una breve introducción a dos de los grandes ámbitos de aplicación: el procesamiento de señales digitales y la compresión de datos. En particular, revisamos los filtros de audio digital y examinamos el papel de las FFTs en la compresión de imágenes JPEG.
Dirección
LOPEZ SOMOZA, LUCIA (Tutoría)
LOPEZ SOMOZA, LUCIA (Tutoría)
Tribunal
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
Modificación y Personalización de Arkime para la Detección de Ataques en Red
Autoría
L.D.C.
Grao en Ingeniería Informática (2ªed)
L.D.C.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
Este Trabajo de Fin de Grado presenta el diseño e implementación de un sistema de captura y análisis de tráfico de red orientado a la detección de amenazas en un entorno de red virtualizado. El objetivo principal ha sido evaluar la herramienta Arkime como componente central de detección pasiva y análisis forense, integrándola con tecnologías complementarias para aumentar su eficacia en la identificación de comportamientos maliciosos. El entorno de pruebas ha sido desplegado sobre una infraestructura basada en Proxmox VE, con múltiples máquinas virtuales simulando roles típicos en una red corporativa: nodos vulnerables, atacante, firewall y máquina de análisis. Arkime se ha instalado en una máquina Debian y se ha conectado con un servicio externo de OpenSearch para la indexación y visualización avanzada de los datos capturados. A lo largo del proyecto se han desarrollado distintas reglas personalizadas de detección en formato YAML y YARA, orientadas a identificar vectores de ataque frecuentes como inyecciones SQL, XSS, comandos remotos o el uso de protocolos inseguros. Además, se han diseñado scripts en Python que interactúan con la API de Arkime para detectar patrones de comportamiento no identificables mediante reglas estáticas, como ataques de denegación de servicio, fuerza bruta o accesos desde IPs externas. Las pruebas se han realizado sobre distintos escenarios reales: ataques web utilizando DVWA, explotación de servicios vulnerables, ataques contra Active Directory (GOAD v2) y simulación de intrusiones. Los resultados han demostrado que Arkime, complementado con desarrollos propios, puede utilizarse como base para un sistema de detección pasiva flexible, ampliable y eficaz, incluso en entornos con limitaciones de visibilidad o cifrado. El trabajo concluye con una reflexión sobre las limitaciones actuales del sistema y plantea posibles líneas de mejora, como la integración con motores de correlación, el análisis de tráfico cifrado y la automatización de respuestas ante incidentes.
Este Trabajo de Fin de Grado presenta el diseño e implementación de un sistema de captura y análisis de tráfico de red orientado a la detección de amenazas en un entorno de red virtualizado. El objetivo principal ha sido evaluar la herramienta Arkime como componente central de detección pasiva y análisis forense, integrándola con tecnologías complementarias para aumentar su eficacia en la identificación de comportamientos maliciosos. El entorno de pruebas ha sido desplegado sobre una infraestructura basada en Proxmox VE, con múltiples máquinas virtuales simulando roles típicos en una red corporativa: nodos vulnerables, atacante, firewall y máquina de análisis. Arkime se ha instalado en una máquina Debian y se ha conectado con un servicio externo de OpenSearch para la indexación y visualización avanzada de los datos capturados. A lo largo del proyecto se han desarrollado distintas reglas personalizadas de detección en formato YAML y YARA, orientadas a identificar vectores de ataque frecuentes como inyecciones SQL, XSS, comandos remotos o el uso de protocolos inseguros. Además, se han diseñado scripts en Python que interactúan con la API de Arkime para detectar patrones de comportamiento no identificables mediante reglas estáticas, como ataques de denegación de servicio, fuerza bruta o accesos desde IPs externas. Las pruebas se han realizado sobre distintos escenarios reales: ataques web utilizando DVWA, explotación de servicios vulnerables, ataques contra Active Directory (GOAD v2) y simulación de intrusiones. Los resultados han demostrado que Arkime, complementado con desarrollos propios, puede utilizarse como base para un sistema de detección pasiva flexible, ampliable y eficaz, incluso en entornos con limitaciones de visibilidad o cifrado. El trabajo concluye con una reflexión sobre las limitaciones actuales del sistema y plantea posibles líneas de mejora, como la integración con motores de correlación, el análisis de tráfico cifrado y la automatización de respuestas ante incidentes.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Cernadas Pérez, Guzmán Cotutoría
García Villada, Diego Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Cernadas Pérez, Guzmán Cotutoría
García Villada, Diego Cotutoría
Tribunal
LAMA PENIN, MANUEL (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
VARELA PET, JOSE (Vocal)
LAMA PENIN, MANUEL (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
VARELA PET, JOSE (Vocal)
Generación de bindings MPI para el lenguaje de programación Julia
Autoría
J.E.V.
Grao en Ingeniería Informática (2ªed)
J.E.V.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 13:00
18.07.2025 13:00
Resumen
En el ámbito de la computación de altas prestaciones (HPC), el uso del estándar Message Passing Interface (MPI) es fundamental para el desarrollo de aplicaciones paralelas en sistemas distribuidos. A medida que lenguajes de alto nivel como Julia ganan presencia en este tipo de entornos científicos y técnicos, se hace cada vez más necesaria la existencia de mecanismos robustos que permitan su interoperabilidad con bibliotecas escritas en C, como es el caso de MPI. No obstante, las soluciones existentes presentan importantes limitaciones en términos de portabilidad, mantenimiento y adaptación a nuevas versiones del estándar. En este trabajo, se aborda este problema dentro del marco del proyecto MPI4All, una infraestructura diseñada para generar automáticamente bindings del estándar MPI en distintos lenguajes. Concretamente, el objetivo es desarrollar e integrar un nuevo generador específico para Julia, permitiendo así que MPI4All sea capaz de producir bindings completos y funcionales para este lenguaje. Para ello, se ha aprovechado la arquitectura modular del sistema, que separa el análisis de la API de MPI de la generación de código, lo que ha permitido construir una solución robusta, mantenible y extensible. Para validar la solución, se han implementado varios benchmarks representativos del ámbito HPC. Estas pruebas, ejecutadas en el supercomputador Finisterrae III del CESGA, han demostrado que los bindings generados permiten un uso eficiente y fiable de MPI desde Julia, alcanzando un rendimiento competitivo en comparación con implementaciones en C y otras soluciones existentes en el ecosistema del lenguaje. El resultado es un sistema flexible y portable que facilita la integración de Julia en flujos de trabajo paralelos de alto rendimiento, reduciendo significativamente la complejidad técnica y el esfuerzo necesario para mantener compatibilidad con distintas versiones del estándar MPI.
En el ámbito de la computación de altas prestaciones (HPC), el uso del estándar Message Passing Interface (MPI) es fundamental para el desarrollo de aplicaciones paralelas en sistemas distribuidos. A medida que lenguajes de alto nivel como Julia ganan presencia en este tipo de entornos científicos y técnicos, se hace cada vez más necesaria la existencia de mecanismos robustos que permitan su interoperabilidad con bibliotecas escritas en C, como es el caso de MPI. No obstante, las soluciones existentes presentan importantes limitaciones en términos de portabilidad, mantenimiento y adaptación a nuevas versiones del estándar. En este trabajo, se aborda este problema dentro del marco del proyecto MPI4All, una infraestructura diseñada para generar automáticamente bindings del estándar MPI en distintos lenguajes. Concretamente, el objetivo es desarrollar e integrar un nuevo generador específico para Julia, permitiendo así que MPI4All sea capaz de producir bindings completos y funcionales para este lenguaje. Para ello, se ha aprovechado la arquitectura modular del sistema, que separa el análisis de la API de MPI de la generación de código, lo que ha permitido construir una solución robusta, mantenible y extensible. Para validar la solución, se han implementado varios benchmarks representativos del ámbito HPC. Estas pruebas, ejecutadas en el supercomputador Finisterrae III del CESGA, han demostrado que los bindings generados permiten un uso eficiente y fiable de MPI desde Julia, alcanzando un rendimiento competitivo en comparación con implementaciones en C y otras soluciones existentes en el ecosistema del lenguaje. El resultado es un sistema flexible y portable que facilita la integración de Julia en flujos de trabajo paralelos de alto rendimiento, reduciendo significativamente la complejidad técnica y el esfuerzo necesario para mantener compatibilidad con distintas versiones del estándar MPI.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
Tribunal
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Rediseño de una Planta Fischer Tropsch convencional para combustibles sostenibles
Autoría
J.F.C.
Grado en Ingeniería Química
J.F.C.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:05
16.07.2025 12:05
Resumen
En el presente proyecto se plantean dos modificaciones para el proceso de producción Fischer Tropsch convencional hacia combustibles sostenibles para hacerlo más flexible. Se decidide la producción de combustibles sostenibles para aviación, SAF por su creciente demanda e impacto en huella de carbono de los combustibles convencionales. En el proyecto se incluye el análisis de las alternativas disponibles, la justificación de la producción de SAF y el diseño detallado de dos de las unidades del conjunto, una en la línea de acondicionamiento y otra en la línea de recirculación. Lucía Freire realiza el diseño de la columna de absorción de relleno en la línea de alimentación y Julia Feijoo Cacabelos del diseño del reactor autotérmico de lecho fijo catalítico de la sección de recirculación.
En el presente proyecto se plantean dos modificaciones para el proceso de producción Fischer Tropsch convencional hacia combustibles sostenibles para hacerlo más flexible. Se decidide la producción de combustibles sostenibles para aviación, SAF por su creciente demanda e impacto en huella de carbono de los combustibles convencionales. En el proyecto se incluye el análisis de las alternativas disponibles, la justificación de la producción de SAF y el diseño detallado de dos de las unidades del conjunto, una en la línea de acondicionamiento y otra en la línea de recirculación. Lucía Freire realiza el diseño de la columna de absorción de relleno en la línea de alimentación y Julia Feijoo Cacabelos del diseño del reactor autotérmico de lecho fijo catalítico de la sección de recirculación.
Dirección
VIDAL TATO, MARIA ISABEL (Tutoría)
VIDAL TATO, MARIA ISABEL (Tutoría)
Tribunal
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
Estudio y aplicación de AWS Rekognition para el reconocimiento automático de etiquetas de ropa en imágenes de usuario.
Autoría
E.F.D.S.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
E.F.D.S.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
20.02.2025 10:00
20.02.2025 10:00
Resumen
En la actualidad existen múltiples herramientas para realizar procesos de clasificación de imágenes, tales como las redes neuronales convolucionales y los transformers. Sin embargo, la marca Zara continúa realizando el etiquetado de manera manual, lo que deriva en un conjunto de etiquetas inexactas. Por esta razón, en este trabajo se explora la implementación de métodos automatizados que mejoren los resultados obtenidos de forma manual. El propósito de esta investigación es evaluar y analizar la eficacia del servicio de AWS Rekognition Custom Labels para etiquetar prendas de vestir. La estrategia adoptada pretende identificar los límites del servicio para la referida tarea a través de un análisis de la viabilidad del conjunto de datos origen. El desarrollo del proyecto comienza con un análisis preliminar del conjunto de datos para determinar su idoneidad para el entrenamiento de modelos. Posteriormente, se realiza un examen de las restricciones del servicio, considerando cinco variables principales: el número total de imágenes, la interrelación entre las etiquetas, el tipo de etiqueta, la cantidad de imágenes disponibles para cada etiqueta y la influencia de cada etiqueta sobre las demás. Para lograrlo, se utilizarán varios recursos como el propio servicio, un conjunto de datos inicial y una API REST desarrollada para este proyecto. Entre los principales hallazgos se destacan la baja relevancia del número total de imágenes, así como las limitaciones asociadas al tipo de etiqueta y la importancia de que las etiquetas no estén excesivamente relacionadas.
En la actualidad existen múltiples herramientas para realizar procesos de clasificación de imágenes, tales como las redes neuronales convolucionales y los transformers. Sin embargo, la marca Zara continúa realizando el etiquetado de manera manual, lo que deriva en un conjunto de etiquetas inexactas. Por esta razón, en este trabajo se explora la implementación de métodos automatizados que mejoren los resultados obtenidos de forma manual. El propósito de esta investigación es evaluar y analizar la eficacia del servicio de AWS Rekognition Custom Labels para etiquetar prendas de vestir. La estrategia adoptada pretende identificar los límites del servicio para la referida tarea a través de un análisis de la viabilidad del conjunto de datos origen. El desarrollo del proyecto comienza con un análisis preliminar del conjunto de datos para determinar su idoneidad para el entrenamiento de modelos. Posteriormente, se realiza un examen de las restricciones del servicio, considerando cinco variables principales: el número total de imágenes, la interrelación entre las etiquetas, el tipo de etiqueta, la cantidad de imágenes disponibles para cada etiqueta y la influencia de cada etiqueta sobre las demás. Para lograrlo, se utilizarán varios recursos como el propio servicio, un conjunto de datos inicial y una API REST desarrollada para este proyecto. Entre los principales hallazgos se destacan la baja relevancia del número total de imágenes, así como las limitaciones asociadas al tipo de etiqueta y la importancia de que las etiquetas no estén excesivamente relacionadas.
Dirección
Carreira Nouche, María José (Tutoría)
Rodríguez Díez, Helio Cotutoría
Carreira Nouche, María José (Tutoría)
Rodríguez Díez, Helio Cotutoría
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
QUERENTES HERMIDA, RAQUEL ESTHER (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
QUERENTES HERMIDA, RAQUEL ESTHER (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Metaheurísticas del TSP: Un recorrido didáctico y computacional.
Autoría
E.F.D.S.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
E.F.D.S.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
13.02.2025 12:45
13.02.2025 12:45
Resumen
Durante la historia de la computación, los problemas de rutas han suscitado un gran interés debido a sus múltiples aplicaciones en diferentes campos, como son la planificación y la logística. Este trabajo se centra en el problema del viajante de comercio o TSP. En concreto, en las técnicas para resolverlo de forma aproximada en un tiempo polinómico, las metaheurísticas. El objetivo principal de este estudio es proporcionar una guía para comprender cuatro de las más importantes, tanto en el ámbito teórico como en el computacional. Para ello, se realizó una revisión bibliográfica, encontrando información relevante de ellas y sintetizándola. Estas son: la búsqueda tabú, el templado simulado, el algoritmo genético y la optimización de la colonia de hormigas. Para la parte computacional, se realizaron implementaciones en R de todas las metaheurísticas y se evaluaron con distintas instancias de la librería TSPLIB. Como resultado, se obtuvo que no hay una metaheurística mejor que el resto en todos los aspectos. La búsqueda tabú y la optimización de la colonia de hormigas obtienen resultados muy prometedores en términos de distancia al coste óptimo; sin embargo, son temporalmente más costosas que las otras dos. El templado simulado obtiene unos resultados algo peores que los anteriores, pero de forma muy rápida. Por último, el algoritmo genético obtiene muy malos resultados en un tiempo, relativamente, aceptable. En conclusión, este trabajo sirve como guía a las personas que quieran comprender estos conceptos.
Durante la historia de la computación, los problemas de rutas han suscitado un gran interés debido a sus múltiples aplicaciones en diferentes campos, como son la planificación y la logística. Este trabajo se centra en el problema del viajante de comercio o TSP. En concreto, en las técnicas para resolverlo de forma aproximada en un tiempo polinómico, las metaheurísticas. El objetivo principal de este estudio es proporcionar una guía para comprender cuatro de las más importantes, tanto en el ámbito teórico como en el computacional. Para ello, se realizó una revisión bibliográfica, encontrando información relevante de ellas y sintetizándola. Estas son: la búsqueda tabú, el templado simulado, el algoritmo genético y la optimización de la colonia de hormigas. Para la parte computacional, se realizaron implementaciones en R de todas las metaheurísticas y se evaluaron con distintas instancias de la librería TSPLIB. Como resultado, se obtuvo que no hay una metaheurística mejor que el resto en todos los aspectos. La búsqueda tabú y la optimización de la colonia de hormigas obtienen resultados muy prometedores en términos de distancia al coste óptimo; sin embargo, son temporalmente más costosas que las otras dos. El templado simulado obtiene unos resultados algo peores que los anteriores, pero de forma muy rápida. Por último, el algoritmo genético obtiene muy malos resultados en un tiempo, relativamente, aceptable. En conclusión, este trabajo sirve como guía a las personas que quieran comprender estos conceptos.
Dirección
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
Tribunal
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
Empoderamiento del Paciente Anticoagulado con Antagonistas de Vit K mediante el uso de una App Móvil
Autoría
P.F.M.
Grao en Ingeniería Informática (2ªed)
P.F.M.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
15.09.2025 12:00
15.09.2025 12:00
Resumen
Los tratamientos crónicos, especialmente en pacientes de edad avanzada, presentan numerosos desafíos para su correcta gestión. En el caso de los pacientes anticoagulados con antagonistas de la vitamina K (como Sintrom), la falta de conocimiento sobre el tratamiento, sus interacciones y la baja adherencia terapéutica son factores de riesgo significativos. Ante la necesidad de una herramienta digital accesible y centrada en el usuario que refuerce su autonomía y seguridad, se propone el desarrollo de la aplicación móvil objeto de este trabajo. En este Trabajo de Fin de Grado se presenta el diseño y desarrollo de una solución móvil cuyo objetivo principal es mejorar el conocimiento y la adherencia al tratamiento en pacientes anticoagulados. La aplicación se centra en proporcionar información validada y de fácil acceso sobre la terapia, gestionar las interacciones farmacológicas y alimentarias, y aumentar la seguridad del paciente a través de la educación y la autogestión. Para alcanzar estos objetivos, la solución integra diversas funcionalidades clave: un módulo de contenido educativo sobre el tratamiento y los factores que afectan el INR, una base de datos consultable sobre interacciones con alimentos y otros fármacos, un sistema de cuestionarios interactivos para autoevaluar el conocimiento adquirido y un gestor de medicación con recordatorios personalizables. Adicionalmente, se incluye un Modo Cuidador que permite a familiares o personas de apoyo gestionar el tratamiento de forma segura y diferenciada. Se presenta una arquitectura de aplicación móvil, desarrollada con tecnología React Native para garantizar la compatibilidad multiplataforma (iOS y Android). La solución emplea una base de datos local SQLite y el almacenamiento interno del dispositivo, lo que permite su funcionamiento sin conexión a Internet y garantiza la privacidad al no recopilar datos clínicos sensibles, cumpliendo con la normativa RGPD. El diseño de la interfaz ha sido concebido para ser accesible, con elementos de navegación claros y tipografías de gran tamaño para facilitar su uso por parte de personas mayores. Finalmente, en esta memoria se documenta todo el proceso de creación del software, desde la fase de análisis de requisitos y la planificación, pasando por el diseño de la arquitectura, el desarrollo de los diferentes módulos y las pruebas realizadas hasta la obtención del producto final.
Los tratamientos crónicos, especialmente en pacientes de edad avanzada, presentan numerosos desafíos para su correcta gestión. En el caso de los pacientes anticoagulados con antagonistas de la vitamina K (como Sintrom), la falta de conocimiento sobre el tratamiento, sus interacciones y la baja adherencia terapéutica son factores de riesgo significativos. Ante la necesidad de una herramienta digital accesible y centrada en el usuario que refuerce su autonomía y seguridad, se propone el desarrollo de la aplicación móvil objeto de este trabajo. En este Trabajo de Fin de Grado se presenta el diseño y desarrollo de una solución móvil cuyo objetivo principal es mejorar el conocimiento y la adherencia al tratamiento en pacientes anticoagulados. La aplicación se centra en proporcionar información validada y de fácil acceso sobre la terapia, gestionar las interacciones farmacológicas y alimentarias, y aumentar la seguridad del paciente a través de la educación y la autogestión. Para alcanzar estos objetivos, la solución integra diversas funcionalidades clave: un módulo de contenido educativo sobre el tratamiento y los factores que afectan el INR, una base de datos consultable sobre interacciones con alimentos y otros fármacos, un sistema de cuestionarios interactivos para autoevaluar el conocimiento adquirido y un gestor de medicación con recordatorios personalizables. Adicionalmente, se incluye un Modo Cuidador que permite a familiares o personas de apoyo gestionar el tratamiento de forma segura y diferenciada. Se presenta una arquitectura de aplicación móvil, desarrollada con tecnología React Native para garantizar la compatibilidad multiplataforma (iOS y Android). La solución emplea una base de datos local SQLite y el almacenamiento interno del dispositivo, lo que permite su funcionamiento sin conexión a Internet y garantiza la privacidad al no recopilar datos clínicos sensibles, cumpliendo con la normativa RGPD. El diseño de la interfaz ha sido concebido para ser accesible, con elementos de navegación claros y tipografías de gran tamaño para facilitar su uso por parte de personas mayores. Finalmente, en esta memoria se documenta todo el proceso de creación del software, desde la fase de análisis de requisitos y la planificación, pasando por el diseño de la arquitectura, el desarrollo de los diferentes módulos y las pruebas realizadas hasta la obtención del producto final.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
VAZQUEZ LAGO, JUAN MANUEL Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
VAZQUEZ LAGO, JUAN MANUEL Cotutoría
Tribunal
Barro Ameneiro, Senén (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
López Vilariño, David (Vocal)
Barro Ameneiro, Senén (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
López Vilariño, David (Vocal)
Planta de Producción de Hidrógeno Dorado a partir de lodos de depuradora.
Autoría
C.F.N.
Grado en Ingeniería Química
C.F.N.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:45
16.07.2025 12:45
Resumen
El presente Trabajo Fin de Grado tiene como objetivo el diseño de una planta de producción de hidrógeno con captura de dióxido de carbono a partir de biometano, denominado hidrógeno dorado. El biometano se generará en la propia planta mediante la disgestión anaerobiade lodos de estaciones depuradoras, EDAR, urbanas. La capacidad de producción de la planta es de 3.150 toneladas de H2, con un 99,99% de pureza, al año. De acuerdo con las normativas y manuales técnicos pertinentes, se realiza el diseño riguroso del digestor anaerobio, el reactor de reformado catalítico y la torre de absorción de dióxido de carbono. La propuesta de valor de este proyecto residen en proporcionar una alternativa para cerrar el ciclo del carbono y aprovechar residuos orgánicos como materia prima para el proceso de producción de un producto de interés, el hidrógeno en este caso.
El presente Trabajo Fin de Grado tiene como objetivo el diseño de una planta de producción de hidrógeno con captura de dióxido de carbono a partir de biometano, denominado hidrógeno dorado. El biometano se generará en la propia planta mediante la disgestión anaerobiade lodos de estaciones depuradoras, EDAR, urbanas. La capacidad de producción de la planta es de 3.150 toneladas de H2, con un 99,99% de pureza, al año. De acuerdo con las normativas y manuales técnicos pertinentes, se realiza el diseño riguroso del digestor anaerobio, el reactor de reformado catalítico y la torre de absorción de dióxido de carbono. La propuesta de valor de este proyecto residen en proporcionar una alternativa para cerrar el ciclo del carbono y aprovechar residuos orgánicos como materia prima para el proceso de producción de un producto de interés, el hidrógeno en este caso.
Dirección
SANCHEZ FERNANDEZ, ADRIAN (Tutoría)
SANCHEZ FERNANDEZ, ADRIAN (Tutoría)
Tribunal
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
Algoritmos meméticos para el MC-TTRP
Autoría
N.F.O.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
N.F.O.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
03.07.2025 10:40
03.07.2025 10:40
Resumen
Una metaheurística es un procedimiento de búsqueda de alto nivel diseñado para guiar heurísticas subordinadas con el objetivo de explorar eficazmente espacios de soluciones en problemas de optimización complejos, especialmente aquellos donde los métodos exactos resultan computacionalmente inviables. Estas técnicas no garantizan encontrar la solución óptima, pero buscan obtener soluciones de buena calidad en tiempos razonables, lo que las hace especialmente útiles en entornos reales. Dentro de este marco, destacan los algoritmos evolutivos, que se inspiran en principios de la evolución biológica para explorar espacios de búsqueda complejos. Entre ellos, los algoritmos genéticos y meméticos son especialmente relevantes. Los algoritmos genéticos emplean mecanismos como la selección, el cruce y la mutación para generar nuevas soluciones, mientras que los algoritmos meméticos combinan esta exploración global con estrategias de mejora local para optimizar aún más cada solución. Estos métodos han sido aplicados con éxito en la resolución de diversos problemas complejos, entre ellos los problemas de rutas. Estos consisten en encontrar el conjunto óptimo de caminos que debe seguir una flota de vehículos para atender a un conjunto de clientes. Una generalización de los problemas de rutas es el problema de rutas de camiones y tráileres multicompartimento (MC-TTRP). Este problema considera dos tipos de vehículos compartimentados, camiones y tráileres que deben ir remolcados, y dos tipos de clientes con diferentes restricciones de servicio y que requieren múltiples tipos de carga, lo que da lugar a la existencia de múltiples tipos de rutas para optimizar la distribución. En este trabajo se han explorado los algoritmos genéticos y meméticos, estudiando cómo funcionan los operadores utilizados y cómo obtener un algoritmo memético que es capaz de abordar un problema complejo. También se han estudiado los problemas de rutas, con un mayor énfasis en el MC-TTRP, ofreciendo un modelo de programación lineal y entera mixta que permita modelar el problema de manera matemática. Utilizando estos conocimientos se ha implementado un algoritmo en C++ que facilita la obtención de las rutas óptimas para cualquier instancia del MC-TTRP.
Una metaheurística es un procedimiento de búsqueda de alto nivel diseñado para guiar heurísticas subordinadas con el objetivo de explorar eficazmente espacios de soluciones en problemas de optimización complejos, especialmente aquellos donde los métodos exactos resultan computacionalmente inviables. Estas técnicas no garantizan encontrar la solución óptima, pero buscan obtener soluciones de buena calidad en tiempos razonables, lo que las hace especialmente útiles en entornos reales. Dentro de este marco, destacan los algoritmos evolutivos, que se inspiran en principios de la evolución biológica para explorar espacios de búsqueda complejos. Entre ellos, los algoritmos genéticos y meméticos son especialmente relevantes. Los algoritmos genéticos emplean mecanismos como la selección, el cruce y la mutación para generar nuevas soluciones, mientras que los algoritmos meméticos combinan esta exploración global con estrategias de mejora local para optimizar aún más cada solución. Estos métodos han sido aplicados con éxito en la resolución de diversos problemas complejos, entre ellos los problemas de rutas. Estos consisten en encontrar el conjunto óptimo de caminos que debe seguir una flota de vehículos para atender a un conjunto de clientes. Una generalización de los problemas de rutas es el problema de rutas de camiones y tráileres multicompartimento (MC-TTRP). Este problema considera dos tipos de vehículos compartimentados, camiones y tráileres que deben ir remolcados, y dos tipos de clientes con diferentes restricciones de servicio y que requieren múltiples tipos de carga, lo que da lugar a la existencia de múltiples tipos de rutas para optimizar la distribución. En este trabajo se han explorado los algoritmos genéticos y meméticos, estudiando cómo funcionan los operadores utilizados y cómo obtener un algoritmo memético que es capaz de abordar un problema complejo. También se han estudiado los problemas de rutas, con un mayor énfasis en el MC-TTRP, ofreciendo un modelo de programación lineal y entera mixta que permita modelar el problema de manera matemática. Utilizando estos conocimientos se ha implementado un algoritmo en C++ que facilita la obtención de las rutas óptimas para cualquier instancia del MC-TTRP.
Dirección
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Reconstrucción de árboles filogenéticos mediante computación cuántica
Autoría
N.F.O.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
N.F.O.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
20.02.2025 10:30
20.02.2025 10:30
Resumen
La computación cuántica es un campo de la informática que utiliza principios de la física cuántica para la resolución de problemas de manera más eficiente que la computación clásica, especialmente en áreas como la optimización. Por otro lado, la bioinformática es un campo que combina elementos de la biología y la informática para analizar grandes conjuntos de datos biológicos. Un ejemplo destacado de esta disciplina es la genómica, que incluye la generación de árboles filogenéticos, herramientas clave para entender la evolución biológica de especies. La reconstrucción de estos árboles representa un problema computacional muy complicado de resolver por su complejidad. Este trabajo explora si la computación cuántica puede ofrecer soluciones efectivas para abordar dicho problema. En este contexto, se ha estudiado el funcionamiento de la computación cuántica y de los algoritmos cuánticos de optimización, haciendo énfasis en Quantum annealing y en el algoritmo cuántico de optimización aproximada (QAOA). Basándose en estos enfoques, se ha desarrollado un algoritmo cuántico capaz de reconstruir filogenias mediante el corte de grafos. El algoritmo propuesto fue implementado y probado en hardware cuántico disponible actualmente, obteniendo resultados satisfactorios que demuestran su potencial para resolver problemas complejos en el área de la bioinformática.
La computación cuántica es un campo de la informática que utiliza principios de la física cuántica para la resolución de problemas de manera más eficiente que la computación clásica, especialmente en áreas como la optimización. Por otro lado, la bioinformática es un campo que combina elementos de la biología y la informática para analizar grandes conjuntos de datos biológicos. Un ejemplo destacado de esta disciplina es la genómica, que incluye la generación de árboles filogenéticos, herramientas clave para entender la evolución biológica de especies. La reconstrucción de estos árboles representa un problema computacional muy complicado de resolver por su complejidad. Este trabajo explora si la computación cuántica puede ofrecer soluciones efectivas para abordar dicho problema. En este contexto, se ha estudiado el funcionamiento de la computación cuántica y de los algoritmos cuánticos de optimización, haciendo énfasis en Quantum annealing y en el algoritmo cuántico de optimización aproximada (QAOA). Basándose en estos enfoques, se ha desarrollado un algoritmo cuántico capaz de reconstruir filogenias mediante el corte de grafos. El algoritmo propuesto fue implementado y probado en hardware cuántico disponible actualmente, obteniendo resultados satisfactorios que demuestran su potencial para resolver problemas complejos en el área de la bioinformática.
Dirección
Fernández Pena, Anselmo Tomás (Tutoría)
PICHEL CAMPOS, JUAN CARLOS Cotutoría
Fernández Pena, Anselmo Tomás (Tutoría)
PICHEL CAMPOS, JUAN CARLOS Cotutoría
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
QUERENTES HERMIDA, RAQUEL ESTHER (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
QUERENTES HERMIDA, RAQUEL ESTHER (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Aspectos matemáticos del Concept Drift
Autoría
F.F.M.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
F.F.M.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
03.07.2025 11:25
03.07.2025 11:25
Resumen
En este trabajo se aborda el fenómeno del Concept Drift, que se manifiesta en entornos dinámicos y no estacionarios, donde las relaciones estadísticas entre las variables del modelo varían con el tiempo, afectando al rendimiento de los algoritmos de aprendizaje automático. Como objetivo principal, se desarrolla una modificación del algoritmo KSWIN, perteneciente a la librería RiverML, basado en el contraste de Kolmogorov-Smirnov. La propuesta incorpora contrastes múltiples y la corrección de Benjamini-Hochberg, con el fin de mejorar la robustez estadística del test y reducir la tasa de falsos positivos. Se proponen diversas configuraciones del detector, orientadas tanto a la monitorización de datos procedentes de distribuciones continuas como a la evaluación de métricas de rendimiento. Para este último enfoque, se introduce un mecanismo para la identificación del tipo de drift, aplicando técnicas de inferencia no paramétrica. En el primer caso, se diseña un entorno de pruebas con datos generados artificialmente. En el segundo, se integra la comparativa desarrollada en un Trabajo de Fin de Grado del Grado en Ingeniería Informática, centrado en la evaluación de múltiples detectores presentes en la literatura. Los experimentos realizados muestran una reducción significativa en la tasa de falsos positivos sin comprometer la potencia del contraste, mejorando la eficacia del algoritmo original y otros detectores clásicos. Además, la capacidad de identificación del tipo de drift aporta un valor añadido a una de las configuraciones propuestas.
En este trabajo se aborda el fenómeno del Concept Drift, que se manifiesta en entornos dinámicos y no estacionarios, donde las relaciones estadísticas entre las variables del modelo varían con el tiempo, afectando al rendimiento de los algoritmos de aprendizaje automático. Como objetivo principal, se desarrolla una modificación del algoritmo KSWIN, perteneciente a la librería RiverML, basado en el contraste de Kolmogorov-Smirnov. La propuesta incorpora contrastes múltiples y la corrección de Benjamini-Hochberg, con el fin de mejorar la robustez estadística del test y reducir la tasa de falsos positivos. Se proponen diversas configuraciones del detector, orientadas tanto a la monitorización de datos procedentes de distribuciones continuas como a la evaluación de métricas de rendimiento. Para este último enfoque, se introduce un mecanismo para la identificación del tipo de drift, aplicando técnicas de inferencia no paramétrica. En el primer caso, se diseña un entorno de pruebas con datos generados artificialmente. En el segundo, se integra la comparativa desarrollada en un Trabajo de Fin de Grado del Grado en Ingeniería Informática, centrado en la evaluación de múltiples detectores presentes en la literatura. Los experimentos realizados muestran una reducción significativa en la tasa de falsos positivos sin comprometer la potencia del contraste, mejorando la eficacia del algoritmo original y otros detectores clásicos. Además, la capacidad de identificación del tipo de drift aporta un valor añadido a una de las configuraciones propuestas.
Dirección
CRUJEIRAS CASAIS, ROSA MARÍA (Tutoría)
CRUJEIRAS CASAIS, ROSA MARÍA (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Análisis y comparativa en técnicas de detección e tratamiento del Concept Drift
Autoría
F.F.M.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
F.F.M.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
En este trabajo se comparan distintas técnicas para la detección y adaptación del Concept Drift, un fenómeno que se manifiesta en entornos dinámicos y no estacionarios, donde las relaciones estadísticas entre las variables del modelo cambian con el tiempo, afectando en algunos casos a su rendimiento. El objetivo principal consiste en evaluar diversos detectores de drift presentes en la Literatura, junto con el análisis de diversas técnicas de adaptación tras la detección. El estudio se desarrolla sobre un entorno experimental con datasets artificiales que simulan distintos tipos de drift, aplicados sobre un modelo de clasificación. Se analizan algoritmos clásicos de la librería RiverML, en escenarios con y sin información previa del entorno, aplicando en el primer caso una optimización de hiperparámetros mediante un método novedoso basado en Random Search. Sobre KSWIN, uno de los algoritmos evaluados, se incorpora modificación desarrollada de forma complementaria en el Trabajo Fin de Grado en Matemáticas, que introduce técnicas estadísticas como contrastes múltiples y la corrección de Benjamini Hochberg para mejorar el proceso de detección, así como un sistema de identificación del tipo de drift mediante inferencia no paramétrica, considerado innovador en la Literatura. Los resultados ponen de manifiesto las fortalezas y limitaciones tanto de los detectores como de las estrategias de adaptación analizadas. Si bien algunos algoritmos, como HDDMW, muestran un buen rendimiento general, la elección del detector más adecuado depende en gran medida del caso de uso y del tipo de drift presente. Asimismo, la adaptación basada en mini batches ofrece un desempeño sólido frente al reentrenamiento periódico. Además, la modificación propuesta sobre KSWIN mejora al resto de detectores en cuanto a equilibrio entre falsos positivos y falsos negativos durante el proceso de detección, y sienta una base sólida en el método de identificación del tipo de drift.
En este trabajo se comparan distintas técnicas para la detección y adaptación del Concept Drift, un fenómeno que se manifiesta en entornos dinámicos y no estacionarios, donde las relaciones estadísticas entre las variables del modelo cambian con el tiempo, afectando en algunos casos a su rendimiento. El objetivo principal consiste en evaluar diversos detectores de drift presentes en la Literatura, junto con el análisis de diversas técnicas de adaptación tras la detección. El estudio se desarrolla sobre un entorno experimental con datasets artificiales que simulan distintos tipos de drift, aplicados sobre un modelo de clasificación. Se analizan algoritmos clásicos de la librería RiverML, en escenarios con y sin información previa del entorno, aplicando en el primer caso una optimización de hiperparámetros mediante un método novedoso basado en Random Search. Sobre KSWIN, uno de los algoritmos evaluados, se incorpora modificación desarrollada de forma complementaria en el Trabajo Fin de Grado en Matemáticas, que introduce técnicas estadísticas como contrastes múltiples y la corrección de Benjamini Hochberg para mejorar el proceso de detección, así como un sistema de identificación del tipo de drift mediante inferencia no paramétrica, considerado innovador en la Literatura. Los resultados ponen de manifiesto las fortalezas y limitaciones tanto de los detectores como de las estrategias de adaptación analizadas. Si bien algunos algoritmos, como HDDMW, muestran un buen rendimiento general, la elección del detector más adecuado depende en gran medida del caso de uso y del tipo de drift presente. Asimismo, la adaptación basada en mini batches ofrece un desempeño sólido frente al reentrenamiento periódico. Además, la modificación propuesta sobre KSWIN mejora al resto de detectores en cuanto a equilibrio entre falsos positivos y falsos negativos durante el proceso de detección, y sienta una base sólida en el método de identificación del tipo de drift.
Dirección
MERA PEREZ, DAVID (Tutoría)
MERA PEREZ, DAVID (Tutoría)
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
Rediseño de una planta Fischer Tropsch convencional para combustibles sostenibles
Autoría
L.F.M.
Grado en Ingeniería Química
L.F.M.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:05
16.07.2025 12:05
Resumen
En el presente proyecto se plantean dos modificaciones para el proceso de producción Fischer Tropsch convencional hacia combustibles sostenibles para hacerlo más flexible. Se decidide la producción de combustibles sostenibles para aviación, SAF por su creciente demanda e impacto en huella de carbono de los combustibles convencionales. En el proyecto se incluye el análisis de las alternativas disponibles, la justificación de la producción de SAF y el diseño detallado de dos de las unidades del conjunto, una en la línea de acondicionamiento y otra en la línea de recirculación. Lucía Freire realiza el diseño de la columna de absorción de relleno en la línea de alimentación y Julia Feijoo Cacabelos del diseño del reactor autotérmico de lecho fijo catalítico de la sección de recirculación.
En el presente proyecto se plantean dos modificaciones para el proceso de producción Fischer Tropsch convencional hacia combustibles sostenibles para hacerlo más flexible. Se decidide la producción de combustibles sostenibles para aviación, SAF por su creciente demanda e impacto en huella de carbono de los combustibles convencionales. En el proyecto se incluye el análisis de las alternativas disponibles, la justificación de la producción de SAF y el diseño detallado de dos de las unidades del conjunto, una en la línea de acondicionamiento y otra en la línea de recirculación. Lucía Freire realiza el diseño de la columna de absorción de relleno en la línea de alimentación y Julia Feijoo Cacabelos del diseño del reactor autotérmico de lecho fijo catalítico de la sección de recirculación.
Dirección
VIDAL TATO, MARIA ISABEL (Tutoría)
VIDAL TATO, MARIA ISABEL (Tutoría)
Tribunal
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
Creación de una apliación web para un club de baloncesto
Autoría
A.G.G.
Grao en Ingeniería Informática (2ªed)
A.G.G.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 12:00
17.07.2025 12:00
Resumen
Este trabajo tiene como objetivo el diseño y desarrollo de una aplicación web orientada a la gestión interna de un club de baloncesto así como a su proyección pública. La plataforma permite tanto la gestión de jugadores, partidos, convocatorias, categorías, temporadas y los períodos de inscripción, como la consulta de información relevante del club a través de la web. La aplicación se estructura en dos partes: un backend desarrollado en Java con Spring Boot que será el encargado de gestionar la lógica de negocio, y un frontend construido en Vue.js que ofrece a los usuarios una interfaz visual y responsiva para interactuar con el sistema. Durante el desarrollo del proyecto se asumieron, entre otros, los roles de gestor de proyectos, desarrollador, analista o devOps. El resultado final es una herramienta a medida, funcional y desplegable que se adapta a las necesidades de un cliente real.
Este trabajo tiene como objetivo el diseño y desarrollo de una aplicación web orientada a la gestión interna de un club de baloncesto así como a su proyección pública. La plataforma permite tanto la gestión de jugadores, partidos, convocatorias, categorías, temporadas y los períodos de inscripción, como la consulta de información relevante del club a través de la web. La aplicación se estructura en dos partes: un backend desarrollado en Java con Spring Boot que será el encargado de gestionar la lógica de negocio, y un frontend construido en Vue.js que ofrece a los usuarios una interfaz visual y responsiva para interactuar con el sistema. Durante el desarrollo del proyecto se asumieron, entre otros, los roles de gestor de proyectos, desarrollador, analista o devOps. El resultado final es una herramienta a medida, funcional y desplegable que se adapta a las necesidades de un cliente real.
Dirección
VARELA PET, JOSE (Tutoría)
VARELA PET, JOSE (Tutoría)
Tribunal
VARELA PET, JOSE (Tutor del alumno)
VARELA PET, JOSE (Tutor del alumno)
Planta de producción de detergente tipo LABS
Autoría
A.G.V.
Grado en Ingeniería Química
A.G.V.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 09:30
16.07.2025 09:30
Resumen
Diseño de una planta de producción de detergente tipo LABS a partir de benceno y dodeceno con una capacidad de producción de 120.000 toneladas anuales. Este proceso cuenta con tres reacciones, alquilación, sulfonación y neutralización. Además, se lleva a cabo el acondicionamiento previo a las entradas de los reactores y las respectivas operaciones de separación, El reactor de alquilación es diseñado por Lucía Pardilla Fraguas, la segunda columna de destilación por Noelia López García y el reactor de sulfonación por Antía Gándara Vieito.
Diseño de una planta de producción de detergente tipo LABS a partir de benceno y dodeceno con una capacidad de producción de 120.000 toneladas anuales. Este proceso cuenta con tres reacciones, alquilación, sulfonación y neutralización. Además, se lleva a cabo el acondicionamiento previo a las entradas de los reactores y las respectivas operaciones de separación, El reactor de alquilación es diseñado por Lucía Pardilla Fraguas, la segunda columna de destilación por Noelia López García y el reactor de sulfonación por Antía Gándara Vieito.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
Análisis de la seguridad y búsqueda de vulnerabilidades en dispositivos IoT
Autoría
A.G.F.
Grao en Ingeniería Informática (2ªed)
A.G.F.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
El crecimiento acelerado del ecosistema IoT ha traído consigo un aumento exponencial de vulnerabilidades, muchas de las cuales están asociadas al firmware, un componente clave pero frecuentemente descuidado en términos de protección. La falta de metodologías estructuradas y de bajo coste para abordar su análisis limita la capacidad de detectar y mitigar fallos en estos dispositivos, tanto en contextos educativos como profesionales. Ante esta necesidad, el trabajo desarrolla una metodología original orientada a entornos domésticos, aplicable sin necesidad de equipamiento especializado ni conocimientos avanzados en electrónica. El enfoque propuesto se basa en el uso de herramientas de código abierto y hardware económico, lo que permite su adopción en contextos formativos, autodidactas o de auditoría ligera. La metodología está estructurada en cinco fases encadenadas: recopilación de información, exploración de interfaces físicas, extracción del firmware, análisis estático y validación de hallazgos. Cada etapa cuenta con objetivos, procedimientos claros y criterios de verificación. El diseño de esta metodología se centra en combinar eficacia técnica con realismo operativo. Se parte de supuestos verosímiles, como la ausencia de documentación oficial o la presencia de protecciones físicas moderadas. Además, se da prioridad a técnicas no invasivas, fomentando una aproximación responsable y segura al análisis de dispositivos reales. El trabajo valida la metodología propuesta mediante su aplicación sobre un caso práctico, que permite comprobar la viabilidad del enfoque, identificar vulnerabilidades reales y documentar el proceso de análisis de forma reproducible. Los resultados obtenidos evidencian que, incluso con recursos limitados, es posible llevar a cabo investigaciones con un nivel técnico significativo y obtener conclusiones relevantes en materia de seguridad embebida.
El crecimiento acelerado del ecosistema IoT ha traído consigo un aumento exponencial de vulnerabilidades, muchas de las cuales están asociadas al firmware, un componente clave pero frecuentemente descuidado en términos de protección. La falta de metodologías estructuradas y de bajo coste para abordar su análisis limita la capacidad de detectar y mitigar fallos en estos dispositivos, tanto en contextos educativos como profesionales. Ante esta necesidad, el trabajo desarrolla una metodología original orientada a entornos domésticos, aplicable sin necesidad de equipamiento especializado ni conocimientos avanzados en electrónica. El enfoque propuesto se basa en el uso de herramientas de código abierto y hardware económico, lo que permite su adopción en contextos formativos, autodidactas o de auditoría ligera. La metodología está estructurada en cinco fases encadenadas: recopilación de información, exploración de interfaces físicas, extracción del firmware, análisis estático y validación de hallazgos. Cada etapa cuenta con objetivos, procedimientos claros y criterios de verificación. El diseño de esta metodología se centra en combinar eficacia técnica con realismo operativo. Se parte de supuestos verosímiles, como la ausencia de documentación oficial o la presencia de protecciones físicas moderadas. Además, se da prioridad a técnicas no invasivas, fomentando una aproximación responsable y segura al análisis de dispositivos reales. El trabajo valida la metodología propuesta mediante su aplicación sobre un caso práctico, que permite comprobar la viabilidad del enfoque, identificar vulnerabilidades reales y documentar el proceso de análisis de forma reproducible. Los resultados obtenidos evidencian que, incluso con recursos limitados, es posible llevar a cabo investigaciones con un nivel técnico significativo y obtener conclusiones relevantes en materia de seguridad embebida.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
IA embebida para clasificación de imágenes multiespectrales: un enfoque optimizado con Raspberry Pi 5 y Hailo 8L
Autoría
P.G.F.
Grao en Ingeniería Informática (2ªed)
P.G.F.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este trabajo busca acercar la clasificación de imágenes multiespectrales con aprendizaje profundo a los sistemas de edge computing. El principal objetivo es la adaptación de modelos de clasificación de imágenes multiespectrales para que puedan ejecutarse en un sistema embebido formado por una Raspberry Pi 5 con un módulo acelerador de inteligencia artificial Hailo 8L. Para alcanzar este objetivo, se propone un pipeline que permite la adaptación y compilación de los modelos de aprendizaje profundo desde su representación base en PyTorch hasta alcanzar un modelo que pueda ejecutarse en el sistema embebido. Esta adaptación implica el uso de técnicas de optimización de modelos que cuantizan sus pesos y modifican sus valores para reducir al mínimo las pérdidas de precisión y obtener unos tiempos de inferencia razonables en dispositivos con bajas capacidades de cómputo y consumos reducidos. Seleccionando dos modelos basados en una red neuronal convolucional y una red generativa antagónica, se llevaron a cabo una serie de pruebas para estudiar el comportamiento de los modelos ante diferentes técnicas de optimización. Esto permitió extraer unas conclusiones sobre el proceso de adaptación de los modelos, sobre las técnicas empleadas y sobre las arquitecturas seleccionadas. En general, estos resultados mostraron que el enfoque formulado inicialmente es viable para el sistema seleccionado, presenta diversas limitaciones y requiere posibles ampliaciones con investigaciones más detalladas, pero supone un punto de partida para un nuevo abanico de aplicaciones que se beneficien de este paradigma.
Este trabajo busca acercar la clasificación de imágenes multiespectrales con aprendizaje profundo a los sistemas de edge computing. El principal objetivo es la adaptación de modelos de clasificación de imágenes multiespectrales para que puedan ejecutarse en un sistema embebido formado por una Raspberry Pi 5 con un módulo acelerador de inteligencia artificial Hailo 8L. Para alcanzar este objetivo, se propone un pipeline que permite la adaptación y compilación de los modelos de aprendizaje profundo desde su representación base en PyTorch hasta alcanzar un modelo que pueda ejecutarse en el sistema embebido. Esta adaptación implica el uso de técnicas de optimización de modelos que cuantizan sus pesos y modifican sus valores para reducir al mínimo las pérdidas de precisión y obtener unos tiempos de inferencia razonables en dispositivos con bajas capacidades de cómputo y consumos reducidos. Seleccionando dos modelos basados en una red neuronal convolucional y una red generativa antagónica, se llevaron a cabo una serie de pruebas para estudiar el comportamiento de los modelos ante diferentes técnicas de optimización. Esto permitió extraer unas conclusiones sobre el proceso de adaptación de los modelos, sobre las técnicas empleadas y sobre las arquitecturas seleccionadas. En general, estos resultados mostraron que el enfoque formulado inicialmente es viable para el sistema seleccionado, presenta diversas limitaciones y requiere posibles ampliaciones con investigaciones más detalladas, pero supone un punto de partida para un nuevo abanico de aplicaciones que se beneficien de este paradigma.
Dirección
SUAREZ GAREA, JORGE ALBERTO (Tutoría)
LOPEZ FANDIÑO, JAVIER Cotutoría
ORDOÑEZ IGLESIAS, ALVARO Cotutoría
SUAREZ GAREA, JORGE ALBERTO (Tutoría)
LOPEZ FANDIÑO, JAVIER Cotutoría
ORDOÑEZ IGLESIAS, ALVARO Cotutoría
Tribunal
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
Planta de producción de butirato de etilo a partir de la esterificación de ácido butírico con etanol.
Autoría
P.G.M.
Grado en Ingeniería Química
P.G.M.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 11:25
16.07.2025 11:25
Resumen
El objetivo de este proyecto es desarrollar el diseño de una planta industrial dedicada a la producción de butirato de etilo mediante la reacción de esterificación entre ácido butírico y etanol. La instalación tendrá una capacidad de 5.000 toneladas anuales de butirato de etilo con una pureza del 99,62 % en peso, y operará de forma continua durante 330 días al año, 24 horas al día. Entre los equipos principales se encuentran el reactor multitubular R-201, diseñado por Paula Garrido Moreno, y la columna de destilación T-302, diseñada por Estela Martínez Regueira. Este documento constituye el Trabajo Fin de Grado con el que Paula Garrido Moreno y Estela Martínez Regueira optan al título de Grado en Ingeniería Química, otorgado por la Escola Técnica Superior de Enxeñaría de la Universidade de Santiago de Compostela.
El objetivo de este proyecto es desarrollar el diseño de una planta industrial dedicada a la producción de butirato de etilo mediante la reacción de esterificación entre ácido butírico y etanol. La instalación tendrá una capacidad de 5.000 toneladas anuales de butirato de etilo con una pureza del 99,62 % en peso, y operará de forma continua durante 330 días al año, 24 horas al día. Entre los equipos principales se encuentran el reactor multitubular R-201, diseñado por Paula Garrido Moreno, y la columna de destilación T-302, diseñada por Estela Martínez Regueira. Este documento constituye el Trabajo Fin de Grado con el que Paula Garrido Moreno y Estela Martínez Regueira optan al título de Grado en Ingeniería Química, otorgado por la Escola Técnica Superior de Enxeñaría de la Universidade de Santiago de Compostela.
Dirección
Rodríguez Figueiras, Óscar (Tutoría)
Rodríguez Figueiras, Óscar (Tutoría)
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
Indexado semántico de grano fino de textos biomédicos con modelos linguístico
Autoría
M.G.L.
Grado en Ingeniería Informática
M.G.L.
Grado en Ingeniería Informática
Fecha de la defensa
20.02.2025 17:00
20.02.2025 17:00
Resumen
Este Traballo Fin de Grao (TFG) aborda a indexación semántica de textos biomédicos mediante o uso de grandes modelos lingüísticos (LLM), co obxectivo de mellorar o acceso á información en biomedicina mediante a asignación automatizada de descritores MeSH. O método proposto consta de varias etapas. En primeiro lugar, preprocesa a ontoloxía MeSH obtida a través de BioPortal. Os resumos biomédicos previamente indexados con etiquetas de gran groso son entón seleccionados para un maior refinamento semántico. A metodoloxía emprega unha estratexia de aviso cero co modelo LLaMa3, desenvolvendo e optimizando diferentes configuracións de avisos para mellorar a clasificación. A combinación de conxunto das estratexias máis eficaces permitiu optimizar significativamente o rendemento do sistema. Finalmente, o modelo avalíase mediante métricas estandarizadas (precisión, recordación e medida F) para analizar o seu rendemento e determinar a súa viabilidade en tarefas de indexación biomédica. Os resultados mostran que LLaMa3 supera os métodos tradicionais débilmente supervisados en canto a precisión, lembranza e medida F, consolidándose como unha alternativa eficaz para a indexación biomédica. Non obstante, seguen existindo desafíos en termos de eficiencia computacional e escalabilidade, especialmente para a implementación en grandes volumes de datos. A análise das etiquetas asignadas permitiunos identificar patróns de rendemento e definir estratexias para mellorar a calidade da indexación semántica. Para abordar estes desafíos, explorase a busca semántica mediante bases de datos vectoriais como unha posible estratexia de optimización computacional. Non obstante, os resultados obtidos non alcanzaron a calidade esperada en termos de indexación, o que suxire a necesidade de máis axustes na configuración dos limiares e na representación do contexto semántico. En conclusión, este traballo valida o potencial dos modelos de linguaxe xenerativa na indexación biomédica, destacando a importancia de optimizar o seu rendemento e escalabilidade para a súa aplicación en grandes volumes de datos. Estes achados sentan as bases para futuras investigacións dirixidas a mellorar a eficiencia e precisión dos sistemas de indexación semántica en biomedicina.
Este Traballo Fin de Grao (TFG) aborda a indexación semántica de textos biomédicos mediante o uso de grandes modelos lingüísticos (LLM), co obxectivo de mellorar o acceso á información en biomedicina mediante a asignación automatizada de descritores MeSH. O método proposto consta de varias etapas. En primeiro lugar, preprocesa a ontoloxía MeSH obtida a través de BioPortal. Os resumos biomédicos previamente indexados con etiquetas de gran groso son entón seleccionados para un maior refinamento semántico. A metodoloxía emprega unha estratexia de aviso cero co modelo LLaMa3, desenvolvendo e optimizando diferentes configuracións de avisos para mellorar a clasificación. A combinación de conxunto das estratexias máis eficaces permitiu optimizar significativamente o rendemento do sistema. Finalmente, o modelo avalíase mediante métricas estandarizadas (precisión, recordación e medida F) para analizar o seu rendemento e determinar a súa viabilidade en tarefas de indexación biomédica. Os resultados mostran que LLaMa3 supera os métodos tradicionais débilmente supervisados en canto a precisión, lembranza e medida F, consolidándose como unha alternativa eficaz para a indexación biomédica. Non obstante, seguen existindo desafíos en termos de eficiencia computacional e escalabilidade, especialmente para a implementación en grandes volumes de datos. A análise das etiquetas asignadas permitiunos identificar patróns de rendemento e definir estratexias para mellorar a calidade da indexación semántica. Para abordar estes desafíos, explorase a busca semántica mediante bases de datos vectoriais como unha posible estratexia de optimización computacional. Non obstante, os resultados obtidos non alcanzaron a calidade esperada en termos de indexación, o que suxire a necesidade de máis axustes na configuración dos limiares e na representación do contexto semántico. En conclusión, este traballo valida o potencial dos modelos de linguaxe xenerativa na indexación biomédica, destacando a importancia de optimizar o seu rendemento e escalabilidade para a súa aplicación en grandes volumes de datos. Estes achados sentan as bases para futuras investigacións dirixidas a mellorar a eficiencia e precisión dos sistemas de indexación semántica en biomedicina.
Dirección
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Tutor del alumno)
TABOADA IGLESIAS, MARÍA JESÚS (Tutor del alumno)
Uso de datos GOES-R en la nube para la monitorización del sargazo
Autoría
B.G.L.
Grao en Ingeniería Informática (2ªed)
B.G.L.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
20.02.2025 11:00
20.02.2025 11:00
Resumen
Los eventos de proliferación masiva del Sargassum se han convertido en un problema ambiental y socioeconómico de gran impacto en el mar Caribe. Su seguimiento mediante sensores satelitales de órbita baja, como MODIS u OLCI, presenta limitaciones debido a la baja frecuencia de adquisición de las imágenes. En este contexto, el satélite geoestacionario GOES-16 ofrece una alternativa prometedora gracias a su alta frecuencia temporal, permitiendo una monitorización continua de la dinámica del Sargassum. Este trabajo explora el potencial de los datos del sensor ABI del GOES-16 para la detección y monitorización del Sargassum, empleando el índice NDVI como herramienta de identificación. Se desarrolló una metodología basada en la descarga y procesamiento eficiente de los datos disponibles en AWS, incluyendo técnicas de reducción de resolución, producto horario, cálculo del NDVI y eliminación de ruido mediante filtros estadísticos. Los resultados obtenidos confirman la viabilidad del uso de GOES-16 para el seguimiento del Sargassum, demostrando una alta concordancia con trabajos previos basados en otros sensores. La alta frecuencia temporal permite una vigilancia más detallada, facilitando la predicción de movimientos y posibles arribazones costeras. Como futuras ampliaciones, se propone la integración con sensores de mayor resolución espacial y la implementación de un sistema predictivo basado en modelos oceanográficos y meteorológicos.
Los eventos de proliferación masiva del Sargassum se han convertido en un problema ambiental y socioeconómico de gran impacto en el mar Caribe. Su seguimiento mediante sensores satelitales de órbita baja, como MODIS u OLCI, presenta limitaciones debido a la baja frecuencia de adquisición de las imágenes. En este contexto, el satélite geoestacionario GOES-16 ofrece una alternativa prometedora gracias a su alta frecuencia temporal, permitiendo una monitorización continua de la dinámica del Sargassum. Este trabajo explora el potencial de los datos del sensor ABI del GOES-16 para la detección y monitorización del Sargassum, empleando el índice NDVI como herramienta de identificación. Se desarrolló una metodología basada en la descarga y procesamiento eficiente de los datos disponibles en AWS, incluyendo técnicas de reducción de resolución, producto horario, cálculo del NDVI y eliminación de ruido mediante filtros estadísticos. Los resultados obtenidos confirman la viabilidad del uso de GOES-16 para el seguimiento del Sargassum, demostrando una alta concordancia con trabajos previos basados en otros sensores. La alta frecuencia temporal permite una vigilancia más detallada, facilitando la predicción de movimientos y posibles arribazones costeras. Como futuras ampliaciones, se propone la integración con sensores de mayor resolución espacial y la implementación de un sistema predictivo basado en modelos oceanográficos y meteorológicos.
Dirección
Triñanes Fernández, Joaquín Ángel (Tutoría)
Triñanes Fernández, Joaquín Ángel (Tutoría)
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
QUERENTES HERMIDA, RAQUEL ESTHER (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
QUERENTES HERMIDA, RAQUEL ESTHER (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Clustering basado en modelos
Autoría
N.G.S.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
N.G.S.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
03.07.2025 12:10
03.07.2025 12:10
Resumen
El clustering es una técnica estadística no supervisada que busca identificar automáticamente grupos homogéneos de observaciones dentro de un conjunto de datos. Su utilidad se ha consolidado en múltiples disciplinas, especialmente en el contexto actual de generación masiva de datos, gracias a su capacidad para identificar grupos en datos complejos y de alta dimensión. Aunque tradicionalmente se han utilizado métodos heurísticos como k-medias o técnicas jerárquicas, estos enfoques presentan limitaciones, como la falta de una base teórica sólida o la dificultad para determinar el número óptimo de grupos. En contraste, el clustering basado en modelos (Model-Based Clustering, MBC) ofrece una alternativa estadísticamente fundamentada al modelar los datos como una mixtura finita de distribuciones de probabilidad. Este enfoque permite realizar inferencias rigurosas, seleccionar modelos apropiados, elegir el número de grupos de manera justificada y evaluar la incertidumbre en la asignación de observaciones. En este trabajo, se presentan los fundamentos teóricos del clustering basado en modelos, con un enfoque en los modelos de distribuciones gaussianas, que son los más utilizados, así como el algoritmo EM para la estimación de parámetros y criterios de selección de modelos, incluyendo la elección del número de clústeres. Además, se presentan ejemplos prácticos utilizando el paquete mclust en R.
El clustering es una técnica estadística no supervisada que busca identificar automáticamente grupos homogéneos de observaciones dentro de un conjunto de datos. Su utilidad se ha consolidado en múltiples disciplinas, especialmente en el contexto actual de generación masiva de datos, gracias a su capacidad para identificar grupos en datos complejos y de alta dimensión. Aunque tradicionalmente se han utilizado métodos heurísticos como k-medias o técnicas jerárquicas, estos enfoques presentan limitaciones, como la falta de una base teórica sólida o la dificultad para determinar el número óptimo de grupos. En contraste, el clustering basado en modelos (Model-Based Clustering, MBC) ofrece una alternativa estadísticamente fundamentada al modelar los datos como una mixtura finita de distribuciones de probabilidad. Este enfoque permite realizar inferencias rigurosas, seleccionar modelos apropiados, elegir el número de grupos de manera justificada y evaluar la incertidumbre en la asignación de observaciones. En este trabajo, se presentan los fundamentos teóricos del clustering basado en modelos, con un enfoque en los modelos de distribuciones gaussianas, que son los más utilizados, así como el algoritmo EM para la estimación de parámetros y criterios de selección de modelos, incluyendo la elección del número de clústeres. Además, se presentan ejemplos prácticos utilizando el paquete mclust en R.
Dirección
AMEIJEIRAS ALONSO, JOSE (Tutoría)
AMEIJEIRAS ALONSO, JOSE (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Modelos de visión-lenguaje robustos a objetos pequeños
Autoría
N.G.S.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
N.G.S.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
Este trabajo se centra en la optimización de modelos de visión-lenguaje (VLMs) aplicados a tareas de pregunta/respuesta visual (VQA) sobre vídeos con objetos pequeños, un escenario que plantea importantes retos computacionales debido al elevado número de tokens visuales irrelevantes que se generan. Para abordar este problema, se propone un método basado en la integración de un detector que identifica regiones visuales relevantes en los fotogramass del vídeo, lo que permite filtrar los tokens visuales asociados al fondo generados por el módulo de visión (ViT) antes de ser procesados por el modelo de lenguaje (LLM). Los resultados experimentales muestran que este filtrado permite eliminar una gran proporción de tokens visuales, lo que conlleva una notable reducción de la complejidad computacional del modelo de lenguaje y, en consecuencia, una disminución en la complejidad total del sistema, sin comprometer el rendimiento. Asimismo, se observa una mejora en el tiempo de ejecución del LLM, lo que contribuye a una mayor eficiencia en el procesamiento textual. Sin embargo, el impacto sobre el tiempo total de inferencia está condicionado por el ViT, que sigue representando el principal cuello de botella debido al procesamiento de imágenes en alta resolución, así como por el coste computacional adicional del detector utilizado. Este trabajo valida el uso de técnicas de filtrado como una estrategia eficaz para mejorar la eficiencia de los VLMs y abre nuevas líneas de investigación dirigidas a optimizar también el procesamiento visual, así como a explorar detectores más ligeros.
Este trabajo se centra en la optimización de modelos de visión-lenguaje (VLMs) aplicados a tareas de pregunta/respuesta visual (VQA) sobre vídeos con objetos pequeños, un escenario que plantea importantes retos computacionales debido al elevado número de tokens visuales irrelevantes que se generan. Para abordar este problema, se propone un método basado en la integración de un detector que identifica regiones visuales relevantes en los fotogramass del vídeo, lo que permite filtrar los tokens visuales asociados al fondo generados por el módulo de visión (ViT) antes de ser procesados por el modelo de lenguaje (LLM). Los resultados experimentales muestran que este filtrado permite eliminar una gran proporción de tokens visuales, lo que conlleva una notable reducción de la complejidad computacional del modelo de lenguaje y, en consecuencia, una disminución en la complejidad total del sistema, sin comprometer el rendimiento. Asimismo, se observa una mejora en el tiempo de ejecución del LLM, lo que contribuye a una mayor eficiencia en el procesamiento textual. Sin embargo, el impacto sobre el tiempo total de inferencia está condicionado por el ViT, que sigue representando el principal cuello de botella debido al procesamiento de imágenes en alta resolución, así como por el coste computacional adicional del detector utilizado. Este trabajo valida el uso de técnicas de filtrado como una estrategia eficaz para mejorar la eficiencia de los VLMs y abre nuevas líneas de investigación dirigidas a optimizar también el procesamiento visual, así como a explorar detectores más ligeros.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
Unidad de hydrocracking para la conversión de destilado de vacío
Autoría
G.G.G.
Grado en Ingeniería Química
G.G.G.
Grado en Ingeniería Química
Fecha de la defensa
15.09.2025 09:00
15.09.2025 09:00
Resumen
Diseño de una unidad de hydrocracking con una capacidad de 2.000.000 de toneladas al año operando en continuo. Previo al hidrocraqueo, el destilado de vacío pasa por un proceso de hidrodesulfuración y separación del sulfuro de hidrogeno producido para la mejora de la calidad de los productos y evitar daños sobre los siguientes equipos. Gracias a este proceso se producen cerca de 2.000.000 de toneladas al año entre butano, benceno, naftas, tanto ligeras como pesadas, diésel y queroseno. El equipo a diseñar detalladamente es el reactor de hidrodesulfuración el cual se trata de un reactor catalítico adiabático de lecho fijo con inyecciones quench de hidrógeno dividido en tres lechos.
Diseño de una unidad de hydrocracking con una capacidad de 2.000.000 de toneladas al año operando en continuo. Previo al hidrocraqueo, el destilado de vacío pasa por un proceso de hidrodesulfuración y separación del sulfuro de hidrogeno producido para la mejora de la calidad de los productos y evitar daños sobre los siguientes equipos. Gracias a este proceso se producen cerca de 2.000.000 de toneladas al año entre butano, benceno, naftas, tanto ligeras como pesadas, diésel y queroseno. El equipo a diseñar detalladamente es el reactor de hidrodesulfuración el cual se trata de un reactor catalítico adiabático de lecho fijo con inyecciones quench de hidrógeno dividido en tres lechos.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
Tribunal
González Álvarez, Julia (Presidente/a)
GOMEZ DIAZ, DIEGO (Secretario/a)
GIL GONZALEZ, ALVARO (Vocal)
González Álvarez, Julia (Presidente/a)
GOMEZ DIAZ, DIEGO (Secretario/a)
GIL GONZALEZ, ALVARO (Vocal)
Técnicas de Generación Procedural y Entornos Dinámicos aplicadas al Desarrollo de un Videojuego en Godot
Autoría
P.G.B.
Grao en Ingeniería Informática (2ªed)
P.G.B.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 12:30
17.07.2025 12:30
Resumen
Este Trabajo de Fin de Grado presenta el desarrollo de un prototipo funcional de un videojuego 2D, basado en la generación procedural. Además, incluye mecánicas típicas de los videojuegos como la exploración, el combate y la progresión del personaje en partidas frenéticas. El objetivo principal ha sido diseñar y construir un sistema que permita implementar las mécanicas de juego de forma modular, con el objetivo de permitir ampliar el alcance del videojuego tras la finalización del trabajo. La implementación se ha realizado utilizando un motor gráfico de código abierto, Godot Engine. En él se han aplicado principios de la programación orientada a objetos y una metodología ágil adaptada a un proyecto individual. Se ha prestado especial atención a la implementación de un sistema de generación procedural personalizado, además de otros módulos como un sistema de movimiento del jugador, un sistema de combate con una IA básica de enemigos, un sistema de progresión y la integración de una interfaz de usuario dinámica a la partida. El resultado es un prototipo jugable que permite probar de forma integrada todas las mecánicas mencionadas. Además, se han incorporado herramientas de control de versiones, validación de código y documentación técnica. Estas características facilitan el mantenimiento del producto y reflejan una gestión del proyecto coherente con los principios de la ingeniería del software.
Este Trabajo de Fin de Grado presenta el desarrollo de un prototipo funcional de un videojuego 2D, basado en la generación procedural. Además, incluye mecánicas típicas de los videojuegos como la exploración, el combate y la progresión del personaje en partidas frenéticas. El objetivo principal ha sido diseñar y construir un sistema que permita implementar las mécanicas de juego de forma modular, con el objetivo de permitir ampliar el alcance del videojuego tras la finalización del trabajo. La implementación se ha realizado utilizando un motor gráfico de código abierto, Godot Engine. En él se han aplicado principios de la programación orientada a objetos y una metodología ágil adaptada a un proyecto individual. Se ha prestado especial atención a la implementación de un sistema de generación procedural personalizado, además de otros módulos como un sistema de movimiento del jugador, un sistema de combate con una IA básica de enemigos, un sistema de progresión y la integración de una interfaz de usuario dinámica a la partida. El resultado es un prototipo jugable que permite probar de forma integrada todas las mecánicas mencionadas. Además, se han incorporado herramientas de control de versiones, validación de código y documentación técnica. Estas características facilitan el mantenimiento del producto y reflejan una gestión del proyecto coherente con los principios de la ingeniería del software.
Dirección
VARELA PET, JOSE (Tutoría)
VARELA PET, JOSE (Tutoría)
Tribunal
VARELA PET, JOSE (Tutor del alumno)
VARELA PET, JOSE (Tutor del alumno)
Diseño de una planta de producción de ácido propanoico a partir de propanal
Autoría
B.I.V.
Grado en Ingeniería Química
B.I.V.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:05
16.07.2025 12:05
Resumen
El objetivo de este TFG es diseñar una planta de producción de ácido propanoico a partir de propanal. El ácido propanoico es un ácido carboxílico de cadena corta cuyo uso es extenso. Algunas de sus principales aplicaciones serían como conservante en comida o como compuesto precursor en la industria farmacéutica. Este compuesto se produce a través de la oxidación aerobia del propanal en presencia de un catalizador, en concreto propionato de manganeso,y en condiciones suaves de temperatura y presión. La oxidación tendrá una conversión del 60% y tendrá lugar en un reactor de borboteo. Se obtendrán como efluentes del reactor el propanal no reaccionado y el ácido propanoico como producto. El proceso de separación consistirá en una columna de destilación que separa el propanal no reaccionado del ácido propanoico. Este equipo será el seleccionado para diseñar de manera rigurosa, determinando el número de platos mediante métodos aproximados y rigurosos, realizando el diseño hidráulico y mecánico. Por útlimo, el propanal no reaccionado se recirculará al reactor y se obtentrá por la corriente de colas el ácido propanaoico listo para comercializar.
El objetivo de este TFG es diseñar una planta de producción de ácido propanoico a partir de propanal. El ácido propanoico es un ácido carboxílico de cadena corta cuyo uso es extenso. Algunas de sus principales aplicaciones serían como conservante en comida o como compuesto precursor en la industria farmacéutica. Este compuesto se produce a través de la oxidación aerobia del propanal en presencia de un catalizador, en concreto propionato de manganeso,y en condiciones suaves de temperatura y presión. La oxidación tendrá una conversión del 60% y tendrá lugar en un reactor de borboteo. Se obtendrán como efluentes del reactor el propanal no reaccionado y el ácido propanoico como producto. El proceso de separación consistirá en una columna de destilación que separa el propanal no reaccionado del ácido propanoico. Este equipo será el seleccionado para diseñar de manera rigurosa, determinando el número de platos mediante métodos aproximados y rigurosos, realizando el diseño hidráulico y mecánico. Por útlimo, el propanal no reaccionado se recirculará al reactor y se obtentrá por la corriente de colas el ácido propanaoico listo para comercializar.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
RODIL RODRIGUEZ, EVA (Tutoría)
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
Segmentación semántica eficiente de imágenes de cobertura terrestre mediante arquitectura codificador-decodificador
Autoría
I.L.C.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
I.L.C.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
20.02.2025 11:30
20.02.2025 11:30
Resumen
En el área del sensado remoto, existe gran interés en recopilar información de cobertura terrestre para identificar y clasificar los diferentes tipos de superficies presentes en el suelo, como áreas con vegetación, cuerpos de agua, suelos urbanos, pastizales, bosques o áreas agrícolas, entre otros. Por otra parte, la segmentación semántica de imágenes permite asignar una etiqueta a cada píxel de la imagen, clasificándolos en diferentes categorías o clases específicas, lo que facilita la interpretación y el análisis de imágenes satelitales o aéreas. El uso de técnicas de aprendizaje profundo ha demostrado ser eficaz en el ámbito de la visión por computador, concretamente en las tareas de segmentación semántica. No obstante, estos modelos son muy costosos computacionalmente, y suelen requerir el uso de hardware especializado y técnicas de optimización para mejorar la eficiencia y viabilidad del entrenamiento y la inferencia. En este Trabajo de Fin de Grado se persigue probar diferentes modelos con arquitectura codificador-decodificador, tratando de mejorar la eficiencia y viabilidad de los entrenamientos incluso con grandes cantidades de datos. De las técnicas de paralelismo existentes para entrenamientos multiGPU, se usará el paralelismo de datos, seleccionando un módulo de PyTorch que lo implemente de manera eficiente. Además, usando precisión mixta en punto flotante de 16 bits se consigue reducir el uso de memoria y aprovechar mejor el hardware de las GPUs, realizando el entrenamiento en la mitad de tiempo sin que la calidad de la segmentación se vea afectada.
En el área del sensado remoto, existe gran interés en recopilar información de cobertura terrestre para identificar y clasificar los diferentes tipos de superficies presentes en el suelo, como áreas con vegetación, cuerpos de agua, suelos urbanos, pastizales, bosques o áreas agrícolas, entre otros. Por otra parte, la segmentación semántica de imágenes permite asignar una etiqueta a cada píxel de la imagen, clasificándolos en diferentes categorías o clases específicas, lo que facilita la interpretación y el análisis de imágenes satelitales o aéreas. El uso de técnicas de aprendizaje profundo ha demostrado ser eficaz en el ámbito de la visión por computador, concretamente en las tareas de segmentación semántica. No obstante, estos modelos son muy costosos computacionalmente, y suelen requerir el uso de hardware especializado y técnicas de optimización para mejorar la eficiencia y viabilidad del entrenamiento y la inferencia. En este Trabajo de Fin de Grado se persigue probar diferentes modelos con arquitectura codificador-decodificador, tratando de mejorar la eficiencia y viabilidad de los entrenamientos incluso con grandes cantidades de datos. De las técnicas de paralelismo existentes para entrenamientos multiGPU, se usará el paralelismo de datos, seleccionando un módulo de PyTorch que lo implemente de manera eficiente. Además, usando precisión mixta en punto flotante de 16 bits se consigue reducir el uso de memoria y aprovechar mejor el hardware de las GPUs, realizando el entrenamiento en la mitad de tiempo sin que la calidad de la segmentación se vea afectada.
Dirección
Argüello Pedreira, Francisco Santiago (Tutoría)
Blanco Heras, Dora Cotutoría
Argüello Pedreira, Francisco Santiago (Tutoría)
Blanco Heras, Dora Cotutoría
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
QUERENTES HERMIDA, RAQUEL ESTHER (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
QUERENTES HERMIDA, RAQUEL ESTHER (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Introducción a los modelos de series de tiempo
Autoría
I.L.C.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
I.L.C.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 09:10
17.07.2025 09:10
Resumen
El estudio de series de tiempo constituye una herramienta fundamental en el análisis de datos que evolucionan a lo largo del tiempo, permitiendo modelar y predecir fenómenos en campos como la economía, la meteorología, la ingeniería o las ciencias sociales. Este Trabajo Fin de Grado aborda el análisis de series de tiempo desde una perspectiva estadística clásica, considerando que las series observadas son realizaciones de procesos estocásticos. Se presentan en detalle los modelos autorregresivos (AR), de medias móviles (MA), mixtos (ARMA), integrados (ARIMA) y estacionales (SARIMA), explicando su formulación matemática, los métodos de estimación de sus parámetros y las técnicas de predicción asociadas. Asimismo, se propone una metodología para el análisis de series de tiempo, la cual será empleada en el análisis de dos series de tiempo reales. Además, se incluye un estudio de simulación para ilustrar y evaluar los procesos de estimación y predicción de los modelos.
El estudio de series de tiempo constituye una herramienta fundamental en el análisis de datos que evolucionan a lo largo del tiempo, permitiendo modelar y predecir fenómenos en campos como la economía, la meteorología, la ingeniería o las ciencias sociales. Este Trabajo Fin de Grado aborda el análisis de series de tiempo desde una perspectiva estadística clásica, considerando que las series observadas son realizaciones de procesos estocásticos. Se presentan en detalle los modelos autorregresivos (AR), de medias móviles (MA), mixtos (ARMA), integrados (ARIMA) y estacionales (SARIMA), explicando su formulación matemática, los métodos de estimación de sus parámetros y las técnicas de predicción asociadas. Asimismo, se propone una metodología para el análisis de series de tiempo, la cual será empleada en el análisis de dos series de tiempo reales. Además, se incluye un estudio de simulación para ilustrar y evaluar los procesos de estimación y predicción de los modelos.
Dirección
CRUJEIRAS CASAIS, ROSA MARÍA (Tutoría)
CRUJEIRAS CASAIS, ROSA MARÍA (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Registro de imágenes de satélite e imágenes capturadas por dron de alta resolución
Autoría
S.L.B.
Grao en Ingeniería Informática (2ªed)
S.L.B.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
15.09.2025 12:30
15.09.2025 12:30
Resumen
El registro de imágenes multiespectrales capturadas por sensores diferentes es una tarea fundamental en el ámbito de la teledetección, especialmente cuando se requiere combinar información procedente de múltiples fuentes y capturada en distintas fechas. Realizar un registro entre múltiples imágenes multiespectrales obtenidas por un mismo sensor es una tarea real y que ya se realiza de forma habitual, de manera eficiente y exitosa en la mayoría de casos. La dificultad de la tarea de registro aumenta significativamente cuando se desean registrar imágenes que han sido capturadas por diferentes sensores, con diferentes características y en contextos significativamente diferentes. En este trabajo se realiza una propuesta de una flujo de trabajo con el fin de dar solución dicho problema y, de esta manera, poder lograr realizar registros entre imágenes capturadas por sensores diferentes y que estas sean registradas con suficiente precisión, de manera eficiente y en tiempo de ejecución razonable. La estrategia que se propone se basa en el encadenamiento de ejecuciones de un mismo algoritmo de registro, manteniendo la referencia inmutable y encadenando las sucesivas transformaciones sobre la imagen que se desea registrar. Previo a la aplicación del encadenamiento de ejecuciones se propone la aplicación de diversas técnicas de preprocesado sobre la imagen a registrar, con objetivo de facilitar el trabajo del algoritmo de registro. El proceso de registro ha sido probado con imágenes reales capturadas por dron (Babcock) y por satélite (WorldView) de áreas determinadas; obteniendo un resultado de registro correcto.
El registro de imágenes multiespectrales capturadas por sensores diferentes es una tarea fundamental en el ámbito de la teledetección, especialmente cuando se requiere combinar información procedente de múltiples fuentes y capturada en distintas fechas. Realizar un registro entre múltiples imágenes multiespectrales obtenidas por un mismo sensor es una tarea real y que ya se realiza de forma habitual, de manera eficiente y exitosa en la mayoría de casos. La dificultad de la tarea de registro aumenta significativamente cuando se desean registrar imágenes que han sido capturadas por diferentes sensores, con diferentes características y en contextos significativamente diferentes. En este trabajo se realiza una propuesta de una flujo de trabajo con el fin de dar solución dicho problema y, de esta manera, poder lograr realizar registros entre imágenes capturadas por sensores diferentes y que estas sean registradas con suficiente precisión, de manera eficiente y en tiempo de ejecución razonable. La estrategia que se propone se basa en el encadenamiento de ejecuciones de un mismo algoritmo de registro, manteniendo la referencia inmutable y encadenando las sucesivas transformaciones sobre la imagen que se desea registrar. Previo a la aplicación del encadenamiento de ejecuciones se propone la aplicación de diversas técnicas de preprocesado sobre la imagen a registrar, con objetivo de facilitar el trabajo del algoritmo de registro. El proceso de registro ha sido probado con imágenes reales capturadas por dron (Babcock) y por satélite (WorldView) de áreas determinadas; obteniendo un resultado de registro correcto.
Dirección
ORDOÑEZ IGLESIAS, ALVARO (Tutoría)
Argüello Pedreira, Francisco Santiago Cotutoría
ORDOÑEZ IGLESIAS, ALVARO (Tutoría)
Argüello Pedreira, Francisco Santiago Cotutoría
Tribunal
Barro Ameneiro, Senén (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
López Vilariño, David (Vocal)
Barro Ameneiro, Senén (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
López Vilariño, David (Vocal)
Explotación de Grandes Modelos de Linguaxe para Anotación Automática de Credibilidade
Autoría
P.L.P.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
P.L.P.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 11:30
17.07.2025 11:30
Resumen
Este trabajo fin de grado se centra en la aplicación de modelos de lenguaje de última generación, como GPT-4 y LlaMa 3, al etiquetado de documentos relacionados con temas de salud en el contexto del proyecto TREC. El objetivo principal es evaluar la posibilidad de sustituir las anotaciones realizadas por expertos humanos por etiquetas generadas con LLMs. El área de estudio de la Recuperación de la Información requiere de conjuntos de datos etiquetados de gran tamaño, que son llevados a cabo por etiquetadores humanos expertos, lo que tiene un alto coste en tiempo y dinero. Si se comprueba que estas etiquetaciones humanas pueden ser sustituidas por unas generadas automáticamente, supondría un gran avance en la generación de datasets de alta calidad. En el presente trabajo se llevará a cabo el etiquetado de los mismos documentos web que fueron etiquetados por humanos; esto nos sirve para analizar discrepancias entre las etiquetas humanas y las generadas por los modelos. También se estudió el efecto que tienen las instrucciones indicadas al modelo de lenguaje sobre la precisión del etiquetado. Basamos nuestra metodología en una publicación llevada a cabo por investigadores de Micorsoft, en la que se lleva a cabo un etiquetado de la relevancia de cada documento. Los resultados obtenidos en thomas2024 fueron muy satisfactorios y se implementaron en Bing por su mejora en tiempo, coste y calidad comparado con etiquetadores. de crowdsourcing. Nuestros resultados suponen un avance respecto a esta publicación anterior, ya que llevamos a cabo un etiquetado de características más complejas como la correctitud médica y la credibilidad. Los resultados obtenidos en nuestro trabajo resultaron en algunos casos muy similares a los de Paul Thomas et al, por lo que los consideramos suficientemente positivos como para sustituir las etiquetas humanas.
Este trabajo fin de grado se centra en la aplicación de modelos de lenguaje de última generación, como GPT-4 y LlaMa 3, al etiquetado de documentos relacionados con temas de salud en el contexto del proyecto TREC. El objetivo principal es evaluar la posibilidad de sustituir las anotaciones realizadas por expertos humanos por etiquetas generadas con LLMs. El área de estudio de la Recuperación de la Información requiere de conjuntos de datos etiquetados de gran tamaño, que son llevados a cabo por etiquetadores humanos expertos, lo que tiene un alto coste en tiempo y dinero. Si se comprueba que estas etiquetaciones humanas pueden ser sustituidas por unas generadas automáticamente, supondría un gran avance en la generación de datasets de alta calidad. En el presente trabajo se llevará a cabo el etiquetado de los mismos documentos web que fueron etiquetados por humanos; esto nos sirve para analizar discrepancias entre las etiquetas humanas y las generadas por los modelos. También se estudió el efecto que tienen las instrucciones indicadas al modelo de lenguaje sobre la precisión del etiquetado. Basamos nuestra metodología en una publicación llevada a cabo por investigadores de Micorsoft, en la que se lleva a cabo un etiquetado de la relevancia de cada documento. Los resultados obtenidos en thomas2024 fueron muy satisfactorios y se implementaron en Bing por su mejora en tiempo, coste y calidad comparado con etiquetadores. de crowdsourcing. Nuestros resultados suponen un avance respecto a esta publicación anterior, ya que llevamos a cabo un etiquetado de características más complejas como la correctitud médica y la credibilidad. Los resultados obtenidos en nuestro trabajo resultaron en algunos casos muy similares a los de Paul Thomas et al, por lo que los consideramos suficientemente positivos como para sustituir las etiquetas humanas.
Dirección
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
Métodos Matemáticos de la Inteligencia Artificial
Autoría
P.L.P.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
P.L.P.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
03.07.2025 10:00
03.07.2025 10:00
Resumen
Esta tesis explora los fundamentos matemáticos de la inteligencia artificial, centrándose en las redes neuronales y sus líneas de investigación. Comienza con un análisis detallado de las redes neuronales, cubriendo conceptos fundamentales como la arquitectura y el entrenamiento, así como temas de investigación como la expresividad, la optimización, la generalización y la explicabilidad. Se introduce la dimensión de Vapnik-Chervonenkis (VC) como marco teórico para cuantificar la capacidad de los modelos, ofreciendo información sobre su capacidad de generalización y sus limitaciones. Para abordar la maldición de la dimensionalidad, la tesis analiza técnicas de reducción de dimensionalidad, como el análisis de componentes principales (PCA) y el análisis discriminante lineal (LDA), mostrando su papel en la mejora de la eficiencia de los modelos sin sacrificar el rendimiento. Por último, se evalúan las capacidades matemáticas de los grandes modelos lingüísticos como GPT. A partir de ejemplos de tareas de razonamiento y resolución de problemas, este trabajo investiga cómo estos modelos procesan y generan resultados matemáticamente rigurosos.
Esta tesis explora los fundamentos matemáticos de la inteligencia artificial, centrándose en las redes neuronales y sus líneas de investigación. Comienza con un análisis detallado de las redes neuronales, cubriendo conceptos fundamentales como la arquitectura y el entrenamiento, así como temas de investigación como la expresividad, la optimización, la generalización y la explicabilidad. Se introduce la dimensión de Vapnik-Chervonenkis (VC) como marco teórico para cuantificar la capacidad de los modelos, ofreciendo información sobre su capacidad de generalización y sus limitaciones. Para abordar la maldición de la dimensionalidad, la tesis analiza técnicas de reducción de dimensionalidad, como el análisis de componentes principales (PCA) y el análisis discriminante lineal (LDA), mostrando su papel en la mejora de la eficiencia de los modelos sin sacrificar el rendimiento. Por último, se evalúan las capacidades matemáticas de los grandes modelos lingüísticos como GPT. A partir de ejemplos de tareas de razonamiento y resolución de problemas, este trabajo investiga cómo estos modelos procesan y generan resultados matemáticamente rigurosos.
Dirección
Nieto Roig, Juan José (Tutoría)
Nieto Roig, Juan José (Tutoría)
Tribunal
Nieto Roig, Juan José (Tutor del alumno)
Nieto Roig, Juan José (Tutor del alumno)
HVQ-Transformer para detección de anomalías en imágenes multidimensionales de teledetección
Autoría
M.L.F.
Grao en Ingeniería Informática (2ªed)
M.L.F.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
El sensado remoto es la técnica de obtener información sobre la superficie terrestre sin contacto directo. Para estas investigaciones, se usan las imágenes multiespectrales e hiperespectrales, las cuales aportan una representación detallada del terreno mediante la captura de información en múltiples bandas del espectro electromagnético. Esta riqueza espectral permite analizar la superficie terrestre con un alto grado de precisión, lo que las convierte en una herramienta fundamental para la detección de anomalías. En los últimos años, el uso de modelos de aprendizaje profundo ha cobrado relevancia en la detección de anomalías en este tipo de imágenes, debido a su capacidad para extraer representaciones complejas y captar patrones sutiles en datos de alta dimensión. A diferencia de los métodos tradicionales, las redes neuronales profundas pueden aprender características discriminativas directamente de los datos, siendo más robustas frente al ruido y las variaciones. Esto resulta especialmente útil en entornos reales donde las anomalías no siempre siguen un patrón fijo o predecible, como es común en las imágenes multiespectrales e hiperespectrales. Este trabajo se ha centrado en la implementación de una nueva versión de un modelo de detección de anomalías que funcionaba originalmente con imágenes de 3 bandas y las clasificaba a nivel de imagen, para que trabaje con imágenes multiespectrales a nivel de píxel. Se ha incorporado un modelo de última generación denominado Hierarchical Vector Quantized Transformer for Multi-class Unsupervised Anomaly Detection (HVQ-TR). Este modelo se basa en arquitecturas transformer hechas para funcionar con conjuntos de datos RGB, como CIFAR-10, con tres bandas. Su función principal es identificar imágenes anómalas de forma no supervisada, clasificando aquellas que difieren de la distribución normal del conjunto. La principal contribución del proyecto ha sido adaptar el flujo de trabajo del modelo transformer para operar sobre imágenes multiespectrales. Esto ha requerido ajustes en el procesamiento de datos, la estructura de entrada, la gestión de clases y la generación de una imagen de salida. Este enfoque permite estudiar las posibilidades de aplicar modelos originalmente diseñados para imágenes RGB en contextos multiespectrales con imágenes de 5 bandas del río Oitavén, ampliando el alcance de las técnicas de aprendizaje profundo en la detección de anomalías en imágenes de sensado remoto. Los resultados permitieron ver cómo el nuevo modelo es capaz de detectar satisfactoriamente las anomalías tras un número reducido de épocas de entrenamiento, mejorando los resultados de otros modelos del estado del arte, como el RX.
El sensado remoto es la técnica de obtener información sobre la superficie terrestre sin contacto directo. Para estas investigaciones, se usan las imágenes multiespectrales e hiperespectrales, las cuales aportan una representación detallada del terreno mediante la captura de información en múltiples bandas del espectro electromagnético. Esta riqueza espectral permite analizar la superficie terrestre con un alto grado de precisión, lo que las convierte en una herramienta fundamental para la detección de anomalías. En los últimos años, el uso de modelos de aprendizaje profundo ha cobrado relevancia en la detección de anomalías en este tipo de imágenes, debido a su capacidad para extraer representaciones complejas y captar patrones sutiles en datos de alta dimensión. A diferencia de los métodos tradicionales, las redes neuronales profundas pueden aprender características discriminativas directamente de los datos, siendo más robustas frente al ruido y las variaciones. Esto resulta especialmente útil en entornos reales donde las anomalías no siempre siguen un patrón fijo o predecible, como es común en las imágenes multiespectrales e hiperespectrales. Este trabajo se ha centrado en la implementación de una nueva versión de un modelo de detección de anomalías que funcionaba originalmente con imágenes de 3 bandas y las clasificaba a nivel de imagen, para que trabaje con imágenes multiespectrales a nivel de píxel. Se ha incorporado un modelo de última generación denominado Hierarchical Vector Quantized Transformer for Multi-class Unsupervised Anomaly Detection (HVQ-TR). Este modelo se basa en arquitecturas transformer hechas para funcionar con conjuntos de datos RGB, como CIFAR-10, con tres bandas. Su función principal es identificar imágenes anómalas de forma no supervisada, clasificando aquellas que difieren de la distribución normal del conjunto. La principal contribución del proyecto ha sido adaptar el flujo de trabajo del modelo transformer para operar sobre imágenes multiespectrales. Esto ha requerido ajustes en el procesamiento de datos, la estructura de entrada, la gestión de clases y la generación de una imagen de salida. Este enfoque permite estudiar las posibilidades de aplicar modelos originalmente diseñados para imágenes RGB en contextos multiespectrales con imágenes de 5 bandas del río Oitavén, ampliando el alcance de las técnicas de aprendizaje profundo en la detección de anomalías en imágenes de sensado remoto. Los resultados permitieron ver cómo el nuevo modelo es capaz de detectar satisfactoriamente las anomalías tras un número reducido de épocas de entrenamiento, mejorando los resultados de otros modelos del estado del arte, como el RX.
Dirección
LOPEZ FANDIÑO, JAVIER (Tutoría)
Argüello Pedreira, Francisco Santiago Cotutoría
LOPEZ FANDIÑO, JAVIER (Tutoría)
Argüello Pedreira, Francisco Santiago Cotutoría
Tribunal
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
ArtAlchemy: Modernización de Arte con IA
Autoría
A.L.M.
Grao en Ingeniería Informática (2ªed)
A.L.M.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
ArtAlchemy: Modernización de Arte con IA es una aplicación web desarrollada como Trabajo de Fin de Grado que democratiza el acceso a tecnologías avanzadas de inteligencia artificial para la transformación artística. La plataforma ofrece tres funcionalidades principales: eliminación automática de fondo mediante modelos RMBG-2.0 y BiRefNet, animación facial de retratos utilizando la API de fal.ai, y conversión de imágenes 2D a estereoscopía 3D con el modelo MiDaS. El sistema implementa una arquitectura desacoplada con un frontend desarrollado en Vue.js/Nuxt.js y un backend en Python con FastAPI, proporcionando una interfaz intuitiva que permite a usuarios sin conocimientos técnicos aplicar técnicas complejas de machine learning a obras de arte. El proyecto ha sido validado mediante pruebas funcionales y de usabilidad, obteniendo una puntuación SUS de 82.5 puntos, demostrando la viabilidad de integrar modelos de IA en aplicaciones web accesibles.
ArtAlchemy: Modernización de Arte con IA es una aplicación web desarrollada como Trabajo de Fin de Grado que democratiza el acceso a tecnologías avanzadas de inteligencia artificial para la transformación artística. La plataforma ofrece tres funcionalidades principales: eliminación automática de fondo mediante modelos RMBG-2.0 y BiRefNet, animación facial de retratos utilizando la API de fal.ai, y conversión de imágenes 2D a estereoscopía 3D con el modelo MiDaS. El sistema implementa una arquitectura desacoplada con un frontend desarrollado en Vue.js/Nuxt.js y un backend en Python con FastAPI, proporcionando una interfaz intuitiva que permite a usuarios sin conocimientos técnicos aplicar técnicas complejas de machine learning a obras de arte. El proyecto ha sido validado mediante pruebas funcionales y de usabilidad, obteniendo una puntuación SUS de 82.5 puntos, demostrando la viabilidad de integrar modelos de IA en aplicaciones web accesibles.
Dirección
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
Gago Pérez, Alicia Cotutoría
García Ullán, Pablo Cotutoría
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
Gago Pérez, Alicia Cotutoría
García Ullán, Pablo Cotutoría
Tribunal
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
Detección celular y categorización morfológica en tecnología farmacéutica
Autoría
B.L.M.
Grao en Ingeniería Informática (2ªed)
B.L.M.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 09:15
18.07.2025 09:15
Resumen
Al cultivar células, su observación es fundamental para decidir cuándo continuar con el protocolo. Las células cambian de morfología y el operador debe evaluar su progreso, basándose en su experiencia. El análisis de la morfología celular también permite evaluar el progreso de la diferenciación celular y correlacionar la forma celular con su funcionalidad. Generalmente, se realiza mediante microscopía óptica, donde el usuario diferencia el comportamiento de la célula basándose en las variaciones de elongación y forma. Sin embargo, es un proceso con un alto grado de subjetividad y no existe un sistema automático capaz de identificar, mediante una imagen, el estado de diferenciación celular. Este proyecto soluciona esta situación mediante el diseño de una arquitectura basada en aprendizaje profundo que permite la segmentación y clasificación automática de células.
Al cultivar células, su observación es fundamental para decidir cuándo continuar con el protocolo. Las células cambian de morfología y el operador debe evaluar su progreso, basándose en su experiencia. El análisis de la morfología celular también permite evaluar el progreso de la diferenciación celular y correlacionar la forma celular con su funcionalidad. Generalmente, se realiza mediante microscopía óptica, donde el usuario diferencia el comportamiento de la célula basándose en las variaciones de elongación y forma. Sin embargo, es un proceso con un alto grado de subjetividad y no existe un sistema automático capaz de identificar, mediante una imagen, el estado de diferenciación celular. Este proyecto soluciona esta situación mediante el diseño de una arquitectura basada en aprendizaje profundo que permite la segmentación y clasificación automática de células.
Dirección
Pardo López, Xosé Manuel (Tutoría)
FERNANDEZ VIDAL, XOSE RAMON Cotutoría
DIAZ RODRIGUEZ, PATRICIA Cotutoría
Pardo López, Xosé Manuel (Tutoría)
FERNANDEZ VIDAL, XOSE RAMON Cotutoría
DIAZ RODRIGUEZ, PATRICIA Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
Herramienta para la automatización del proceso de compilación y pruebas en bibliotecas Python nativas basada en tecnologías de compilación cruzada y emulación
Autoría
A.L.O.
Grao en Ingeniería Informática (2ªed)
A.L.O.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 09:45
18.07.2025 09:45
Resumen
Este Trabajo de Fin de Grado se centra en el estudio de la compilación cruzada de bibliotecas de Python que incluyen código en C y C++, así como en el desarrollo de entornos que permitan su compilación para diversas arquitecturas y sistemas operativos. El objetivo principal es proporcionar una herramienta que facilite al usuario un proceso transparente para la compilación y prueba de dichas bibliotecas. Durante el desarrollo del proyecto, se aplicaron técnicas de compilación cruzada y emulación para asegurar la correcta construcción y validación de las bibliotecas en distintos entornos. Los resultados obtenidos demuestran la viabilidad de automatizar el proceso de compilación y prueba de bibliotecas Python con componentes en C y C++, mejorando notablemente su portabilidad y compatibilidad entre múltiples plataformas. Esto representa un avance significativo en la eficiencia del desarrollo y despliegue de estas bibliotecas, ofreciendo a los usuarios una solución integrada, accesible y transparente.
Este Trabajo de Fin de Grado se centra en el estudio de la compilación cruzada de bibliotecas de Python que incluyen código en C y C++, así como en el desarrollo de entornos que permitan su compilación para diversas arquitecturas y sistemas operativos. El objetivo principal es proporcionar una herramienta que facilite al usuario un proceso transparente para la compilación y prueba de dichas bibliotecas. Durante el desarrollo del proyecto, se aplicaron técnicas de compilación cruzada y emulación para asegurar la correcta construcción y validación de las bibliotecas en distintos entornos. Los resultados obtenidos demuestran la viabilidad de automatizar el proceso de compilación y prueba de bibliotecas Python con componentes en C y C++, mejorando notablemente su portabilidad y compatibilidad entre múltiples plataformas. Esto representa un avance significativo en la eficiencia del desarrollo y despliegue de estas bibliotecas, ofreciendo a los usuarios una solución integrada, accesible y transparente.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
VAKaloura: desarrollo de un predictor de estilos de aprendizaje VAK a partir del análisis de texto
Autoría
M.L.P.
Grao en Ingeniería Informática (2ªed)
M.L.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
Este Trabajo de Fin de Grado explora la posibilidad de predecir automáticamente los estilos de aprendizaje VAK (Visual, Auditivo y Kinestésico) a partir del análisis de texto libre. La motivación principal parte de la necesidad de avanzar hacia modelos educativos más personalizados y eficientes, donde el conocimiento del estilo cognitivo de cada persona permita adaptar mejor los contenidos y metodologías de enseñanza. Para abordar este reto, se diseñó e implementó una aplicación web que recogió textos escritos por personas participantes sobre sus aficiones, junto a un formulario para identificar su estilo de aprendizaje validado por el psicólogo experto Jaume Romero. El corpus resultante incluye 116 entradas, con amplia representación del grupo infantil gracias a la colaboración del centro de enseñaza público CPI Curros Enríquez. Se probaron cuatro líneas de predicción: modelos clásicos de clasificación de texto (Naive Bayes, SVM y Regresión Logística), un modelo neuronal BERT fine-tuned, prompting zero-shot con GPT-4o y la evaluación de un psicólogo educativo experto como referencia. Las pruebas se realizaron en clasificación multietiqueta, teniendo en cuenta que una misma persona puede presentar más de un estilo de aprendizaje. Los resultados muestran que los modelos clásicos superaron con claridad a los clasificadores base (random y majority) y, en muchos casos, también al experto humano; y que incluso en condiciones limitadas (textos cortos, datos en gallego/castellano y desequilibrio de clases), fueron capaces de identificar patrones útiles. La LLM GPT-4o también fue capaz de detectar el estilo visual con cierto éxito sin entrenamiento específico, lo que refuerza la idea de que el texto libre contiene señales lingüísticas relevantes para esta tarea. Este trabajo constituye una primera aproximación sólida a la predicción automática de estilos de aprendizaje a partir de texto libre. A pesar de las limitaciones, los resultados obtenidos abren la puerta al desarrollo de sistemas accesibles y adaptables que contribuyan a una educación más personalizada y eficiente, especialmente en el contexto de lenguas minorizadas y recursos limitados.
Este Trabajo de Fin de Grado explora la posibilidad de predecir automáticamente los estilos de aprendizaje VAK (Visual, Auditivo y Kinestésico) a partir del análisis de texto libre. La motivación principal parte de la necesidad de avanzar hacia modelos educativos más personalizados y eficientes, donde el conocimiento del estilo cognitivo de cada persona permita adaptar mejor los contenidos y metodologías de enseñanza. Para abordar este reto, se diseñó e implementó una aplicación web que recogió textos escritos por personas participantes sobre sus aficiones, junto a un formulario para identificar su estilo de aprendizaje validado por el psicólogo experto Jaume Romero. El corpus resultante incluye 116 entradas, con amplia representación del grupo infantil gracias a la colaboración del centro de enseñaza público CPI Curros Enríquez. Se probaron cuatro líneas de predicción: modelos clásicos de clasificación de texto (Naive Bayes, SVM y Regresión Logística), un modelo neuronal BERT fine-tuned, prompting zero-shot con GPT-4o y la evaluación de un psicólogo educativo experto como referencia. Las pruebas se realizaron en clasificación multietiqueta, teniendo en cuenta que una misma persona puede presentar más de un estilo de aprendizaje. Los resultados muestran que los modelos clásicos superaron con claridad a los clasificadores base (random y majority) y, en muchos casos, también al experto humano; y que incluso en condiciones limitadas (textos cortos, datos en gallego/castellano y desequilibrio de clases), fueron capaces de identificar patrones útiles. La LLM GPT-4o también fue capaz de detectar el estilo visual con cierto éxito sin entrenamiento específico, lo que refuerza la idea de que el texto libre contiene señales lingüísticas relevantes para esta tarea. Este trabajo constituye una primera aproximación sólida a la predicción automática de estilos de aprendizaje a partir de texto libre. A pesar de las limitaciones, los resultados obtenidos abren la puerta al desarrollo de sistemas accesibles y adaptables que contribuyan a una educación más personalizada y eficiente, especialmente en el contexto de lenguas minorizadas y recursos limitados.
Dirección
Losada Carril, David Enrique (Tutoría)
ROMERO MIRO, JAUME Cotutoría
Losada Carril, David Enrique (Tutoría)
ROMERO MIRO, JAUME Cotutoría
Tribunal
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
Desarrollo de un sistema de información para el scouting de jugadores del club de fútbol SD Compostela
Autoría
A.L.S.
Grao en Ingeniería Informática (2ªed)
A.L.S.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
15.09.2025 13:00
15.09.2025 13:00
Resumen
Diseño e implementación de un sistema de información con aplicación web para optimizar el proceso de scouting de jugadores en el primer equipo del SD Compostela. Para ello, se desarrolla un componente ETL que permitirá la recopilación, procesamiento y estructuración de datos procedentes de distintas ligas y jugadores, garantizando su integridad y calidad. Una aplicación web desarrollada en el presente trabajó se nutrirá de esta información y facilitará la toma de decisiones de los agentes y ojeadores del club, proporcionando información sintetizada y de valor. Además, servirá como una plataforma de gestión integral para la actividad de scouting.
Diseño e implementación de un sistema de información con aplicación web para optimizar el proceso de scouting de jugadores en el primer equipo del SD Compostela. Para ello, se desarrolla un componente ETL que permitirá la recopilación, procesamiento y estructuración de datos procedentes de distintas ligas y jugadores, garantizando su integridad y calidad. Una aplicación web desarrollada en el presente trabajó se nutrirá de esta información y facilitará la toma de decisiones de los agentes y ojeadores del club, proporcionando información sintetizada y de valor. Además, servirá como una plataforma de gestión integral para la actividad de scouting.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Pazos Recarey, Víctor Manuel Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Pazos Recarey, Víctor Manuel Cotutoría
Tribunal
Barro Ameneiro, Senén (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
López Vilariño, David (Vocal)
Barro Ameneiro, Senén (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
López Vilariño, David (Vocal)
Procesamiento en tiempo real de nubes de puntos LiDAR terrestre
Autoría
P.L.C.
Grao en Ingeniería Informática (2ªed)
P.L.C.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 10:15
18.07.2025 10:15
Resumen
Este trabajo se centra en el desarrollo de un pipeline de procesamiento en tiempo real de datos LiDAR terrestres, orientado a aplicaciones de automoción. En particular, se ha diseñado e implementado un sistema capaz de identificar, clasificar y realizar el seguimiento de objetos en tiempo real, utilizando para ello herramientas del entorno ROS2. Para llevar a cabo la tarea de clasificación, se han empleado modelos de Deep Learning basados en el estado del arte. En concreto, se han considerado los modelos PointNet, PointNet++, PointPillars y PointRCNN, todos ellos aplicados al procesamiento de nubes de puntos 3D. Dado el enfoque en tiempo real del sistema, se realizó un estudio detallado del rendimiento de la aplicación, identificando que el proceso de inferencia de los modelos constituye el principal cuello de botella para garantizar dicha condición. Con el fin de abordar esta limitación, se desarrolló una herramienta de evaluación orientada a comparar modelos de Deep Learning en función de un conjunto configurable de métricas, incluyendo precisión, tiempo de inferencia y consumo de recursos. Esta evaluación permitió extraer conclusiones relevantes sobre el equilibrio entre eficiencia computacional y calidad de los resultados en diferentes modelos. Los resultados experimentales, obtenidos utilizando el conjunto de datos KITTI, muestran que PointPillars ofrece el mejor compromiso entre rendimiento computacional y precisión. Por su parte, PointRCNN destaca como el modelo más preciso, mientras que PointNet presenta los menores tiempos de inferencia. En cuanto a la utilización de recursos, PointRCNN y PointPillars, pese a su mayor complejidad estructural, presentan un consumo de memoria por objeto inferior al de PointNet y PointNet++ durante la fase de procesamiento. Finalmente, se concluye que todos los modelos evaluados requieren aceleración mediante GPU para cumplir con las restricciones temporales establecidas por el entorno de ejecución en tiempo real definido en el pipeline desarrollado.
Este trabajo se centra en el desarrollo de un pipeline de procesamiento en tiempo real de datos LiDAR terrestres, orientado a aplicaciones de automoción. En particular, se ha diseñado e implementado un sistema capaz de identificar, clasificar y realizar el seguimiento de objetos en tiempo real, utilizando para ello herramientas del entorno ROS2. Para llevar a cabo la tarea de clasificación, se han empleado modelos de Deep Learning basados en el estado del arte. En concreto, se han considerado los modelos PointNet, PointNet++, PointPillars y PointRCNN, todos ellos aplicados al procesamiento de nubes de puntos 3D. Dado el enfoque en tiempo real del sistema, se realizó un estudio detallado del rendimiento de la aplicación, identificando que el proceso de inferencia de los modelos constituye el principal cuello de botella para garantizar dicha condición. Con el fin de abordar esta limitación, se desarrolló una herramienta de evaluación orientada a comparar modelos de Deep Learning en función de un conjunto configurable de métricas, incluyendo precisión, tiempo de inferencia y consumo de recursos. Esta evaluación permitió extraer conclusiones relevantes sobre el equilibrio entre eficiencia computacional y calidad de los resultados en diferentes modelos. Los resultados experimentales, obtenidos utilizando el conjunto de datos KITTI, muestran que PointPillars ofrece el mejor compromiso entre rendimiento computacional y precisión. Por su parte, PointRCNN destaca como el modelo más preciso, mientras que PointNet presenta los menores tiempos de inferencia. En cuanto a la utilización de recursos, PointRCNN y PointPillars, pese a su mayor complejidad estructural, presentan un consumo de memoria por objeto inferior al de PointNet y PointNet++ durante la fase de procesamiento. Finalmente, se concluye que todos los modelos evaluados requieren aceleración mediante GPU para cumplir con las restricciones temporales establecidas por el entorno de ejecución en tiempo real definido en el pipeline desarrollado.
Dirección
GARCIA LORENZO, OSCAR (Tutoría)
RODRIGUEZ ALCARAZ, SILVIA Cotutoría
GARCIA LORENZO, OSCAR (Tutoría)
RODRIGUEZ ALCARAZ, SILVIA Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
Validación de información de referencia para imágenes de observación terrestre de alta resolución
Autoría
P.L.R.
Grao en Ingeniería Informática (2ªed)
P.L.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 10:45
18.07.2025 10:45
Resumen
A medida que el campo del sensado remoto avanza resulta crucial establecer mecanismos sólidos de validación de la información de referencia empleada en la detección de cambios. Este trabajo se centra en el desarrollo de una metodología que permita construir información de referencia confiable aplicada a imágenes de observación terrestre de alta resolución obtenidas en ecosistemas fluviales gallegos, correspondientes a dos momentos temporales distintos. El objetivo fundamental es generar información de referencia para imágenes recientes a partir de aquellas capturadas con anterioridad, mediante un análisis exhaustivo de los cambios espectrales y espaciales detectados. Para ello, se seleccionan y aplican técnicas avanzadas de clasificación y detección de cambios, combinando metodologías espectrales y espaciales que permiten identificar alteraciones relevantes en el paisaje fluvial. Además, se definen criterios de validación apoyados en la información de referencia, con el fin de evaluar la fiabilidad de los resultados obtenidos. El trabajo también explora el uso de esquemas de clasificación basados en redes neuronales profundas para mejorar la capacidad de discriminación del sistema propuesto. Finalmente, se realiza una evaluación experimental orientada a garantizar la robustez del modelo, comprobando su rendimiento en distintos escenarios y condiciones operativas. Esta propuesta contribuye al campo del sensado remoto aplicado a la gestión y monitorización ambiental, y sienta las bases para futuros desarrollos orientados a la automatización de procesos de validación en imágenes tomadas en diferentes momentos temporales.
A medida que el campo del sensado remoto avanza resulta crucial establecer mecanismos sólidos de validación de la información de referencia empleada en la detección de cambios. Este trabajo se centra en el desarrollo de una metodología que permita construir información de referencia confiable aplicada a imágenes de observación terrestre de alta resolución obtenidas en ecosistemas fluviales gallegos, correspondientes a dos momentos temporales distintos. El objetivo fundamental es generar información de referencia para imágenes recientes a partir de aquellas capturadas con anterioridad, mediante un análisis exhaustivo de los cambios espectrales y espaciales detectados. Para ello, se seleccionan y aplican técnicas avanzadas de clasificación y detección de cambios, combinando metodologías espectrales y espaciales que permiten identificar alteraciones relevantes en el paisaje fluvial. Además, se definen criterios de validación apoyados en la información de referencia, con el fin de evaluar la fiabilidad de los resultados obtenidos. El trabajo también explora el uso de esquemas de clasificación basados en redes neuronales profundas para mejorar la capacidad de discriminación del sistema propuesto. Finalmente, se realiza una evaluación experimental orientada a garantizar la robustez del modelo, comprobando su rendimiento en distintos escenarios y condiciones operativas. Esta propuesta contribuye al campo del sensado remoto aplicado a la gestión y monitorización ambiental, y sienta las bases para futuros desarrollos orientados a la automatización de procesos de validación en imágenes tomadas en diferentes momentos temporales.
Dirección
SUAREZ GAREA, JORGE ALBERTO (Tutoría)
Blanco Heras, Dora Cotutoría
SUAREZ GAREA, JORGE ALBERTO (Tutoría)
Blanco Heras, Dora Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
Planta de producción de detergente tipo LABS
Autoría
N.L.G.
Grado en Ingeniería Química
N.L.G.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 09:30
16.07.2025 09:30
Resumen
Diseño de una planta de producción de detergente tipo LABS a partir de benceno y dodeceno con una capacidad de producción de 120.000 toneladas anuales. Este proceso cuenta con tres reacciones, alquilación, sulfonación y neutralización. Además, se lleva a cabo el acondicionamiento previo a la entrada de los reactores y las respectivas operaciones de separación. El reactor de alquilación es diseñado por Lucía Pardilla Fraguas, la segunda columna de destilación por Noelia López García y el reactor de sulfonación por Antía Gándara Vieito.
Diseño de una planta de producción de detergente tipo LABS a partir de benceno y dodeceno con una capacidad de producción de 120.000 toneladas anuales. Este proceso cuenta con tres reacciones, alquilación, sulfonación y neutralización. Además, se lleva a cabo el acondicionamiento previo a la entrada de los reactores y las respectivas operaciones de separación. El reactor de alquilación es diseñado por Lucía Pardilla Fraguas, la segunda columna de destilación por Noelia López García y el reactor de sulfonación por Antía Gándara Vieito.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
Aplicación de técnicas de aprendizaje automático en el ámbito de la biomedicina
Autoría
P.L.O.
Grao en Ingeniería Informática (2ªed)
P.L.O.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El presente Trabajo de Fin de Grado tiene como objetivo, dentro del contexto específico de clasificación binaria, el análisis, adaptación y mejora del modelo MMGIN, originalmente propuesto para tareas de clasificación multitarea de toxicidad molecular. Con el propósito de optimizar el modelo, se introdujeron varias modificaciones arquitectónicas, tales como: -La sustitución de la red neuronal tradicional por un Autoencoder Variacional (VAE). -La incorporación de atributos de enlace mediante el uso de la arquitectura GINE. -La aplicación de mecanismos de atención global con bloques Transformer y capas GCN. -La introducción de un sistema de fusión adaptativa mediante Gate Fusion. Finalmente, se empleó una estrategia estratificada de validación cruzada (K-Folds), lo que permite valorar de manera sólida el comportamiento de cada variante. Los resultados obtenidos muestran una mejora en el rendimiento al combinar estas técnicas, superando al modelo original. La arquitectura basada en Transformer+GCN destaca especialmente por su capacidad para capturar relaciones no locales en la estructura molecular. Dentro del ámbito de la toxicología computacional, el trabajo propone futuras líneas de investigación y concluye con una discusión sobre las implicaciones de estos hallazgos.
El presente Trabajo de Fin de Grado tiene como objetivo, dentro del contexto específico de clasificación binaria, el análisis, adaptación y mejora del modelo MMGIN, originalmente propuesto para tareas de clasificación multitarea de toxicidad molecular. Con el propósito de optimizar el modelo, se introdujeron varias modificaciones arquitectónicas, tales como: -La sustitución de la red neuronal tradicional por un Autoencoder Variacional (VAE). -La incorporación de atributos de enlace mediante el uso de la arquitectura GINE. -La aplicación de mecanismos de atención global con bloques Transformer y capas GCN. -La introducción de un sistema de fusión adaptativa mediante Gate Fusion. Finalmente, se empleó una estrategia estratificada de validación cruzada (K-Folds), lo que permite valorar de manera sólida el comportamiento de cada variante. Los resultados obtenidos muestran una mejora en el rendimiento al combinar estas técnicas, superando al modelo original. La arquitectura basada en Transformer+GCN destaca especialmente por su capacidad para capturar relaciones no locales en la estructura molecular. Dentro del ámbito de la toxicología computacional, el trabajo propone futuras líneas de investigación y concluye con una discusión sobre las implicaciones de estos hallazgos.
Dirección
LAMA PENIN, MANUEL (Tutoría)
TABOADA ANTELO, PABLO Cotutoría
Suárez Barro, Noel Cotutoría
LAMA PENIN, MANUEL (Tutoría)
TABOADA ANTELO, PABLO Cotutoría
Suárez Barro, Noel Cotutoría
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
Planta de producción de anilina a partir de nitrobenceno
Autoría
E.M.T.
Grado en Ingeniería Química
E.M.T.
Grado en Ingeniería Química
Fecha de la defensa
15.09.2025 09:30
15.09.2025 09:30
Resumen
Para el diseño de una planta de producción de anilina a partir de nitrobenceno e hidrógeno, se divide el proceso de producción en tres secciones: Almacenamiento: Está compuesta por los tanques para almacenar las materias primas, y bombas e intercambiadores de calor para lograr tener la corriente de entrada al reactor a las condiciones de presión y temperatura necesarias. Reacción: Esta sección cuenta con un reactor catalítico multitubular de funcionamiento isotérmico. La reacción que ocurre dentro del reactor es la producida por hidrógeno y nitrobenceno para dar anilina y agua. La reacción se lleva a cabo en fase gas. Este reactor será diseñado por Pablo Trabazo Barros. Separación: Esta sección se compone de un separador trifásico y dos columnas de destilación, cuya función es separar los distintos productos, así como materias primas que no reaccionasen, para obtener la anilina con la pureza deseada. La primera de las dos columnas de destilación será diseñada por Eva Martín Trebolle.
Para el diseño de una planta de producción de anilina a partir de nitrobenceno e hidrógeno, se divide el proceso de producción en tres secciones: Almacenamiento: Está compuesta por los tanques para almacenar las materias primas, y bombas e intercambiadores de calor para lograr tener la corriente de entrada al reactor a las condiciones de presión y temperatura necesarias. Reacción: Esta sección cuenta con un reactor catalítico multitubular de funcionamiento isotérmico. La reacción que ocurre dentro del reactor es la producida por hidrógeno y nitrobenceno para dar anilina y agua. La reacción se lleva a cabo en fase gas. Este reactor será diseñado por Pablo Trabazo Barros. Separación: Esta sección se compone de un separador trifásico y dos columnas de destilación, cuya función es separar los distintos productos, así como materias primas que no reaccionasen, para obtener la anilina con la pureza deseada. La primera de las dos columnas de destilación será diseñada por Eva Martín Trebolle.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
González Álvarez, Julia (Presidente/a)
GOMEZ DIAZ, DIEGO (Secretario/a)
GIL GONZALEZ, ALVARO (Vocal)
González Álvarez, Julia (Presidente/a)
GOMEZ DIAZ, DIEGO (Secretario/a)
GIL GONZALEZ, ALVARO (Vocal)
Extracción Automática de Restricciones para Grafos de Conocimiento mediante Grandes Modelos de Lenguaje
Autoría
A.M.B.
Grao en Ingeniería Informática (2ªed)
A.M.B.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 09:15
17.07.2025 09:15
Resumen
Los grafos de conocimiento y la Web Semántica permiten representar información estructurada de manera interoperable, enlazando entidades mediante relaciones significativas y facilitando el razonamiento automático. Estos sistemas se apoyan en tecnologías como RDF (Resource Description Framework) y en ontologías que definen la semántica de los datos. Para garantizar la coherencia y calidad de los datos representados, resulta fundamental aplicar mecanismos de validación, especialmente en contextos normativos o técnicos. Uno de los lenguajes más extendidos para esta tarea es SHACL (Shapes Constraint Language), que permite definir restricciones sobre datos RDF. Sin embargo, en muchos escenarios reales, como en el ámbito regulatorio, las restricciones no se encuentran explícitamente formuladas, sino que están redactadas en lenguaje natural. Esto plantea un problema importante: la conversión de estas descripciones en restricciones SHACL requiere un proceso manual realizado por expertos, que resulta lento, propenso a errores y poco escalable. Para abordar este problema, este Trabajo de Fin de Grado propone una solución basada en arquitecturas multiagente combinadas con LLMs guiados mediante técnicas avanzadas de prompting. La propuesta se apoya también en información estructurada, como ontologías y sistemas de recuperación aumentada (RAG), para enriquecer el contexto semántico del modelo. A lo largo del trabajo se han explorado distintas estrategias de prompting, así como diversas configuraciones del modelo empleado. La evaluación se ha realizado de forma sistemática sobre un conjunto de referencia compuesto por restricciones redactadas manualmente por expertos. Los resultados muestran que la propuesta es capaz de alcanzar coberturas muy elevadas, superando incluso propuestas previas del estado del arte. Además, la herramienta detecta tanto restricciones simples como complejas. No obstante, esta alta cobertura conlleva una baja precision, lo que refuerza la necesidad de un enfoque colaborativo en el que el experto humano valide o corrija las restricciones generadas. Esta línea de trabajo abre nuevas posibilidades para agilizar la transformación de conocimiento normativo en esquemas de validación formales, haciendo más eficiente la labor de los ingenieros de conocimiento y avanzando hacia la automatización parcial de tareas clave en el ámbito de la Web Semántica.
Los grafos de conocimiento y la Web Semántica permiten representar información estructurada de manera interoperable, enlazando entidades mediante relaciones significativas y facilitando el razonamiento automático. Estos sistemas se apoyan en tecnologías como RDF (Resource Description Framework) y en ontologías que definen la semántica de los datos. Para garantizar la coherencia y calidad de los datos representados, resulta fundamental aplicar mecanismos de validación, especialmente en contextos normativos o técnicos. Uno de los lenguajes más extendidos para esta tarea es SHACL (Shapes Constraint Language), que permite definir restricciones sobre datos RDF. Sin embargo, en muchos escenarios reales, como en el ámbito regulatorio, las restricciones no se encuentran explícitamente formuladas, sino que están redactadas en lenguaje natural. Esto plantea un problema importante: la conversión de estas descripciones en restricciones SHACL requiere un proceso manual realizado por expertos, que resulta lento, propenso a errores y poco escalable. Para abordar este problema, este Trabajo de Fin de Grado propone una solución basada en arquitecturas multiagente combinadas con LLMs guiados mediante técnicas avanzadas de prompting. La propuesta se apoya también en información estructurada, como ontologías y sistemas de recuperación aumentada (RAG), para enriquecer el contexto semántico del modelo. A lo largo del trabajo se han explorado distintas estrategias de prompting, así como diversas configuraciones del modelo empleado. La evaluación se ha realizado de forma sistemática sobre un conjunto de referencia compuesto por restricciones redactadas manualmente por expertos. Los resultados muestran que la propuesta es capaz de alcanzar coberturas muy elevadas, superando incluso propuestas previas del estado del arte. Además, la herramienta detecta tanto restricciones simples como complejas. No obstante, esta alta cobertura conlleva una baja precision, lo que refuerza la necesidad de un enfoque colaborativo en el que el experto humano valide o corrija las restricciones generadas. Esta línea de trabajo abre nuevas posibilidades para agilizar la transformación de conocimiento normativo en esquemas de validación formales, haciendo más eficiente la labor de los ingenieros de conocimiento y avanzando hacia la automatización parcial de tareas clave en el ámbito de la Web Semántica.
Dirección
CHAVES FRAGA, DAVID (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
LAMA PENIN, MANUEL Cotutoría
CHAVES FRAGA, DAVID (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
LAMA PENIN, MANUEL Cotutoría
Tribunal
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
Planta de producción de butadieno a partir de la deshidrogenación catalítica del n-butano
Autoría
C.M.F.
Grado en Ingeniería Química
C.M.F.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 11:10
16.07.2025 11:10
Resumen
El presente proyecto tiene como objetivo el diseño, a nivel de ingeniería básica, de una planta de producción de 50.000 toneladas al año de 1,3-butadieno al 99,99% de pureza a partir de la deshidrogenación catalítica de n-butano con un modo de operación en continuo de 24 horas al día durante 330 días al año reservando los días restantes al mantenimiento de la planta. Se incluye un diseño detallado del reactor de deshidrogenación oxidativa de 1-buteno (R-202) llevado a cabo por la alumna Alejandra Novo Iñigo, de la columna de destilación de platos (T-304) por Andrea Yáñez Rey y de la torre de absorción (T-301) por Celia Martínez Fernández. Este proyecto se presenta como el Trabajo de Fin de Grado de las alumnas Alejandra Novo Íñigo, Celia Martínez Fernández y Andrea Yáñez Rey con el objetivo de obtener el título en Ingeniería Química otorgado por la Universidad de Santiago de Compostela.
El presente proyecto tiene como objetivo el diseño, a nivel de ingeniería básica, de una planta de producción de 50.000 toneladas al año de 1,3-butadieno al 99,99% de pureza a partir de la deshidrogenación catalítica de n-butano con un modo de operación en continuo de 24 horas al día durante 330 días al año reservando los días restantes al mantenimiento de la planta. Se incluye un diseño detallado del reactor de deshidrogenación oxidativa de 1-buteno (R-202) llevado a cabo por la alumna Alejandra Novo Iñigo, de la columna de destilación de platos (T-304) por Andrea Yáñez Rey y de la torre de absorción (T-301) por Celia Martínez Fernández. Este proyecto se presenta como el Trabajo de Fin de Grado de las alumnas Alejandra Novo Íñigo, Celia Martínez Fernández y Andrea Yáñez Rey con el objetivo de obtener el título en Ingeniería Química otorgado por la Universidad de Santiago de Compostela.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
RODIL RODRIGUEZ, EVA (Tutoría)
Tribunal
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Planta de producción de butirato de etilo a partir de la esterificación de ácido butírico con etanol.
Autoría
E.M.R.
Grado en Ingeniería Química
E.M.R.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 11:25
16.07.2025 11:25
Resumen
El objetivo de este proyecto es desarrollar el diseño de una planta industrial dedicada a la producción de butirato de etilo mediante la reacción de esterificación entre ácido butírico y etanol. La instalación tendrá una capacidad de 5.000 toneladas anuales de butirato de etilo con una pureza del 99,62 % en peso, y operará de forma continua durante 330 días al año, 24 horas al día. Entre los equipos principales se encuentran el reactor multitubular R-201, diseñado por Paula Garrido Moreno, y la columna de destilación T-302, diseñada por Estela Martínez Regueira. Este documento constituye el Trabajo Fin de Grado con el que Paula Garrido Moreno y Estela Martínez Regueira optan al título de Grado en Ingeniería Química, otorgado por la Escola Técnica Superior de Enxeñaría de la Universidade de Santiago de Compostela.
El objetivo de este proyecto es desarrollar el diseño de una planta industrial dedicada a la producción de butirato de etilo mediante la reacción de esterificación entre ácido butírico y etanol. La instalación tendrá una capacidad de 5.000 toneladas anuales de butirato de etilo con una pureza del 99,62 % en peso, y operará de forma continua durante 330 días al año, 24 horas al día. Entre los equipos principales se encuentran el reactor multitubular R-201, diseñado por Paula Garrido Moreno, y la columna de destilación T-302, diseñada por Estela Martínez Regueira. Este documento constituye el Trabajo Fin de Grado con el que Paula Garrido Moreno y Estela Martínez Regueira optan al título de Grado en Ingeniería Química, otorgado por la Escola Técnica Superior de Enxeñaría de la Universidade de Santiago de Compostela.
Dirección
Rodríguez Figueiras, Óscar (Tutoría)
Rodríguez Figueiras, Óscar (Tutoría)
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
Planta de producción de epsilon-caprolactama
Autoría
I.M.H.
Grado en Ingeniería Química
I.M.H.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:35
16.07.2025 12:35
Resumen
La planta de producción de epsilon-caprolactama (CPL), es el proyecto realizado por el alumno Jose Otero López e Iago Meijide Hidalgo para poder optar al título de graduado en Ingeniería Química. Esta planta de producción obtiene caprolactama mediante, en una primera instancia, la formación de ciclohexanona oxima a partir de la amoximación de la ciclohexanona junto con peróxido de hidrógeno y amoníaco en un reactor empaquetado de tipo carcasa y tubos; para posteriormente, en una segunda fase, mediante un reactor de reordenamiento de Beckmann también de lecho empaquetado con un diseño de carcasa y tubos, se reordena la molécula de ciclohexanona oxima para producir caprolactama. Finalmente, para su producción industrial será necesaria la purificación de dicho producto mediante una columna de destilación que opera a presión reducida, obteniendo de esta manera una pureza en masa del 99,99 por ciento. Cabe destacar que, el diseño riguroso realizado por Iago Meijide fue el del reactor de amoximación de ciclohexanona, mientras que la unidad diseñada por Jose Otero fue la columna de destilación a vacío para la purificación de la caprolactama. Finalmente, este proyecto establece que la planta operará en un régimen contínuo durante 330 días al año, durante las 24 horas del día, dejando así 35 días para el mantenimiento y descanso de esta. Para, de esta manera, poder cumplir con el requisito de capacidad de producción de 60.000 t/año de caprolactama.
La planta de producción de epsilon-caprolactama (CPL), es el proyecto realizado por el alumno Jose Otero López e Iago Meijide Hidalgo para poder optar al título de graduado en Ingeniería Química. Esta planta de producción obtiene caprolactama mediante, en una primera instancia, la formación de ciclohexanona oxima a partir de la amoximación de la ciclohexanona junto con peróxido de hidrógeno y amoníaco en un reactor empaquetado de tipo carcasa y tubos; para posteriormente, en una segunda fase, mediante un reactor de reordenamiento de Beckmann también de lecho empaquetado con un diseño de carcasa y tubos, se reordena la molécula de ciclohexanona oxima para producir caprolactama. Finalmente, para su producción industrial será necesaria la purificación de dicho producto mediante una columna de destilación que opera a presión reducida, obteniendo de esta manera una pureza en masa del 99,99 por ciento. Cabe destacar que, el diseño riguroso realizado por Iago Meijide fue el del reactor de amoximación de ciclohexanona, mientras que la unidad diseñada por Jose Otero fue la columna de destilación a vacío para la purificación de la caprolactama. Finalmente, este proyecto establece que la planta operará en un régimen contínuo durante 330 días al año, durante las 24 horas del día, dejando así 35 días para el mantenimiento y descanso de esta. Para, de esta manera, poder cumplir con el requisito de capacidad de producción de 60.000 t/año de caprolactama.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
RODIL RODRIGUEZ, EVA (Tutoría)
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
Planta de producción de silicio de grado solar
Autoría
N.M.R.
Grado en Ingeniería Química
N.M.R.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:20
16.07.2025 10:20
Resumen
La transición hacia fuentes de energía renovables ha incrementado la demanda de energía solar. El silicio es un material fundamental en la fabricación de células fotovoltaicas, cuya eficiencia requiere una alta pureza del material. Este proyecto tiene como objetivo diseñar una planta de producción de silicio de grado solar a partir de silicio de grado metalúrgico. La planta se compone de tres secciones diferentes: la sección de síntesis, donde se produce triclorosilano; la sección de separación y purificación, en la que se obtiene el silano; y la sección de deposición, de la cual se obtiene el silicio con la pureza deseada. La unidad a diseñar será el reactor de deposición, en el que tiene lugar la descomposición del silano en presencia de hidrógeno y la deposición del silicio de grado solar.
La transición hacia fuentes de energía renovables ha incrementado la demanda de energía solar. El silicio es un material fundamental en la fabricación de células fotovoltaicas, cuya eficiencia requiere una alta pureza del material. Este proyecto tiene como objetivo diseñar una planta de producción de silicio de grado solar a partir de silicio de grado metalúrgico. La planta se compone de tres secciones diferentes: la sección de síntesis, donde se produce triclorosilano; la sección de separación y purificación, en la que se obtiene el silano; y la sección de deposición, de la cual se obtiene el silicio con la pureza deseada. La unidad a diseñar será el reactor de deposición, en el que tiene lugar la descomposición del silano en presencia de hidrógeno y la deposición del silicio de grado solar.
Dirección
González Álvarez, Julia (Tutoría)
FREIRE LEIRA, MARIA SONIA Cotutoría
González Álvarez, Julia (Tutoría)
FREIRE LEIRA, MARIA SONIA Cotutoría
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
Planta de producción de dimetilcarbonato a partir de monóxido de carbono
Autoría
P.M.P.
Grado en Ingeniería Química
P.M.P.
Grado en Ingeniería Química
Fecha de la defensa
15.09.2025 17:00
15.09.2025 17:00
Resumen
El trabajo consiste en el diseño de una planta de producción de dimetilcarbonato a partir de metanol y monóxido de carbono. Tiene una capacidad de producción de 35.000 toneladas por año y una pureza del producto del 99 por ciento másica. Los equipos mas destacados del trabajo son el Reactor R201, diseñado por Samuel Santiago Pose, y la Columna de Destilación T304, diseñada por Pablo Moreno Piñeiro.
El trabajo consiste en el diseño de una planta de producción de dimetilcarbonato a partir de metanol y monóxido de carbono. Tiene una capacidad de producción de 35.000 toneladas por año y una pureza del producto del 99 por ciento másica. Los equipos mas destacados del trabajo son el Reactor R201, diseñado por Samuel Santiago Pose, y la Columna de Destilación T304, diseñada por Pablo Moreno Piñeiro.
Dirección
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
Tribunal
CARBALLA ARCOS, MARTA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
EIBES GONZALEZ, GEMMA MARIA (Vocal)
CARBALLA ARCOS, MARTA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
EIBES GONZALEZ, GEMMA MARIA (Vocal)
Análisis del rendimiento de la búsqueda de vecinos en nubes de puntos 3D estructuradas en octrees
Autoría
N.N.P.
Grao en Ingeniería Informática (2ªed)
N.N.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
En el campo del procesamiento de nubes de puntos LiDAR, la búsqueda eficiente de vecinos es una de las tareas más costosas a nivel computacional. Con el objetivo de minimizar su impacto en el rendimiento global, se emplean estructuras especializadas, tales como el octree, que pueden beneficiarse de la localidad espacial presente en los puntos. Para reforzar y garantizar dicha localidad, se recurre a técnicas avanzadas, entre las que destacan la codificación de Morton o la codificación de Hilbert. Ambas permiten transformar coordenadas espaciales tridimensionales en índices unidimensionales que conservan, en la medida de lo posible, la localidad espacial. No obstante, este enfoque introduce un posible punto de pérdida de eficiencia: la ordenación de los índices espaciales generados. Este paso puede llegar a resultar clave para garantizar un acceso eficiente a los datos y reducir los tiempos de búsqueda. Dada su importancia, el presente trabajo se enfoca en realizar un análisis exhaustivo del proceso de ordenación de estos índices, haciendo énfasis en su comportamiento en entornos de ejecución paralelizados mediante OpenMP, aprovechando de esta forma las capacidades de procesamiento ofrecidas por arquitecturas modernas. El enfoque seguido ha consistido en seleccionar y evaluar diversos algoritmos de ordenación. Concretamente, se han implementado y comparado versiones de Selection sort, Quicksort, Parallel Quicksort, Radix sort y Bucket sort, cada una con sus respectivas características y estrategias de optimización. Los resultados obtenidos permiten establecer una comparativa sólida entre las distintas propuestas y determinar, según las circunstancias, cuál de ellas ofrece el mejor rendimiento en términos de tiempo de ejecución y escalabilidad, observándose en varios casos una mejora respecto a los métodos originales. De este modo, se contribuye a optimizar el proceso de ordenación de los índices, lo que representa una alternativa a tener en cuenta en la búsqueda de vecinos dentro del procesamiento de nubes de puntos 3D.
En el campo del procesamiento de nubes de puntos LiDAR, la búsqueda eficiente de vecinos es una de las tareas más costosas a nivel computacional. Con el objetivo de minimizar su impacto en el rendimiento global, se emplean estructuras especializadas, tales como el octree, que pueden beneficiarse de la localidad espacial presente en los puntos. Para reforzar y garantizar dicha localidad, se recurre a técnicas avanzadas, entre las que destacan la codificación de Morton o la codificación de Hilbert. Ambas permiten transformar coordenadas espaciales tridimensionales en índices unidimensionales que conservan, en la medida de lo posible, la localidad espacial. No obstante, este enfoque introduce un posible punto de pérdida de eficiencia: la ordenación de los índices espaciales generados. Este paso puede llegar a resultar clave para garantizar un acceso eficiente a los datos y reducir los tiempos de búsqueda. Dada su importancia, el presente trabajo se enfoca en realizar un análisis exhaustivo del proceso de ordenación de estos índices, haciendo énfasis en su comportamiento en entornos de ejecución paralelizados mediante OpenMP, aprovechando de esta forma las capacidades de procesamiento ofrecidas por arquitecturas modernas. El enfoque seguido ha consistido en seleccionar y evaluar diversos algoritmos de ordenación. Concretamente, se han implementado y comparado versiones de Selection sort, Quicksort, Parallel Quicksort, Radix sort y Bucket sort, cada una con sus respectivas características y estrategias de optimización. Los resultados obtenidos permiten establecer una comparativa sólida entre las distintas propuestas y determinar, según las circunstancias, cuál de ellas ofrece el mejor rendimiento en términos de tiempo de ejecución y escalabilidad, observándose en varios casos una mejora respecto a los métodos originales. De este modo, se contribuye a optimizar el proceso de ordenación de los índices, lo que representa una alternativa a tener en cuenta en la búsqueda de vecinos dentro del procesamiento de nubes de puntos 3D.
Dirección
Fernández Rivera, Francisco (Tutoría)
YERMO GARCIA, MIGUEL Cotutoría
Fernández Rivera, Francisco (Tutoría)
YERMO GARCIA, MIGUEL Cotutoría
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
Planta de producción de butadieno a partir de la deshidrogenación catalítica de n-butano
Autoría
A.N.I.
Grado en Ingeniería Química
A.N.I.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 11:10
16.07.2025 11:10
Resumen
El objetivo de este proyecto es diseñar, a nivel de ingeniería básica, una planta de producción de 50.000 toneladas al año de 1,3-butadieno con una pureza del 99.99% a partir de la deshidrogenación catalítica de n-butano, funcionando continuamente las 24 horas del día durante 330 días al año, con los días restantes reservados para el mantenimiento de la planta, El proyecto incluye un deseño detallado del reactor de deshidrogenación oxidativa de 1-buteno (R-202), realizado por la estudiante Alejandra Novo Iñigo, de la columna de destilación (T-304) por Andrea Yáñez Rey y de la torre de absorción (T-301) por Celia Martínez Fernández. Este proyecto se presenta como el proyecto final de las alumnas Alejandra Novo Iñigo, Celia Martínez Fernández e Andrea Yáñez Rey, con el objetivo de obtener el título de Ingeniería Química por la Universidad de Santiago de Compostela.
El objetivo de este proyecto es diseñar, a nivel de ingeniería básica, una planta de producción de 50.000 toneladas al año de 1,3-butadieno con una pureza del 99.99% a partir de la deshidrogenación catalítica de n-butano, funcionando continuamente las 24 horas del día durante 330 días al año, con los días restantes reservados para el mantenimiento de la planta, El proyecto incluye un deseño detallado del reactor de deshidrogenación oxidativa de 1-buteno (R-202), realizado por la estudiante Alejandra Novo Iñigo, de la columna de destilación (T-304) por Andrea Yáñez Rey y de la torre de absorción (T-301) por Celia Martínez Fernández. Este proyecto se presenta como el proyecto final de las alumnas Alejandra Novo Iñigo, Celia Martínez Fernández e Andrea Yáñez Rey, con el objetivo de obtener el título de Ingeniería Química por la Universidad de Santiago de Compostela.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
RODIL RODRIGUEZ, EVA (Tutoría)
Tribunal
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Desarrollo y Despliegue de una Aplicación Cloud Native en GoLang con una Arquitectura de Microservicios
Autoría
C.N.G.
Grao en Ingeniería Informática (2ªed)
C.N.G.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
15.09.2025 12:00
15.09.2025 12:00
Resumen
El presente Trabajo de Fin de Grado tiene como objetivo el diseño, desarrollo y despliegue de una aplicación Cloud Native, construida bajo los principios de la arquitectura hexagonal y con una estructura basada en microservicios implementados en Go. El trabajo se centra especialmente en el diseño de la infraestructura; la orquestación y comunicación entre servicios; así como en la aplicación de prácticas DevOps para la gestión del ciclo de vida del software, incluyendo control de versiones e integración continua y despliegue continuo (CI/CD). La solución propuesta contempla la implementación de cuatro microservicios independientes que, en conjunto, permiten la creación y gestión de colecciones privadas a través de una interfaz web. Todo ello ha sido desplegado en un entorno Kubernetes minikube, buscando cumplir así con los principios de escalabilidad, resiliencia y mantenibilidad exigidos por una arquitectura Cloud Native moderna.
El presente Trabajo de Fin de Grado tiene como objetivo el diseño, desarrollo y despliegue de una aplicación Cloud Native, construida bajo los principios de la arquitectura hexagonal y con una estructura basada en microservicios implementados en Go. El trabajo se centra especialmente en el diseño de la infraestructura; la orquestación y comunicación entre servicios; así como en la aplicación de prácticas DevOps para la gestión del ciclo de vida del software, incluyendo control de versiones e integración continua y despliegue continuo (CI/CD). La solución propuesta contempla la implementación de cuatro microservicios independientes que, en conjunto, permiten la creación y gestión de colecciones privadas a través de una interfaz web. Todo ello ha sido desplegado en un entorno Kubernetes minikube, buscando cumplir así con los principios de escalabilidad, resiliencia y mantenibilidad exigidos por una arquitectura Cloud Native moderna.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
Cardama Santiago, Francisco Javier Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
Cardama Santiago, Francisco Javier Cotutoría
Tribunal
Cardama Santiago, Francisco Javier (Tutor del alumno)
PICHEL CAMPOS, JUAN CARLOS (Tutor del alumno)
Cardama Santiago, Francisco Javier (Tutor del alumno)
PICHEL CAMPOS, JUAN CARLOS (Tutor del alumno)
Marco de evaluación para el aprendizaje automático de ontologías a partir de bases de datos
Autoría
I.N.V.
Grao en Ingeniería Informática (2ªed)
I.N.V.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 09:45
17.07.2025 09:45
Resumen
Las ontologías son especialmente relevantes en el campo de la integración de datos, interoperabilidad semántica y recuperación de la información, entre otros. La construcción de una ontología requiere un gran trabajo manual, es por eso que se recurre a la creación de ontologías de forma automática (Ontology Learning), que hace uso de técnicas de aprendizaje automático, procesamiento del lenguaje natural y, recientemente, del uso de grandes modelos del lenguaje (LLMs) para generar ontologías a partir de textos, documentos, o en este caso, bases de datos relacionales. Resulta fundamental contar con metodologías estandarizadas que permitan evaluar de forma objetiva y reproducible la calidad de las ontologías producidas por los distintos sistemas. Este trabajo propone un marco de evaluación específico para el Ontology Learning a partir de esquemas de bases de datos relacionales, compuesto por un conjunto de recursos de referencia (gold standard) y un conjunto de métricas formales para la comparación estructural y semántica de las ontologías. Este marco permite realizar comparaciones sistemáticas entre las distintas herramientas y enfoques de aprendizaje de ontologías, proporcionando una base sólida para la experimentación y el avance en este campo. Además, se llevó a cabo una experimentación sobre grandes modelos del lenguaje (LLMs) con el fin de validar la utilidad y aplicabilidad del marco de evaluación propuesto. El código se encuentra público en RDB2OWL-Bench.
Las ontologías son especialmente relevantes en el campo de la integración de datos, interoperabilidad semántica y recuperación de la información, entre otros. La construcción de una ontología requiere un gran trabajo manual, es por eso que se recurre a la creación de ontologías de forma automática (Ontology Learning), que hace uso de técnicas de aprendizaje automático, procesamiento del lenguaje natural y, recientemente, del uso de grandes modelos del lenguaje (LLMs) para generar ontologías a partir de textos, documentos, o en este caso, bases de datos relacionales. Resulta fundamental contar con metodologías estandarizadas que permitan evaluar de forma objetiva y reproducible la calidad de las ontologías producidas por los distintos sistemas. Este trabajo propone un marco de evaluación específico para el Ontology Learning a partir de esquemas de bases de datos relacionales, compuesto por un conjunto de recursos de referencia (gold standard) y un conjunto de métricas formales para la comparación estructural y semántica de las ontologías. Este marco permite realizar comparaciones sistemáticas entre las distintas herramientas y enfoques de aprendizaje de ontologías, proporcionando una base sólida para la experimentación y el avance en este campo. Además, se llevó a cabo una experimentación sobre grandes modelos del lenguaje (LLMs) con el fin de validar la utilidad y aplicabilidad del marco de evaluación propuesto. El código se encuentra público en RDB2OWL-Bench.
Dirección
CHAVES FRAGA, DAVID (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
LAMA PENIN, MANUEL Cotutoría
CHAVES FRAGA, DAVID (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
LAMA PENIN, MANUEL Cotutoría
Tribunal
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
Planta de producción de ácido acético a partir de metanol
Autoría
E.O.M.
Grado en Ingeniería Química
E.O.M.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 09:30
16.07.2025 09:30
Resumen
Obtención de 70.000 t/año de ácido acético a partir de metanol y monóxido de carbono mediante el proceso de carbonilación del metanol. Este compuesto orgánico tiene una gran variedad de utilidades, desde la elaboración de productos cosméticos, farmacéuticos o en la industria alimentaria, téxtil y química, lo cual lo convierte en un producto de gran interés industrial. En este proyecto, Martín Álvarez llevará a cabo el diseño riguroso del reactor, encargado del proceso de carbonilación del metanol para la obtención de ácido acético, y Elena Ojea de la primera columna, encargada de separar el ácido acético y el agua del resto de componentes del medio de reacción.
Obtención de 70.000 t/año de ácido acético a partir de metanol y monóxido de carbono mediante el proceso de carbonilación del metanol. Este compuesto orgánico tiene una gran variedad de utilidades, desde la elaboración de productos cosméticos, farmacéuticos o en la industria alimentaria, téxtil y química, lo cual lo convierte en un producto de gran interés industrial. En este proyecto, Martín Álvarez llevará a cabo el diseño riguroso del reactor, encargado del proceso de carbonilación del metanol para la obtención de ácido acético, y Elena Ojea de la primera columna, encargada de separar el ácido acético y el agua del resto de componentes del medio de reacción.
Dirección
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Planta de producción de ácido acético a partir de metanol
Autoría
E.O.M.
Grado en Ingeniería Química
E.O.M.
Grado en Ingeniería Química
Fecha de la defensa
15.09.2025 17:40
15.09.2025 17:40
Resumen
Obtención de 70.000 t/año de ácido acético a partir de metanol y monóxido de carbono mediante el proceso de carbonilación del metanol. Este compuesto orgánico tiene una gran variedad de utilidades, desde la elaboración de productos cosméticos, farmacéuticos o en la industria alimentaria, téxtil y química, lo cual lo convierte en un producto de gran interés industrial. En este proyecto, Martín Álvarez llevará a cabo el diseño riguroso del reactor, encargado del proceso de carbonilación del metanol para la obtención de ácido acético, y Elena Ojea de la primera columna, encargada de separar el ácido acético y el agua del resto de componentes del medio de reacción.
Obtención de 70.000 t/año de ácido acético a partir de metanol y monóxido de carbono mediante el proceso de carbonilación del metanol. Este compuesto orgánico tiene una gran variedad de utilidades, desde la elaboración de productos cosméticos, farmacéuticos o en la industria alimentaria, téxtil y química, lo cual lo convierte en un producto de gran interés industrial. En este proyecto, Martín Álvarez llevará a cabo el diseño riguroso del reactor, encargado del proceso de carbonilación del metanol para la obtención de ácido acético, y Elena Ojea de la primera columna, encargada de separar el ácido acético y el agua del resto de componentes del medio de reacción.
Dirección
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
Tribunal
CARBALLA ARCOS, MARTA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
EIBES GONZALEZ, GEMMA MARIA (Vocal)
CARBALLA ARCOS, MARTA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
EIBES GONZALEZ, GEMMA MARIA (Vocal)
Planta de biodiésel a partir de aceites vegetales mediante transesterificación
Autoría
P.O.F.
Grado en Ingeniería Química
P.O.F.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:50
16.07.2025 10:50
Resumen
Este trabajo de fin de grado presenta el diseño de una planta de producción de biodiésel a escala industrial utilizando aceite de soja refinado como materia prima, mediante un proceso de transesterificación catalizado homogéneamente por una base. Con una capacidad anual de 100.000 toneladas, la planta está diseñada para operar de forma continua y prioriza la sostenibilidad, la viabilidad técnica y la alineación con los objetivos europeos de descarbonización. El proyecto incluye el diseño detallado del reactor principal (R-201), la selección del metóxido de sodio como catalizador óptimo y un análisis integral que abarca los balances de materia y energía, la dinámica del mercado, la viabilidad económica, la selección del emplazamiento, los protocolos de seguridad y el cumplimiento ambiental.
Este trabajo de fin de grado presenta el diseño de una planta de producción de biodiésel a escala industrial utilizando aceite de soja refinado como materia prima, mediante un proceso de transesterificación catalizado homogéneamente por una base. Con una capacidad anual de 100.000 toneladas, la planta está diseñada para operar de forma continua y prioriza la sostenibilidad, la viabilidad técnica y la alineación con los objetivos europeos de descarbonización. El proyecto incluye el diseño detallado del reactor principal (R-201), la selección del metóxido de sodio como catalizador óptimo y un análisis integral que abarca los balances de materia y energía, la dinámica del mercado, la viabilidad económica, la selección del emplazamiento, los protocolos de seguridad y el cumplimiento ambiental.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
Asistente web para la automatización de anotación de imagen médica de ámbito hepático
Autoría
R.O.F.
Grao en Ingeniería Informática (2ªed)
R.O.F.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
20.02.2025 12:00
20.02.2025 12:00
Resumen
Este trabajo de fin de grado se enmarca en el proyecto REMOVIRT H3D, el cual tiene como objetivo que, mediante el uso de técnicas de inteligencia artificial, se pueda realizar una representación tridimensional del hígado de un paciente para que el cirujano pueda llevar a cabo una planificación quirúrgica detallada. Esta primera parte del proyecto se centra en crear una base de datos informada con la que adestrar nuestra red neuronal. El principal objetivo es desarrollar una aplicación web que permita anotar imágenes de TC o RM y crear un asistente automático que, empleando una red neuronal preadestrada, delimite la región de interés y proponga una anotación inicial del hígado. Para lograrlo, primero se llevó a cabo una investigación para comprender los estándares de representación médica, centrándonos especialmente en DICOM, así como las tecnologías necesarias para desarrollar el trabajo (Cornerstone.js, Vue.js). Posteriormente, diseñamos e implementamos una base de datos que permite almacenar las imágenes médicas y las anotaciones realizadas sobre estas, asegurando también la seguridad y trazabilidad de la información, aspectos fundamentales para la aplicación. Una vez creada la infraestructura de datos, se desarrolló una aplicación web interactiva que permite la anotación manual de las imágenes por parte de los usuarios. Esta herramienta integra funcionalidades avanzadas, como la visualización de las 3 vistas del hígado y la gestión de diferentes versiones de las anotaciones. El siguiente paso fue la integración con la red neuronal, la cual delimita las regiones de interés y propone anotaciones iniciales que, posteriormente, deben ser revisadas y modificadas por los especialistas. Entre los objetivos futuros destacan el reentrenamiento continuo de la red neuronal utilizando datos reales recopilados en la plataforma, el despliegue de los distintos componentes en Dockers y la automatización de las comprobaciones de trazabilidad de la información. En conjunto, este trabajo busca sentar las bases para la implementación de un sistema avanzado y accesible que contribuya a la mejora del diagnóstico y tratamiento del cáncer hepático, reduciendo los tiempos y costos asociados a las intervenciones quirúrgicas, al mismo tiempo que potencia la precisión y eficacia de los procedimientos médicos.
Este trabajo de fin de grado se enmarca en el proyecto REMOVIRT H3D, el cual tiene como objetivo que, mediante el uso de técnicas de inteligencia artificial, se pueda realizar una representación tridimensional del hígado de un paciente para que el cirujano pueda llevar a cabo una planificación quirúrgica detallada. Esta primera parte del proyecto se centra en crear una base de datos informada con la que adestrar nuestra red neuronal. El principal objetivo es desarrollar una aplicación web que permita anotar imágenes de TC o RM y crear un asistente automático que, empleando una red neuronal preadestrada, delimite la región de interés y proponga una anotación inicial del hígado. Para lograrlo, primero se llevó a cabo una investigación para comprender los estándares de representación médica, centrándonos especialmente en DICOM, así como las tecnologías necesarias para desarrollar el trabajo (Cornerstone.js, Vue.js). Posteriormente, diseñamos e implementamos una base de datos que permite almacenar las imágenes médicas y las anotaciones realizadas sobre estas, asegurando también la seguridad y trazabilidad de la información, aspectos fundamentales para la aplicación. Una vez creada la infraestructura de datos, se desarrolló una aplicación web interactiva que permite la anotación manual de las imágenes por parte de los usuarios. Esta herramienta integra funcionalidades avanzadas, como la visualización de las 3 vistas del hígado y la gestión de diferentes versiones de las anotaciones. El siguiente paso fue la integración con la red neuronal, la cual delimita las regiones de interés y propone anotaciones iniciales que, posteriormente, deben ser revisadas y modificadas por los especialistas. Entre los objetivos futuros destacan el reentrenamiento continuo de la red neuronal utilizando datos reales recopilados en la plataforma, el despliegue de los distintos componentes en Dockers y la automatización de las comprobaciones de trazabilidad de la información. En conjunto, este trabajo busca sentar las bases para la implementación de un sistema avanzado y accesible que contribuya a la mejora del diagnóstico y tratamiento del cáncer hepático, reduciendo los tiempos y costos asociados a las intervenciones quirúrgicas, al mismo tiempo que potencia la precisión y eficacia de los procedimientos médicos.
Dirección
COMESAÑA FIGUEROA, ENRIQUE (Tutoría)
COMESAÑA FIGUEROA, ENRIQUE (Tutoría)
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
QUERENTES HERMIDA, RAQUEL ESTHER (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
QUERENTES HERMIDA, RAQUEL ESTHER (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Planta de producción de epsilon-caprolactama
Autoría
J.O.L.
Grado en Ingeniería Química
J.O.L.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:35
16.07.2025 12:35
Resumen
La planta de producción de epsilon-caprolactama (CPL), es el proyecto realizado por el alumno Jose Otero López y el alumno Iago Meijide Hidalgo para poder optar al título de graduado en Ingeniería Química. Esta planta de producción, obtiene caprolactama mediante, en una primera instancia, la formación de ciclohexanona oxima a partir de la amoximación de la ciclohexanona junto con peróxido de hidrogeno y amoníaco, en un reactor de lecho empaquetado de tipo carcasa y tubos; para posteriormente, en una segunda fase, mediante un reactor de reordenamiento de Beckmann también de lecho empaquetado con un diseño de carcasa y tubos, se reordena la molécula de ciclohexanona oxima para producir caprolactama. Finalmente, para su producción industrial, será necesaria la purificación de dicho producto mediante una columna de destilación que opera a presión reducida, obteniendo de esta manera, una pureza en masa del 99,99 %. Cabe destacar que, el diseño riguroso realizado por Iago Meijide fue el del reactor de amoximación de ciclohexanona, mientras que la unidad diseñada por Jose Otero, fue la columna de destilación a vacío para la purificación de caprolactama. Finalmente, este proyecto establece que la planta operará en un régimen continuo durante 330 días al año durante las 24 horas del día, dejando así, 35 días para el mantenimiento y descanso de esta. Para, de esta manera, poder cumplir con el requisito de capacidad de producción de 60.000 t/año de caprolactama.
La planta de producción de epsilon-caprolactama (CPL), es el proyecto realizado por el alumno Jose Otero López y el alumno Iago Meijide Hidalgo para poder optar al título de graduado en Ingeniería Química. Esta planta de producción, obtiene caprolactama mediante, en una primera instancia, la formación de ciclohexanona oxima a partir de la amoximación de la ciclohexanona junto con peróxido de hidrogeno y amoníaco, en un reactor de lecho empaquetado de tipo carcasa y tubos; para posteriormente, en una segunda fase, mediante un reactor de reordenamiento de Beckmann también de lecho empaquetado con un diseño de carcasa y tubos, se reordena la molécula de ciclohexanona oxima para producir caprolactama. Finalmente, para su producción industrial, será necesaria la purificación de dicho producto mediante una columna de destilación que opera a presión reducida, obteniendo de esta manera, una pureza en masa del 99,99 %. Cabe destacar que, el diseño riguroso realizado por Iago Meijide fue el del reactor de amoximación de ciclohexanona, mientras que la unidad diseñada por Jose Otero, fue la columna de destilación a vacío para la purificación de caprolactama. Finalmente, este proyecto establece que la planta operará en un régimen continuo durante 330 días al año durante las 24 horas del día, dejando así, 35 días para el mantenimiento y descanso de esta. Para, de esta manera, poder cumplir con el requisito de capacidad de producción de 60.000 t/año de caprolactama.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
RODIL RODRIGUEZ, EVA (Tutoría)
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
Planta de producción de detergente tipo LABS
Autoría
L.P.F.
Grado en Ingeniería Química
L.P.F.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 09:30
16.07.2025 09:30
Resumen
Diseño de una planta de producción de detergente tipo LABS a partir de benceno y dodeceno con una capacidad de producción de 120.000 toneladas anuales. Este proceso cuente con tres reacciones, alquilación, sulfonación y neutralización. Además, se lleva a cabo el acondicionamiento previo a la entrada de los reactores y las respectivas operaciones de separación. El reactor de alquilación es diseñado por Lucía Pardilla Fraguas, la segunda columna de destilación por Noelia López García y el reactor de sulfonación por Antía Gándara Vieito.
Diseño de una planta de producción de detergente tipo LABS a partir de benceno y dodeceno con una capacidad de producción de 120.000 toneladas anuales. Este proceso cuente con tres reacciones, alquilación, sulfonación y neutralización. Además, se lleva a cabo el acondicionamiento previo a la entrada de los reactores y las respectivas operaciones de separación. El reactor de alquilación es diseñado por Lucía Pardilla Fraguas, la segunda columna de destilación por Noelia López García y el reactor de sulfonación por Antía Gándara Vieito.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
Detección automática de sargazo: una aproximación basada en aprendizaje automático para validar productos satelitales
Autoría
L.P.S.
Grao en Ingeniería Informática (2ªed)
L.P.S.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
15.09.2025 13:30
15.09.2025 13:30
Resumen
El sargazo pelágico es una macroalga que vive flotando en mar abierto cuya llegada masiva a zonas costeras en los últimos años ha provocado importantes impactos ecológicos, económicos y sociales, especialmente en regiones del Caribe, América Central y África Occidental. En este contexto, surge la necesidad de desarrollar sistemas de detección automática de sargazo que permitan estudiar y controlar esta problemática. Más concretamente, en este trabajo se explora la detección utilizando técnicas de aprendizaje profundo sobre imágenes RGB captadas por saildrones. Esto, además de servir como alternativa frente a los métodos de detección satelital tradicionales, que presentan limitaciones en zonas costeras o con nubosidad, busca también automatizar un proceso que, en muchos casos, sigue realizándose manualmente. A su vez, este tipo de herramientas resulta especialmente útil para la validación de productos satelitales y modelos existentes, al permitir clasificar de forma automática la presencia de sargazo en imágenes de la superficie. Para el desarrollo del proyecto, se construyó manualmente un conjunto de datos balanceado de 2.742 imágenes (1.371 con sargazo y 1.371 sin), a partir de un corpus inicial de más de 100.000 imágenes sin etiquetar. A continuación, se evaluaron distintas arquitecturas de redes convolucionales, tanto modelos propios como preentrenados (ResNet50, DenseNet121, EfficientNet, VGG16), probando diversas configuraciones de entrenamiento, incluyendo fine-tuning completo, penalización por clase y técnicas de aumento de datos. Los mejores resultados se obtuvieron con el fine-tuning completo de DenseNet121, alcanzando métricas como una accuracy del 97,45%, una precision del 96,43%, un recall del 98,54% y un AUC de 0,9912, lo que demuestra un rendimiento robusto y sugiere un alto potencial de aplicación en escenarios reales. Además, estos resultados sientan las bases para futuras líneas de trabajo, como la incorporación de imágenes procedentes de webcams costeras al conjunto de datos o la integración del modelo en sistemas operativos de monitoreo ambiental en tiempo casi real. En resumen, este trabajo contribuye al desarrollo de nuevas herramientas innovadoras para el monitoreo de sargazo de forma automatizada, combinando el potencial del aprendizaje profundo con datos de alta resolución y facilitando la adopción de soluciones tecnológicas para la gestión costera y la protección de los ecosistemas marinos afectados por este alga.
El sargazo pelágico es una macroalga que vive flotando en mar abierto cuya llegada masiva a zonas costeras en los últimos años ha provocado importantes impactos ecológicos, económicos y sociales, especialmente en regiones del Caribe, América Central y África Occidental. En este contexto, surge la necesidad de desarrollar sistemas de detección automática de sargazo que permitan estudiar y controlar esta problemática. Más concretamente, en este trabajo se explora la detección utilizando técnicas de aprendizaje profundo sobre imágenes RGB captadas por saildrones. Esto, además de servir como alternativa frente a los métodos de detección satelital tradicionales, que presentan limitaciones en zonas costeras o con nubosidad, busca también automatizar un proceso que, en muchos casos, sigue realizándose manualmente. A su vez, este tipo de herramientas resulta especialmente útil para la validación de productos satelitales y modelos existentes, al permitir clasificar de forma automática la presencia de sargazo en imágenes de la superficie. Para el desarrollo del proyecto, se construyó manualmente un conjunto de datos balanceado de 2.742 imágenes (1.371 con sargazo y 1.371 sin), a partir de un corpus inicial de más de 100.000 imágenes sin etiquetar. A continuación, se evaluaron distintas arquitecturas de redes convolucionales, tanto modelos propios como preentrenados (ResNet50, DenseNet121, EfficientNet, VGG16), probando diversas configuraciones de entrenamiento, incluyendo fine-tuning completo, penalización por clase y técnicas de aumento de datos. Los mejores resultados se obtuvieron con el fine-tuning completo de DenseNet121, alcanzando métricas como una accuracy del 97,45%, una precision del 96,43%, un recall del 98,54% y un AUC de 0,9912, lo que demuestra un rendimiento robusto y sugiere un alto potencial de aplicación en escenarios reales. Además, estos resultados sientan las bases para futuras líneas de trabajo, como la incorporación de imágenes procedentes de webcams costeras al conjunto de datos o la integración del modelo en sistemas operativos de monitoreo ambiental en tiempo casi real. En resumen, este trabajo contribuye al desarrollo de nuevas herramientas innovadoras para el monitoreo de sargazo de forma automatizada, combinando el potencial del aprendizaje profundo con datos de alta resolución y facilitando la adopción de soluciones tecnológicas para la gestión costera y la protección de los ecosistemas marinos afectados por este alga.
Dirección
Triñanes Fernández, Joaquín Ángel (Tutoría)
VARELA PET, JOSE Cotutoría
Triñanes Fernández, Joaquín Ángel (Tutoría)
VARELA PET, JOSE Cotutoría
Tribunal
Barro Ameneiro, Senén (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
López Vilariño, David (Vocal)
Barro Ameneiro, Senén (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
López Vilariño, David (Vocal)
Nolik
Autoría
K.P.G.
Grao en Ingeniería Informática (2ªed)
K.P.G.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
La gestión del conocimiento en los servicios de soporte técnico se ve frecuentemente obstaculizada por la ineficiencia de los sistemas de búsqueda tradicionales, que, al basarse en palabras clave, fracasan en comprender el contexto y el significado semántico de los problemas. Este Trabajo de Fin de Grado aborda dicho desafío mediante el diseño y la implementación de un sistema informático completo que aplica técnicas de Inteligencia Artificial para ofrecer una solución de búsqueda semántica avanzada. La solución se articula en una aplicación web con una arquitectura desacoplada, compuesta por un frontend interactivo en React y una API (Application Programming Interface) en el backend desarrollada con Flask. Una de las contribuciones principales de este trabajo es el desarrollo de un pipeline de datos automatizado y dinámico que extrae, procesa y estructura incidencias (o issues) del repositorio público microsoft/PowerToys. Este pipeline implementa una heurística de extracción de soluciones multi-etapa que interpreta las convenciones de la comunidad, como la detección de duplicados y las sugerencias de bots, para identificar las respuestas más fiables. El núcleo del sistema es un motor de búsqueda que utiliza modelos de lenguaje de la librería sentence-transformers para convertir las descripciones de los problemas en representaciones vectoriales de características (conocidas como embeddings). Estos vectores se indexan en una base de datos FAISS (Facebook AI Similarity Search) para realizar búsquedas de similitud de coseno a alta velocidad. Además, se ha realizado un estudio comparativo riguroso para evaluar diferentes modelos de embedding y seleccionar el más adecuado para este dominio. El resultado final es un prototipo funcional y robusto que, dada una consulta en lenguaje natural, devuelve una lista clasificada de problemas resueltos y relevantes, con enlaces a la fuente original. El sistema valida la superioridad del enfoque semántico y presenta una solución integral y escalable al problema de la recuperación eficiente de información en entornos de soporte técnico.
La gestión del conocimiento en los servicios de soporte técnico se ve frecuentemente obstaculizada por la ineficiencia de los sistemas de búsqueda tradicionales, que, al basarse en palabras clave, fracasan en comprender el contexto y el significado semántico de los problemas. Este Trabajo de Fin de Grado aborda dicho desafío mediante el diseño y la implementación de un sistema informático completo que aplica técnicas de Inteligencia Artificial para ofrecer una solución de búsqueda semántica avanzada. La solución se articula en una aplicación web con una arquitectura desacoplada, compuesta por un frontend interactivo en React y una API (Application Programming Interface) en el backend desarrollada con Flask. Una de las contribuciones principales de este trabajo es el desarrollo de un pipeline de datos automatizado y dinámico que extrae, procesa y estructura incidencias (o issues) del repositorio público microsoft/PowerToys. Este pipeline implementa una heurística de extracción de soluciones multi-etapa que interpreta las convenciones de la comunidad, como la detección de duplicados y las sugerencias de bots, para identificar las respuestas más fiables. El núcleo del sistema es un motor de búsqueda que utiliza modelos de lenguaje de la librería sentence-transformers para convertir las descripciones de los problemas en representaciones vectoriales de características (conocidas como embeddings). Estos vectores se indexan en una base de datos FAISS (Facebook AI Similarity Search) para realizar búsquedas de similitud de coseno a alta velocidad. Además, se ha realizado un estudio comparativo riguroso para evaluar diferentes modelos de embedding y seleccionar el más adecuado para este dominio. El resultado final es un prototipo funcional y robusto que, dada una consulta en lenguaje natural, devuelve una lista clasificada de problemas resueltos y relevantes, con enlaces a la fuente original. El sistema valida la superioridad del enfoque semántico y presenta una solución integral y escalable al problema de la recuperación eficiente de información en entornos de soporte técnico.
Dirección
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Delás Ruíz, José Carlos Cotutoría
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Delás Ruíz, José Carlos Cotutoría
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
Módulo de gestión de calendarios y asistencia integrado con software de gestión de entidades deportivas
Autoría
M.J.P.P.
Grao en Ingeniería Informática (2ªed)
M.J.P.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
15.09.2025 10:15
15.09.2025 10:15
Resumen
Este trabajo tiene como objetivo el desarrollo de un módulo de gestión de calendarios y convocatorias para una aplicación de gestión de clubes deportivos. Este módulo permite a los administradores de clubes crear, editar y eliminar eventos (entrenamientos, competiciones u otras actividades) de calendarios, así como gestionar la asistencia y convocatorias de los participantes de manera eficiente.
Este trabajo tiene como objetivo el desarrollo de un módulo de gestión de calendarios y convocatorias para una aplicación de gestión de clubes deportivos. Este módulo permite a los administradores de clubes crear, editar y eliminar eventos (entrenamientos, competiciones u otras actividades) de calendarios, así como gestionar la asistencia y convocatorias de los participantes de manera eficiente.
Dirección
Taboada González, José Ángel (Tutoría)
Taboada González, José Ángel (Tutoría)
Tribunal
Taboada González, José Ángel (Tutor del alumno)
Taboada González, José Ángel (Tutor del alumno)
TimeWise: aplicación para la gestión del tiempo y organización de tareas personales
Autoría
S.P.S.
Grao en Ingeniería Informática (2ªed)
S.P.S.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
El presente trabajo de fin de grado tiene como objetivo principal desarrollar una aplicación móvil para Android que permita a sus usuarios organizar su tiempo, gestionar sus tareas personales y definir sus metas a largo plazo. Para alcanzar estos objetivos, se desarrollaron varias funcionales clave. En primer lugar, se implementó un calendario interactivo para visualizar los eventos diarios de los usuarios y configurar recordatorios asociados a dichos eventos. A continuación, se implementó un tablero que sigue la metodología Kanban para la visualización y gestión de tareas. Por último, se implementó la funcionalidad para la consecución de logros a largo plazo, con la capacidad de desglosarse en objetivos más concretos. A lo largo de todo el desarrollo, se ha mantenido en mente la experiencia de los usuarios, diseñándola con la idea de que fuese lo más intutiva y atractiva posible. Una vez finalizada la fase de implementación, se procedió a validar y verificar el funcionamiento de la aplicación mediante un proceso de pruebas que permitieron la detección y corrección de errores. En conclusión, todos los objetivos propuestos al inicio del proyecto se han completado, dando como resultado una aplicación eficiente, útil y atractiva.
El presente trabajo de fin de grado tiene como objetivo principal desarrollar una aplicación móvil para Android que permita a sus usuarios organizar su tiempo, gestionar sus tareas personales y definir sus metas a largo plazo. Para alcanzar estos objetivos, se desarrollaron varias funcionales clave. En primer lugar, se implementó un calendario interactivo para visualizar los eventos diarios de los usuarios y configurar recordatorios asociados a dichos eventos. A continuación, se implementó un tablero que sigue la metodología Kanban para la visualización y gestión de tareas. Por último, se implementó la funcionalidad para la consecución de logros a largo plazo, con la capacidad de desglosarse en objetivos más concretos. A lo largo de todo el desarrollo, se ha mantenido en mente la experiencia de los usuarios, diseñándola con la idea de que fuese lo más intutiva y atractiva posible. Una vez finalizada la fase de implementación, se procedió a validar y verificar el funcionamiento de la aplicación mediante un proceso de pruebas que permitieron la detección y corrección de errores. En conclusión, todos los objetivos propuestos al inicio del proyecto se han completado, dando como resultado una aplicación eficiente, útil y atractiva.
Dirección
TOBAR QUINTANAR, ALEJANDRO JOSE (Tutoría)
TOBAR QUINTANAR, ALEJANDRO JOSE (Tutoría)
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
Análisis y comparativa de técnicas de estimación de la incertidumbre en modelos de Aprendizaje Automático
Autoría
X.P.M.
Grao en Ingeniería Informática (2ªed)
X.P.M.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
16.09.2025 10:15
16.09.2025 10:15
Resumen
Este trabajo aborda la estimación de la incertidumbre en modelos de aprendizaje automático, fundamental para su uso en entornos industriales que requieren no solo ajuste, sino también confianza en las predicciones. Se implementaron y compararon cuatro técnicas principales: Monte Carlo Dropout, Random Forest, Evidential Neural Networks y Laplace Approximation. Estas se evaluaron en tareas de regresión con conjuntos de datos públicos y un conjunto industrial real. Los resultados muestran que Monte Carlo Dropout (1 sigma) y Evidential Neural Networks ofrecen un mejor equilibrio entre ajuste y calibración. Random Forest es robusto y fácil de interpretar, pero suele infraestimar la incertidumbre. Laplace Approximation presenta mayor dispersión y altos costes computacionales, con un desempeño menos consistente.
Este trabajo aborda la estimación de la incertidumbre en modelos de aprendizaje automático, fundamental para su uso en entornos industriales que requieren no solo ajuste, sino también confianza en las predicciones. Se implementaron y compararon cuatro técnicas principales: Monte Carlo Dropout, Random Forest, Evidential Neural Networks y Laplace Approximation. Estas se evaluaron en tareas de regresión con conjuntos de datos públicos y un conjunto industrial real. Los resultados muestran que Monte Carlo Dropout (1 sigma) y Evidential Neural Networks ofrecen un mejor equilibrio entre ajuste y calibración. Random Forest es robusto y fácil de interpretar, pero suele infraestimar la incertidumbre. Laplace Approximation presenta mayor dispersión y altos costes computacionales, con un desempeño menos consistente.
Dirección
MERA PEREZ, DAVID (Tutoría)
BUDIÑO REGUEIRA, ALEJANDRO Cotutoría
MERA PEREZ, DAVID (Tutoría)
BUDIÑO REGUEIRA, ALEJANDRO Cotutoría
Tribunal
Losada Carril, David Enrique (Presidente/a)
VILLARROYA FERNANDEZ, SEBASTIAN (Secretario/a)
Taboada González, José Ángel (Vocal)
Losada Carril, David Enrique (Presidente/a)
VILLARROYA FERNANDEZ, SEBASTIAN (Secretario/a)
Taboada González, José Ángel (Vocal)
Tecnologías de Análisis Automático de Textos para la Estimación de Rasgos de Personalidad
Autoría
I.Q.R.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
I.Q.R.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 10:15
17.07.2025 10:15
Resumen
Este trabajo se enmarca en el campo del Text-based Personality Computing (TPC), que busca estimar rasgos de personalidad a partir de textos escritos por usuarios/as mediante técnicas de procesamiento del lenguaje natural (PLN). Tradicionalmente, los rasgos de personalidad se miden con cuestionarios, pero estos métodos tienen limitaciones como la subjetividad de las respuestas o la dificultad para aplicarlos a gran escala. Gracias a los avances en el PLN, hoy en día es posible analizar textos y predecir ciertos rasgos sin necesidad de encuestas. En este trabajo se ha utilizado un conjunto de datos de Reddit con información sobre los rasgos de personalidad de sus usuarios/as y se han aplicado técnicas modernas para comparar sus textos con los ítems del cuestionario NEO-FFI. A través de este proceso, se han estimado las puntuaciones Big-5, se han evaluado los resultados obtenidos y se han derivado los rasgos MBTI a partir de estos resultados. El enfoque propuesto ofrece una alternativa sencilla, escalable e interpretable para el análisis automático de personalidad.
Este trabajo se enmarca en el campo del Text-based Personality Computing (TPC), que busca estimar rasgos de personalidad a partir de textos escritos por usuarios/as mediante técnicas de procesamiento del lenguaje natural (PLN). Tradicionalmente, los rasgos de personalidad se miden con cuestionarios, pero estos métodos tienen limitaciones como la subjetividad de las respuestas o la dificultad para aplicarlos a gran escala. Gracias a los avances en el PLN, hoy en día es posible analizar textos y predecir ciertos rasgos sin necesidad de encuestas. En este trabajo se ha utilizado un conjunto de datos de Reddit con información sobre los rasgos de personalidad de sus usuarios/as y se han aplicado técnicas modernas para comparar sus textos con los ítems del cuestionario NEO-FFI. A través de este proceso, se han estimado las puntuaciones Big-5, se han evaluado los resultados obtenidos y se han derivado los rasgos MBTI a partir de estos resultados. El enfoque propuesto ofrece una alternativa sencilla, escalable e interpretable para el análisis automático de personalidad.
Dirección
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Tribunal
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
Árboles de clasificación y optimización
Autoría
I.Q.R.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
I.Q.R.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 10:40
17.07.2025 10:40
Resumen
En este trabajo se estudian los árboles de clasificación, una técnica ampliamente utilizada en aprendizaje automático por su simplicidad, capacidad predictiva y facilidad de interpretación. En particular, se analizan distintas estrategias para su construcción, con especial atención a los métodos basados en optimización matemática. Se consideran tres enfoques representativos: Random Forests (RF), como modelo heurístico basado en el ensamblado de árboles; Optimal Classification Trees (OCT), que plantea el problema como una optimización lineal entera mixta; y Optimal Randomized Classification Trees (ORCT), que utiliza una formulación continua que mejora la escalabilidad manteniendo la interpretabilidad. El trabajo comienza con una revisión de los fundamentos de la clasificación estadística y los métodos basados en árboles de decisión. A continuación, se describen en detalle los modelos de optimización que permiten construir árboles óptimos. Finalmente, se realiza un estudio empírico comparativo utilizando cinco conjuntos de datos de distinta complejidad, evaluando cada modelo según precisión, tiempo de entrenamiento, interpretabilidad y viabilidad práctica. Los resultados muestran que RF ofrece un alto rendimiento con bajo coste computacional, mientras que ORCT logra un equilibrio entre exactitud y escalabilidad. En cambio, OCT, aunque teóricamente atractivo, presenta limitaciones computacionales que restringen su uso a problemas de menor escala.
En este trabajo se estudian los árboles de clasificación, una técnica ampliamente utilizada en aprendizaje automático por su simplicidad, capacidad predictiva y facilidad de interpretación. En particular, se analizan distintas estrategias para su construcción, con especial atención a los métodos basados en optimización matemática. Se consideran tres enfoques representativos: Random Forests (RF), como modelo heurístico basado en el ensamblado de árboles; Optimal Classification Trees (OCT), que plantea el problema como una optimización lineal entera mixta; y Optimal Randomized Classification Trees (ORCT), que utiliza una formulación continua que mejora la escalabilidad manteniendo la interpretabilidad. El trabajo comienza con una revisión de los fundamentos de la clasificación estadística y los métodos basados en árboles de decisión. A continuación, se describen en detalle los modelos de optimización que permiten construir árboles óptimos. Finalmente, se realiza un estudio empírico comparativo utilizando cinco conjuntos de datos de distinta complejidad, evaluando cada modelo según precisión, tiempo de entrenamiento, interpretabilidad y viabilidad práctica. Los resultados muestran que RF ofrece un alto rendimiento con bajo coste computacional, mientras que ORCT logra un equilibrio entre exactitud y escalabilidad. En cambio, OCT, aunque teóricamente atractivo, presenta limitaciones computacionales que restringen su uso a problemas de menor escala.
Dirección
GONZALEZ DIAZ, JULIO (Tutoría)
GONZALEZ DIAZ, JULIO (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Desarrollo de una aplicación eCommerce (tienda online) para un negocio de artículos de pesca
Autoría
I.Q.G.
Grao en Ingeniería Informática (2ªed)
I.Q.G.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 13:00
17.07.2025 13:00
Resumen
Hoy en día muchas pequeñas y medianas empresas necesitan mejorar su visibilidad para mantenerse competitivas en el mercado. En el caso del sector de la venta de artículos de pesca, la cantidad de productos a mostrar a los clientes y la difícil gestión de estos miles de productos en un negocio hacen que sea muy complicado mantener un catálogo claro y accesible empleando métodos tradicionales como listados en papel, catálogos físicos o incluso páginas web poco dinámicas. Este Trabajo Fin de Grado consiste en el diseño y en la implementación de una aplicación web tipo eCommerce para la tienda de artículos de pesca Automar Baiona. El principal objetivo de esta aplicación es permitir a los clientes consultar de una forma sencilla el catálogo de productos de la tienda, empleando mecanismos como filtrados y categorías; por otra parte se plantea el desarrollo de un panel de administrador que proporcione al propietario de la tienda una fácil gestión de su catálogo online, permitiéndole añadir, modificar o eliminar productos sin requerir conocimientos técnicos avanzados. Cabe destacar que, aunque se utilice el término eCommerce, en esta aplicación no se implementa la funcionalidad de compra online. Esto es debido a que la gran mayoría de los clientes de la tienda Automar Baiona realizan sus compras de forma presencial, motivo por el cual el cliente no ha considerado oportuno implementar esta parte.
Hoy en día muchas pequeñas y medianas empresas necesitan mejorar su visibilidad para mantenerse competitivas en el mercado. En el caso del sector de la venta de artículos de pesca, la cantidad de productos a mostrar a los clientes y la difícil gestión de estos miles de productos en un negocio hacen que sea muy complicado mantener un catálogo claro y accesible empleando métodos tradicionales como listados en papel, catálogos físicos o incluso páginas web poco dinámicas. Este Trabajo Fin de Grado consiste en el diseño y en la implementación de una aplicación web tipo eCommerce para la tienda de artículos de pesca Automar Baiona. El principal objetivo de esta aplicación es permitir a los clientes consultar de una forma sencilla el catálogo de productos de la tienda, empleando mecanismos como filtrados y categorías; por otra parte se plantea el desarrollo de un panel de administrador que proporcione al propietario de la tienda una fácil gestión de su catálogo online, permitiéndole añadir, modificar o eliminar productos sin requerir conocimientos técnicos avanzados. Cabe destacar que, aunque se utilice el término eCommerce, en esta aplicación no se implementa la funcionalidad de compra online. Esto es debido a que la gran mayoría de los clientes de la tienda Automar Baiona realizan sus compras de forma presencial, motivo por el cual el cliente no ha considerado oportuno implementar esta parte.
Dirección
VARELA PET, JOSE (Tutoría)
VARELA PET, JOSE (Tutoría)
Tribunal
VARELA PET, JOSE (Tutor del alumno)
VARELA PET, JOSE (Tutor del alumno)
Planta de producción de ácido acético a partir de residuos (bagazo) de manzana
Autoría
L.R.T.
Grado en Ingeniería Química
L.R.T.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:00
16.07.2025 10:00
Resumen
El objetivo principal del presente proyecto es la gestión de residuos orgánicos producidos en la industria sidrera y de zumos del norte de España, teniendo la capacidad de tratar todos los producidos en Galicia. Para ello, se ha realizado el diseño de una instalación situada en el polígono industrial de Chantada (Lugo). En este proceso que utiliza como materia prima bagazo de manzana, se producen anualmente 1500 toneladas de ácido acético de manera sostenible aprovechando 43440 toneladas del residuo. El proceso consta de dos fermentaciones principales en las que se produce, en la primera de ellas, etanol para posteriormente transformarlo en ácido acético con la presencia de la bacteria Acetobacter Pasteurianus SKYAA25. Además, como subproducto se obtiene fibra de manzana que será comercializada para que otras industrias puedan aprovecharla. Por otra parte, se ha realizado el diseño de la planta estableciendo los balances de materia y energía de cada equipo, una estimación de las dimensiones y otras características de cada uno de ellos y se han diseñado en detalle los fermentadores en los que se produce el ácido acético, incluyendo un plano de construcción de los mismos. También se incluyen junto a este los siguientes planos: plano de situación y emplazamiento, plano de implantación, diagrama de flujo, diagramas de instrumentación y tuberías y diagrama de Gantt de los equipos. Finalmente, se han realizado un estudio de seguridad y salud, un estudio de impacto ambiental y un análisis económico de la instalación. Este último se divide en dos partes principales, un análisis de viabilidad económica y una partida presupuestaria en la que se ha obtenido un presupuesto de 30.123.206,25 euros. Palabras clave: bagazo de manzana, ácido acético, residuo, sidra, Acetobacter Pasteurianus SKYAA25.
El objetivo principal del presente proyecto es la gestión de residuos orgánicos producidos en la industria sidrera y de zumos del norte de España, teniendo la capacidad de tratar todos los producidos en Galicia. Para ello, se ha realizado el diseño de una instalación situada en el polígono industrial de Chantada (Lugo). En este proceso que utiliza como materia prima bagazo de manzana, se producen anualmente 1500 toneladas de ácido acético de manera sostenible aprovechando 43440 toneladas del residuo. El proceso consta de dos fermentaciones principales en las que se produce, en la primera de ellas, etanol para posteriormente transformarlo en ácido acético con la presencia de la bacteria Acetobacter Pasteurianus SKYAA25. Además, como subproducto se obtiene fibra de manzana que será comercializada para que otras industrias puedan aprovecharla. Por otra parte, se ha realizado el diseño de la planta estableciendo los balances de materia y energía de cada equipo, una estimación de las dimensiones y otras características de cada uno de ellos y se han diseñado en detalle los fermentadores en los que se produce el ácido acético, incluyendo un plano de construcción de los mismos. También se incluyen junto a este los siguientes planos: plano de situación y emplazamiento, plano de implantación, diagrama de flujo, diagramas de instrumentación y tuberías y diagrama de Gantt de los equipos. Finalmente, se han realizado un estudio de seguridad y salud, un estudio de impacto ambiental y un análisis económico de la instalación. Este último se divide en dos partes principales, un análisis de viabilidad económica y una partida presupuestaria en la que se ha obtenido un presupuesto de 30.123.206,25 euros. Palabras clave: bagazo de manzana, ácido acético, residuo, sidra, Acetobacter Pasteurianus SKYAA25.
Dirección
GONZALEZ GARCIA, SARA (Tutoría)
GONZALEZ GARCIA, SARA (Tutoría)
Tribunal
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Planta de producción de benceno e propileno
Autoría
A.R.B.
Grado en Ingeniería Química
A.R.B.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:30
16.07.2025 10:30
Resumen
El cumeno, nombre común del isopropilbenceno, es un compuesto químico muy utilizado en la industria, ya que es un intermediario en la producción de productos de alto valor añadido, como el fenol y la acetona. También se emplea en la producción de óxido de propileno. Por estos motivos, se decidió llevar a cabo una planta industrial para la producción de cumeno a partir de la alquilación de benceno con la adición de propileno. El proceso consiste en una primera sección de acondicionamiento, donde entran el benceno y el propileno y se llevan a las condiciones adecuadas para llevar a cabo la reacción. La segunda sección es la del reactor, donde en un reactor catalítico ocurre la reacción de alquilación para obtener el producto deseado. A continuación, en la tercera sección, los productos obtenidos son separados y purificados mediante una serie de columnas de destilación. La última etapa es el almacenamiento de los productos separados. Alexandre Rey Baliña diseñará la columna de destilación Antón Varela Veiga diseñará el reactor
El cumeno, nombre común del isopropilbenceno, es un compuesto químico muy utilizado en la industria, ya que es un intermediario en la producción de productos de alto valor añadido, como el fenol y la acetona. También se emplea en la producción de óxido de propileno. Por estos motivos, se decidió llevar a cabo una planta industrial para la producción de cumeno a partir de la alquilación de benceno con la adición de propileno. El proceso consiste en una primera sección de acondicionamiento, donde entran el benceno y el propileno y se llevan a las condiciones adecuadas para llevar a cabo la reacción. La segunda sección es la del reactor, donde en un reactor catalítico ocurre la reacción de alquilación para obtener el producto deseado. A continuación, en la tercera sección, los productos obtenidos son separados y purificados mediante una serie de columnas de destilación. La última etapa es el almacenamiento de los productos separados. Alexandre Rey Baliña diseñará la columna de destilación Antón Varela Veiga diseñará el reactor
Dirección
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
Tribunal
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Caracterización de los cambios en el ECG inmediatamente antes del comienzo de la Fibrilación Auricular Paroxística mediante aprendizaje automático
Autoría
S.R.V.
Grao en Ingeniería Informática (2ªed)
S.R.V.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:45
17.07.2025 10:45
Resumen
El objetivo principal de este trabajo es el desarrollo de un modelo de predicción de fibrilación auricular (FA) paroxística a partir de electrocardiogramas (ECG), mediante el uso de técnicas de aprendizaje automático. El enfoque propuesto busca identificar patrones en los ECG que puedan actuar como indicadores tempranos de un episodio inminente de FA, concretamente con una antelación de hasta 10 minutos. Para ello, se emplea la base de datos proporcionada por el Predicting Paroxysmal Atrial Fibrillation/Flutter: The PhysioNet/Computing in Cardiology Challenge 2001, la cual contiene registros de ECG de pacientes, donde la mitad de los pacientes presentan episodios de FA. La metodología se basa en una combinación de técnicas de aprendizaje automático, incluyendo redes neuronales LSTM bidireccionales, el algoritmo XGBoost y varios modelos {\it ensemble}. Las arquitecturas propuestas trabajan tanto con los registros de forma agregada como a nivel de latido, para extraer la máxima información posible de ellos. Además de la detección de eventos de FA, este trabajo tiene como finalidad contribuir a la interpretación clínica de los resultados, mediante la caracterización de las variables más relevantes. Esto permite identificar qué características del ECG podrían asociarse con un riesgo elevado de sufrir un episodio de fibrilación auricular, facilitando su análisis y comprensión por parte del personal médico.
El objetivo principal de este trabajo es el desarrollo de un modelo de predicción de fibrilación auricular (FA) paroxística a partir de electrocardiogramas (ECG), mediante el uso de técnicas de aprendizaje automático. El enfoque propuesto busca identificar patrones en los ECG que puedan actuar como indicadores tempranos de un episodio inminente de FA, concretamente con una antelación de hasta 10 minutos. Para ello, se emplea la base de datos proporcionada por el Predicting Paroxysmal Atrial Fibrillation/Flutter: The PhysioNet/Computing in Cardiology Challenge 2001, la cual contiene registros de ECG de pacientes, donde la mitad de los pacientes presentan episodios de FA. La metodología se basa en una combinación de técnicas de aprendizaje automático, incluyendo redes neuronales LSTM bidireccionales, el algoritmo XGBoost y varios modelos {\it ensemble}. Las arquitecturas propuestas trabajan tanto con los registros de forma agregada como a nivel de latido, para extraer la máxima información posible de ellos. Además de la detección de eventos de FA, este trabajo tiene como finalidad contribuir a la interpretación clínica de los resultados, mediante la caracterización de las variables más relevantes. Esto permite identificar qué características del ECG podrían asociarse con un riesgo elevado de sufrir un episodio de fibrilación auricular, facilitando su análisis y comprensión por parte del personal médico.
Dirección
FELIX LAMAS, PAULO MANUEL (Tutoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotutoría
FELIX LAMAS, PAULO MANUEL (Tutoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotutoría
Tribunal
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
Planta de producción de xilitol a partir de raquis de maíz
Autoría
I.R.G.
Grado en Ingeniería Química
I.R.G.
Grado en Ingeniería Química
Fecha de la defensa
15.09.2025 15:00
15.09.2025 15:00
Resumen
Los raquis de maíz se alimentan en un reactor, diseñado por Carlos, donde son hidrolizados al utilizar una disolución de ácido acuosa. De ahí, la corriente resultante es separada en una fracción líquida que continua el proceso, y otra sólida que es enviada a una caldera de biomasa, donde su energía de combustión será aprovechada para generar parte del vapor que consume la planta. Volviendo a la corriente principal, esta se purifica, retirando primero el ácido oxálico que es reciclado y seguidamente se eliminan otras impurezas. En este momento, la disolución de xilosa se alimenta a un segundo reactor, de cuya hidrogenación surge el xilitol. Este atraviesa de nuevo distintas etapas de purificación (evaporación, cristalización, secado) para alcanzar ls especificaciones deseadas. El evaporador es diseñado por Iván.
Los raquis de maíz se alimentan en un reactor, diseñado por Carlos, donde son hidrolizados al utilizar una disolución de ácido acuosa. De ahí, la corriente resultante es separada en una fracción líquida que continua el proceso, y otra sólida que es enviada a una caldera de biomasa, donde su energía de combustión será aprovechada para generar parte del vapor que consume la planta. Volviendo a la corriente principal, esta se purifica, retirando primero el ácido oxálico que es reciclado y seguidamente se eliminan otras impurezas. En este momento, la disolución de xilosa se alimenta a un segundo reactor, de cuya hidrogenación surge el xilitol. Este atraviesa de nuevo distintas etapas de purificación (evaporación, cristalización, secado) para alcanzar ls especificaciones deseadas. El evaporador es diseñado por Iván.
Dirección
MAURICIO IGLESIAS, MIGUEL (Tutoría)
MAURICIO IGLESIAS, MIGUEL (Tutoría)
Tribunal
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
FREIRE LEIRA, MARIA SONIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
FREIRE LEIRA, MARIA SONIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
Generación de pseudoetiquetas para el entrenamiento de detectores semi-supervisados
Autoría
A.R.A.
Grao en Ingeniería Informática (2ªed)
A.R.A.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
16.09.2025 10:45
16.09.2025 10:45
Resumen
En el ámbito de la visión por computador, la detección de objetos en entornos con muy pocas anotaciones sigue siendo un desafío considerable. La escasez de datos etiquetados, a menudo costosos y lentos de obtener, impulsa la necesidad de métodos de aprendizaje semisupervisado (SSOD) que puedan aprovechar grandes volúmenes de datos no etiquetados. Dentro del SSOD, la generación de pseudoetiquetas de alta calidad es fundamental. Sin embargo, evaluar y seleccionar eficientemente los conjuntos de pseudoetiquetas más beneficiosos para el entrenamiento o fine-tuning de un detector es un problema complejo, dada la falta de ground truth y la variabilidad en la calidad de las pseudoetiquetas. El objetivo de este trabajo es abordar la problemática de generar y seleccionar conjuntos de pseudoetiquetas de manera eficiente, mediante el diseño e implementación de un flujo de procesado modular para la generación y evaluación de pseudoetiquetas. Se ha desarrollado un sistema flexible que integra un detector open-vocabulary como Grounding DINO con extractores de embeddings (CLIP, DINOv2) y clasificadores ligeros training-free (GDA, KNN). Este mecanismo sirve tanto para generar pseudoetiquetas como evaluar diferentes conjuntos de estas y preseleccionar cuáles pueden ser más valiosos para el entrenamiento o fine-tuning de un detector. El estudio muestra que, si bien la calidad estimada por los clasificadores ligeros no siempre coincidió perfectamente con la mejora del modelo alcanzada con cada conjunto de pseudoetiquetas, aquellas de alta calidad fueron, no obstante, esenciales para impulsar el rendimiento de detectores complejos. Los experimentos con Detectron2, utilizando pesos preentrenados en ImageNet, demostraron que los subconjuntos de pseudoetiquetas de mayor calidad mejoraron significativamente el rendimiento del detector en escenarios con datos etiquetados muy limitados. Este trabajo valida el potencial del pseudoetiquetado en entornos de escasez de datos, al tiempo que destaca la complejidad de su evaluación y la importancia de la calidad de la pseudoetiqueta y el preentrenamiento del modelo base.
En el ámbito de la visión por computador, la detección de objetos en entornos con muy pocas anotaciones sigue siendo un desafío considerable. La escasez de datos etiquetados, a menudo costosos y lentos de obtener, impulsa la necesidad de métodos de aprendizaje semisupervisado (SSOD) que puedan aprovechar grandes volúmenes de datos no etiquetados. Dentro del SSOD, la generación de pseudoetiquetas de alta calidad es fundamental. Sin embargo, evaluar y seleccionar eficientemente los conjuntos de pseudoetiquetas más beneficiosos para el entrenamiento o fine-tuning de un detector es un problema complejo, dada la falta de ground truth y la variabilidad en la calidad de las pseudoetiquetas. El objetivo de este trabajo es abordar la problemática de generar y seleccionar conjuntos de pseudoetiquetas de manera eficiente, mediante el diseño e implementación de un flujo de procesado modular para la generación y evaluación de pseudoetiquetas. Se ha desarrollado un sistema flexible que integra un detector open-vocabulary como Grounding DINO con extractores de embeddings (CLIP, DINOv2) y clasificadores ligeros training-free (GDA, KNN). Este mecanismo sirve tanto para generar pseudoetiquetas como evaluar diferentes conjuntos de estas y preseleccionar cuáles pueden ser más valiosos para el entrenamiento o fine-tuning de un detector. El estudio muestra que, si bien la calidad estimada por los clasificadores ligeros no siempre coincidió perfectamente con la mejora del modelo alcanzada con cada conjunto de pseudoetiquetas, aquellas de alta calidad fueron, no obstante, esenciales para impulsar el rendimiento de detectores complejos. Los experimentos con Detectron2, utilizando pesos preentrenados en ImageNet, demostraron que los subconjuntos de pseudoetiquetas de mayor calidad mejoraron significativamente el rendimiento del detector en escenarios con datos etiquetados muy limitados. Este trabajo valida el potencial del pseudoetiquetado en entornos de escasez de datos, al tiempo que destaca la complejidad de su evaluación y la importancia de la calidad de la pseudoetiqueta y el preentrenamiento del modelo base.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
DOSIL LAGO, RAQUEL Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
DOSIL LAGO, RAQUEL Cotutoría
Tribunal
Losada Carril, David Enrique (Presidente/a)
VILLARROYA FERNANDEZ, SEBASTIAN (Secretario/a)
Taboada González, José Ángel (Vocal)
Losada Carril, David Enrique (Presidente/a)
VILLARROYA FERNANDEZ, SEBASTIAN (Secretario/a)
Taboada González, José Ángel (Vocal)
Análisis de las vulnerabilidades inherentes a los sistemas NoSQL no protegidos adecuadamente, e implementación de una herramienta de apoyo a las auditorías que detecte estos errores de forma autónoma
Autoría
C.R.B.
Grao en Ingeniería Informática (2ªed)
C.R.B.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 12:30
17.07.2025 12:30
Resumen
Ante la falta de herramientas que permitan una detección y explotación de vulnerabilidades en bases de datos NoSQL, el presente Trabajo de Fin de Grado presenta el desarrollo de una solución que permite realizar auditorías en este contexto de forma automatizada y dinámica. El objetivo de este proyecto ha consistido en el diseño y desarrollo de dicho sistema informático, tomando de referencia SQLMap, aplicado a entornos NoSQL, específicamente bases de datos MongoDB. La estructura de la herramienta se encuentra dividida en tres módulos funcionales: fuzzing, explotación y extracción. A través del módulo de fuzzing se pueden detectar las vulnerabilidades presentes en la URL objetivo, el módulo de explotación permite aprovechar estas vulnerabilidades para acceder al servidor objetivo o extraer valores, y el módulo de extracción presenta una lista de posibles colecciones accesibles de la base de datos objetivo. Estos tres módulos están conectados y se comunican entre sí a través de un orquestador, que es el que determina el flujo de la herramienta y el que procesa los parámetros introducidos por el usuario a través de la línea de comandos. Para validar el comportamiento de la herramienta, se ha implementado una API de prueba que simula un entorno NoSQL vulnerable y controlado, que contiene múltiples configuraciones para poder validar las diferentes funcionalidades implementadas. El sistema informático desarrollado está orientado principalmente a profesionales del ámbito de la ciberseguridad, como pentesters, auditores o analistas, que necesiten realizar análisis de seguridad en entornos MongoDB. Además, la modularidad de la herramienta desarrollada facilita su mantenimiento y ampliación, ya que cada componente trabaja de forma independiente.
Ante la falta de herramientas que permitan una detección y explotación de vulnerabilidades en bases de datos NoSQL, el presente Trabajo de Fin de Grado presenta el desarrollo de una solución que permite realizar auditorías en este contexto de forma automatizada y dinámica. El objetivo de este proyecto ha consistido en el diseño y desarrollo de dicho sistema informático, tomando de referencia SQLMap, aplicado a entornos NoSQL, específicamente bases de datos MongoDB. La estructura de la herramienta se encuentra dividida en tres módulos funcionales: fuzzing, explotación y extracción. A través del módulo de fuzzing se pueden detectar las vulnerabilidades presentes en la URL objetivo, el módulo de explotación permite aprovechar estas vulnerabilidades para acceder al servidor objetivo o extraer valores, y el módulo de extracción presenta una lista de posibles colecciones accesibles de la base de datos objetivo. Estos tres módulos están conectados y se comunican entre sí a través de un orquestador, que es el que determina el flujo de la herramienta y el que procesa los parámetros introducidos por el usuario a través de la línea de comandos. Para validar el comportamiento de la herramienta, se ha implementado una API de prueba que simula un entorno NoSQL vulnerable y controlado, que contiene múltiples configuraciones para poder validar las diferentes funcionalidades implementadas. El sistema informático desarrollado está orientado principalmente a profesionales del ámbito de la ciberseguridad, como pentesters, auditores o analistas, que necesiten realizar análisis de seguridad en entornos MongoDB. Además, la modularidad de la herramienta desarrollada facilita su mantenimiento y ampliación, ya que cada componente trabaja de forma independiente.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Viqueira Hierro, Bernardo Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Viqueira Hierro, Bernardo Cotutoría
Tribunal
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
Diseño e implementación de aplicación de gestión de actividades para Ludibot
Autoría
C.R.R.
Grao en Ingeniería Informática (2ªed)
C.R.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
20.02.2025 16:00
20.02.2025 16:00
Resumen
En un trabajo desarrollado por un compañero hace un par de cursos, se diseñó un skill para poder comunicarnos con el robot Ludibot de Furhat. La aplicación web consiste en un servidor al que los usuarios puedan acceder para diseñar las sesiones que quieren llevar a cabo en el ordenador. Otra opción para los usuarios de esta web será la posibilidad de lanzar las sesiones desde la propia web para así evitar problemas cargando la sesión. Finalmente, el último apartado creado en la aplicación sería el módulo de estadísticas, donde podrían ver los resultados de la ejecución de la sesión.
En un trabajo desarrollado por un compañero hace un par de cursos, se diseñó un skill para poder comunicarnos con el robot Ludibot de Furhat. La aplicación web consiste en un servidor al que los usuarios puedan acceder para diseñar las sesiones que quieren llevar a cabo en el ordenador. Otra opción para los usuarios de esta web será la posibilidad de lanzar las sesiones desde la propia web para así evitar problemas cargando la sesión. Finalmente, el último apartado creado en la aplicación sería el módulo de estadísticas, donde podrían ver los resultados de la ejecución de la sesión.
Dirección
CATALA BOLOS, ALEJANDRO (Tutoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotutoría
CATALA BOLOS, ALEJANDRO (Tutoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotutoría
Tribunal
CATALA BOLOS, ALEJANDRO (Tutor del alumno)
CONDORI FERNANDEZ, OLINDA NELLY (Tutor del alumno)
CATALA BOLOS, ALEJANDRO (Tutor del alumno)
CONDORI FERNANDEZ, OLINDA NELLY (Tutor del alumno)
Planta de producción de dimetilcarbonato a partir de monóxido de carbono
Autoría
S.S.P.
Grado en Ingeniería Química
S.S.P.
Grado en Ingeniería Química
Fecha de la defensa
15.09.2025 17:00
15.09.2025 17:00
Resumen
El trabajo consiste en el diseño de una planta de producción de dimetilcarbonato a partir de metanol y monóxido de carbono. Tiene una capacidad de producción de 35.000 toneladas por año y una pureza del porducto del 99 por ciento másica. Los equipos más destacados del trabajo son el reactor R-201, diseñado por Samuel Santiago Pose y la columna de destilación T-304, diseñada por Pablo Moreno Piñeiro.
El trabajo consiste en el diseño de una planta de producción de dimetilcarbonato a partir de metanol y monóxido de carbono. Tiene una capacidad de producción de 35.000 toneladas por año y una pureza del porducto del 99 por ciento másica. Los equipos más destacados del trabajo son el reactor R-201, diseñado por Samuel Santiago Pose y la columna de destilación T-304, diseñada por Pablo Moreno Piñeiro.
Dirección
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
Tribunal
CARBALLA ARCOS, MARTA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
EIBES GONZALEZ, GEMMA MARIA (Vocal)
CARBALLA ARCOS, MARTA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
EIBES GONZALEZ, GEMMA MARIA (Vocal)
Aplicación móvil para la gestión de reservas canceladas de última hora.
Autoría
M.S.L.
Grao en Ingeniería Informática (2ªed)
M.S.L.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
16.09.2025 11:15
16.09.2025 11:15
Resumen
En este proyecto se busca proporcionar una solución al problema que generan las reservas de restaurantes canceladas de última hora en los establecimientos, ocasionando pérdidas de negocio al no ser capaces de ocupar dichas plazas libres. Para ello se decidió iniciar el desarrollo de una aplicación de gestión de reservas que han sido canceladas de último momento. Su principal aportación respecto a aplicaciones de reservas similares es el hecho de que se centra específicamente en las cancelaciones, facilitando la búsqueda de restaurantes con plazas libres mediante actualizaciones en tiempo real y el envío de notificaciones a los usuarios cercanos. Al centrarse en este uso específico, el diseño de la aplicación visibiliza huecos que serían más complicados de cubrir en una aplicación de reservas tradicional, ya que requerirían una comprobación constante de la disponibilidad de los establecimientos. De este modo el restaurante obtiene una segunda oportunidad de cubrir el hueco y el cliente consigue una opción de encontrar mesa con mayor facilidad. De este modo se ha especificado, diseñado, implementado y probado el correcto funcionamiento de los apartados de la aplicación, dando lugar a una aplicación que permite a los restaurantes la subida de cancelaciones y las ofrece y comunica a los clientes de forma sencilla y dinámica, que cumple con todos los objetivos propuestos al inicio del desarrollo.
En este proyecto se busca proporcionar una solución al problema que generan las reservas de restaurantes canceladas de última hora en los establecimientos, ocasionando pérdidas de negocio al no ser capaces de ocupar dichas plazas libres. Para ello se decidió iniciar el desarrollo de una aplicación de gestión de reservas que han sido canceladas de último momento. Su principal aportación respecto a aplicaciones de reservas similares es el hecho de que se centra específicamente en las cancelaciones, facilitando la búsqueda de restaurantes con plazas libres mediante actualizaciones en tiempo real y el envío de notificaciones a los usuarios cercanos. Al centrarse en este uso específico, el diseño de la aplicación visibiliza huecos que serían más complicados de cubrir en una aplicación de reservas tradicional, ya que requerirían una comprobación constante de la disponibilidad de los establecimientos. De este modo el restaurante obtiene una segunda oportunidad de cubrir el hueco y el cliente consigue una opción de encontrar mesa con mayor facilidad. De este modo se ha especificado, diseñado, implementado y probado el correcto funcionamiento de los apartados de la aplicación, dando lugar a una aplicación que permite a los restaurantes la subida de cancelaciones y las ofrece y comunica a los clientes de forma sencilla y dinámica, que cumple con todos los objetivos propuestos al inicio del desarrollo.
Dirección
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Ménguez Álvarez, Guillermo Cotutoría
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Ménguez Álvarez, Guillermo Cotutoría
Tribunal
Losada Carril, David Enrique (Presidente/a)
VILLARROYA FERNANDEZ, SEBASTIAN (Secretario/a)
Taboada González, José Ángel (Vocal)
Losada Carril, David Enrique (Presidente/a)
VILLARROYA FERNANDEZ, SEBASTIAN (Secretario/a)
Taboada González, José Ángel (Vocal)
Planta de producción de acetato de vinilo (monómero)
Autoría
D.S.S.
Grado en Ingeniería Química
D.S.S.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 09:30
16.07.2025 09:30
Resumen
El presente proyecto consta de la elaboración de una planta de producción de acetato de vinilo (monómero). Este producto químico es muy demandado a nivel industrial debido a todos los usos que este posee. Principalmente, se utiliza para la creación de polímeros como el PVA o el PVP. Para su elaboración, se utilizó como materia prima el etileno, el ácido acético y el oxígeno. El proceso se caracteriza por realizarse en fase gaseosa. El proyecto fue realizado por los estudiantes Darío Senín Sotelo y Alberto Pisco Domínguez, que diseñaron, respectivamente, el reactor catalítico heterogéneo multitubular R-201 y la columna de absorción física T-302.
El presente proyecto consta de la elaboración de una planta de producción de acetato de vinilo (monómero). Este producto químico es muy demandado a nivel industrial debido a todos los usos que este posee. Principalmente, se utiliza para la creación de polímeros como el PVA o el PVP. Para su elaboración, se utilizó como materia prima el etileno, el ácido acético y el oxígeno. El proceso se caracteriza por realizarse en fase gaseosa. El proyecto fue realizado por los estudiantes Darío Senín Sotelo y Alberto Pisco Domínguez, que diseñaron, respectivamente, el reactor catalítico heterogéneo multitubular R-201 y la columna de absorción física T-302.
Dirección
Rodríguez Figueiras, Óscar (Tutoría)
Rodríguez Figueiras, Óscar (Tutoría)
Tribunal
CARBALLA ARCOS, MARTA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
EIBES GONZALEZ, GEMMA MARIA (Vocal)
CARBALLA ARCOS, MARTA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
EIBES GONZALEZ, GEMMA MARIA (Vocal)
Estado del arte de las herramientas de pentesting WiFi mediante la metodología OWISAM
Autoría
L.S.L.
Grao en Ingeniería Informática (2ªed)
L.S.L.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
El presente Trabajo de Fin de Grado (TFG) se ha centrado en la actualización y mejora de la metodología OWISAM (Open Wireless Security Assessment Methodology), para auditorías de seguridad en redes inalámbricas. El proyecto ha sido desarrollado en colaboración con Tarlogic Security, empresa autora desde 2013. El objetivo principal consistió en actualizar los contenidos para incluir las amenazas y tecnologías más recientes, y paralelamente, desarrollar una nueva plataforma web basada en Jekyll que mejora significativamente la accesibilidad, mantenibilidad y experiencia de usuario respecto a la implementación original. Entre las principales contribuciones del trabajo destacan la actualización de los 64 controles técnicos organizados en 10 categorías y la implementación de una interfaz moderna y responsiva. La nueva plataforma ha superado con éxito los objetivos de rendimiento, accesibilidad y usabilidad establecidos. Este trabajo de fin de grado no solo ha modernizado una herramienta clave para la comunidad de ciberseguridad, sino que también establece las bases para su mantenimiento, facilitando la colaboración abierta y una evolución continua de sus contenidos.
El presente Trabajo de Fin de Grado (TFG) se ha centrado en la actualización y mejora de la metodología OWISAM (Open Wireless Security Assessment Methodology), para auditorías de seguridad en redes inalámbricas. El proyecto ha sido desarrollado en colaboración con Tarlogic Security, empresa autora desde 2013. El objetivo principal consistió en actualizar los contenidos para incluir las amenazas y tecnologías más recientes, y paralelamente, desarrollar una nueva plataforma web basada en Jekyll que mejora significativamente la accesibilidad, mantenibilidad y experiencia de usuario respecto a la implementación original. Entre las principales contribuciones del trabajo destacan la actualización de los 64 controles técnicos organizados en 10 categorías y la implementación de una interfaz moderna y responsiva. La nueva plataforma ha superado con éxito los objetivos de rendimiento, accesibilidad y usabilidad establecidos. Este trabajo de fin de grado no solo ha modernizado una herramienta clave para la comunidad de ciberseguridad, sino que también establece las bases para su mantenimiento, facilitando la colaboración abierta y una evolución continua de sus contenidos.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
TARASCO ACUÑA, MIGUEL Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
TARASCO ACUÑA, MIGUEL Cotutoría
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Análisis y visualización de emociones en foros para la detección de síntomas de adicciónn al juego
Autoría
D.S.V.
Grao en Ingeniería Informática (2ªed)
D.S.V.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 11:30
17.07.2025 11:30
Resumen
Se presenta una herramienta web orientada al análisis emocional y semántico de textos, que permite a los usuarios definir consultas personalizadas y visualizar los resultados de forma clara e intuitiva. La aplicación facilita el procesamiento configurable de textos, priorizando la experiencia de usuario, la modularidad del sistema y su capacidad de extensión hacia nuevos escenarios de análisis. El sistema se ha construido sobre una arquitectura cliente-servidor basada en el paradigma hexagonal, que favorece la separación de responsabilidades y la adaptabilidad, utilizando Python y el framework FastAPI para el backend y tecnologías web estándar para el frontend. Entre sus funcionalidades, permite la carga de archivos en formato .csv, el filtrado de textos mediante consultas específicas con umbrales de tolerancia, la ejecución de análisis emocionales y la visualización de resultados personalizados mediante filtros interactivos. A nivel técnico, incorpora modelos de análisis emocional y recuperación semántica estructurados mediante patrones de diseño como Strategy, Factory, Decorator y Facade, lo que garantiza la extensibilidad y mantenibilidad del código. Además, integra un sistema de autenticación y gestión de usuarios mediante JWT, control de acceso seguro y persistencia de datos en una base de datos relacional PostgreSQL, cumpliendo con requisitos de seguridad y trazabilidad. La herramienta ha sido diseñada siguiendo principios de escalabilidad y separación de responsabilidades (presentación, lógica de negocio y datos), y su funcionalidad ha sido verificada mediante pruebas unitarias, de integración y de usabilidad sobre casos de uso reales, lo que permite sentar las bases para su evolución futura. Este proyecto se enmarca dentro del tipo B de Trabajo de Fin de Grado, abarcando la especificación, diseño e implementación de un sistema completo, modular y extensible, cuya versatilidad lo hace aplicable tanto en contextos académicos como en entornos prácticos de procesamiento del lenguaje natural.
Se presenta una herramienta web orientada al análisis emocional y semántico de textos, que permite a los usuarios definir consultas personalizadas y visualizar los resultados de forma clara e intuitiva. La aplicación facilita el procesamiento configurable de textos, priorizando la experiencia de usuario, la modularidad del sistema y su capacidad de extensión hacia nuevos escenarios de análisis. El sistema se ha construido sobre una arquitectura cliente-servidor basada en el paradigma hexagonal, que favorece la separación de responsabilidades y la adaptabilidad, utilizando Python y el framework FastAPI para el backend y tecnologías web estándar para el frontend. Entre sus funcionalidades, permite la carga de archivos en formato .csv, el filtrado de textos mediante consultas específicas con umbrales de tolerancia, la ejecución de análisis emocionales y la visualización de resultados personalizados mediante filtros interactivos. A nivel técnico, incorpora modelos de análisis emocional y recuperación semántica estructurados mediante patrones de diseño como Strategy, Factory, Decorator y Facade, lo que garantiza la extensibilidad y mantenibilidad del código. Además, integra un sistema de autenticación y gestión de usuarios mediante JWT, control de acceso seguro y persistencia de datos en una base de datos relacional PostgreSQL, cumpliendo con requisitos de seguridad y trazabilidad. La herramienta ha sido diseñada siguiendo principios de escalabilidad y separación de responsabilidades (presentación, lógica de negocio y datos), y su funcionalidad ha sido verificada mediante pruebas unitarias, de integración y de usabilidad sobre casos de uso reales, lo que permite sentar las bases para su evolución futura. Este proyecto se enmarca dentro del tipo B de Trabajo de Fin de Grado, abarcando la especificación, diseño e implementación de un sistema completo, modular y extensible, cuya versatilidad lo hace aplicable tanto en contextos académicos como en entornos prácticos de procesamiento del lenguaje natural.
Dirección
CONDORI FERNANDEZ, OLINDA NELLY (Tutoría)
ARAGON SAENZPARDO, MARIO EZRA Cotutoría
CONDORI FERNANDEZ, OLINDA NELLY (Tutoría)
ARAGON SAENZPARDO, MARIO EZRA Cotutoría
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Gateway: Plataforma web para la planificación formativa
Autoría
S.S.P.
Grao en Ingeniería Informática (2ªed)
S.S.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 12:00
17.07.2025 12:00
Resumen
Este Trabajo de Fin de Grado tiene como principal aportación el desarrollo de una aplicación web que ayuda a los usuarios a planificar su formación en función de sus objetivos profesionales. La plataforma permite recibir recomendaciones personalizadas de cursos, organizar un plan formativo y hacer seguimiento del progreso individual. Además, el sistema incluye funciones clave como el registro de usuarios, la gestión del perfil personal, la visualización de itinerarios formativos y la posibilidad de guardar o marcar recursos como completados. Todo ello está orientado a ofrecer una herramienta útil para quienes desean aprender de forma autónoma, especialmente en procesos de mejora profesional.
Este Trabajo de Fin de Grado tiene como principal aportación el desarrollo de una aplicación web que ayuda a los usuarios a planificar su formación en función de sus objetivos profesionales. La plataforma permite recibir recomendaciones personalizadas de cursos, organizar un plan formativo y hacer seguimiento del progreso individual. Además, el sistema incluye funciones clave como el registro de usuarios, la gestión del perfil personal, la visualización de itinerarios formativos y la posibilidad de guardar o marcar recursos como completados. Todo ello está orientado a ofrecer una herramienta útil para quienes desean aprender de forma autónoma, especialmente en procesos de mejora profesional.
Dirección
GARCIA TAHOCES, PABLO (Tutoría)
García Cortés, Mayra Cotutoría
GARCIA TAHOCES, PABLO (Tutoría)
García Cortés, Mayra Cotutoría
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Planta de producción de alcohol alílico por hidrólisis de acetato de alilo
Autoría
A.S.B.
Grado en Ingeniería Química
A.S.B.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:30
16.07.2025 12:30
Resumen
El presente proyecto tiene como finalidad el diseño de una planta de producción 90.000 toneladas al año de alcohol alílico con una pureza del 100 %. La producción se realizará de forma continua las 24 horas del día, durante 330 días al año. La obtención del alcohol alílico se llevará a cabo mediante la hidrólisis catalítica del ace-tato de alilo. En sí, el proceso se basará en hacer reaccionar las materias primas acetato de alilo y agua en un reactor de lecho fijo, en cuyo interior se encontrará un catalizador de tipo resina ácida de intercambio iónico. Como resultado de la reacción, saldrá del reac-tor una corriente formada por alcohol alílico (producto principal), ácido acético (subpro-ducto) y las materias primas no reaccionadas. Todas las substancias químicas de la corriente anterior serán separadas usando equipos de separación tales como columnas de destilación simple y una columna de destilación extractiva. Una de las columnas de destilación simple del proceso, concretamente la si-tuada despues de la columna de destilación extractiva, será el equipo que se diseñe en detalle y el resto se dimensionarán. Además, como finalidad principal de la realización del Trabajo Fin de Grado, la alumna Ana Suárez Barreiro opta a obtener el título del grado de Ingeniería Química.
El presente proyecto tiene como finalidad el diseño de una planta de producción 90.000 toneladas al año de alcohol alílico con una pureza del 100 %. La producción se realizará de forma continua las 24 horas del día, durante 330 días al año. La obtención del alcohol alílico se llevará a cabo mediante la hidrólisis catalítica del ace-tato de alilo. En sí, el proceso se basará en hacer reaccionar las materias primas acetato de alilo y agua en un reactor de lecho fijo, en cuyo interior se encontrará un catalizador de tipo resina ácida de intercambio iónico. Como resultado de la reacción, saldrá del reac-tor una corriente formada por alcohol alílico (producto principal), ácido acético (subpro-ducto) y las materias primas no reaccionadas. Todas las substancias químicas de la corriente anterior serán separadas usando equipos de separación tales como columnas de destilación simple y una columna de destilación extractiva. Una de las columnas de destilación simple del proceso, concretamente la si-tuada despues de la columna de destilación extractiva, será el equipo que se diseñe en detalle y el resto se dimensionarán. Además, como finalidad principal de la realización del Trabajo Fin de Grado, la alumna Ana Suárez Barreiro opta a obtener el título del grado de Ingeniería Química.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
RODIL RODRIGUEZ, EVA (Tutoría)
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
González Álvarez, Julia (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
González Álvarez, Julia (Vocal)
Planta de producción de acrilonitrilo
Autoría
H.S.B.
Grado en Ingeniería Química
H.S.B.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:40
16.07.2025 10:40
Resumen
El objetivo de este TFG es el diseño de una planta de producción de 50.000 toneladas anuales de acrilonitrilo. Este compuesto tiene un gran uso a nivel industrial. Se emplea comúnmente para producir fibras sintéticas, plásticos, resinas y para la síntesis de otros químicos. Este producto se obtiene mediante la reacción de amoxidación del propileno, amoníaco y oxígeno, conocido como proceso Sohio. Los principales productos de reacción son: el acrilonitrilo, HCN, acetonitrilo, agua, dióxido de carbono y monóxido de carbono. La reacción tendrá lugar en un reactor de lecho fluidizado con un catalizador óxido de bismuto molibdeno soportado en alúmina, posteriormente, los productos de reacción pasarán por un absorbedor (empleando agua como disolvente) para recuperar la mayor cantidad de acrilonitrilo posible, y finalmente, los productos pasarán por un tren de columnas de destilación, cuyo objetivo principal es la separación y purificación a un 99,7% de pureza del acrilonitrilo.
El objetivo de este TFG es el diseño de una planta de producción de 50.000 toneladas anuales de acrilonitrilo. Este compuesto tiene un gran uso a nivel industrial. Se emplea comúnmente para producir fibras sintéticas, plásticos, resinas y para la síntesis de otros químicos. Este producto se obtiene mediante la reacción de amoxidación del propileno, amoníaco y oxígeno, conocido como proceso Sohio. Los principales productos de reacción son: el acrilonitrilo, HCN, acetonitrilo, agua, dióxido de carbono y monóxido de carbono. La reacción tendrá lugar en un reactor de lecho fluidizado con un catalizador óxido de bismuto molibdeno soportado en alúmina, posteriormente, los productos de reacción pasarán por un absorbedor (empleando agua como disolvente) para recuperar la mayor cantidad de acrilonitrilo posible, y finalmente, los productos pasarán por un tren de columnas de destilación, cuyo objetivo principal es la separación y purificación a un 99,7% de pureza del acrilonitrilo.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
JSONSchema2SHACL: Extracción y traducción de restricciones para grafos de conocimiento.
Autoría
O.S.M.
Grao en Ingeniería Informática (2ªed)
O.S.M.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
21.02.2025 10:00
21.02.2025 10:00
Resumen
El trabajo de fin de grado consiste en el desarrollo de una librería en Python que permita la extracción de restricciones sobre datos en JSON a partir de un esquema dado en JSONSchema (https://json- schema.org/). Una vez identificadas esas restricciones se deberán traducir a SHACL Shapes (https://www.w3.org/TR/shacl/) para la validación de grafos de conocimiento construidos a partir de datos de entrada en JSON. Todo el desarrollo será acompañado de un conjunto de pruebas unitarias con el fin de mantener una cobertura del código superior al 80%. Las pruebas se integrarán en el sistema de CI/CD del repositorio público de la herramienta y la herramienta estará disponible en PyPI. El desarrollo formará parte de un sistema más global capaz de extraer y combinar SHACL shapes de diversas fuentes, como XSD, CSVW, OWL o RDB, ayudando a los ingenieros del conocimiento a reducir el trabajo manual en la generación de estas restricciones.
El trabajo de fin de grado consiste en el desarrollo de una librería en Python que permita la extracción de restricciones sobre datos en JSON a partir de un esquema dado en JSONSchema (https://json- schema.org/). Una vez identificadas esas restricciones se deberán traducir a SHACL Shapes (https://www.w3.org/TR/shacl/) para la validación de grafos de conocimiento construidos a partir de datos de entrada en JSON. Todo el desarrollo será acompañado de un conjunto de pruebas unitarias con el fin de mantener una cobertura del código superior al 80%. Las pruebas se integrarán en el sistema de CI/CD del repositorio público de la herramienta y la herramienta estará disponible en PyPI. El desarrollo formará parte de un sistema más global capaz de extraer y combinar SHACL shapes de diversas fuentes, como XSD, CSVW, OWL o RDB, ayudando a los ingenieros del conocimiento a reducir el trabajo manual en la generación de estas restricciones.
Dirección
CHAVES FRAGA, DAVID (Tutoría)
CHAVES FRAGA, DAVID (Tutoría)
Tribunal
CHAVES FRAGA, DAVID (Tutor del alumno)
CHAVES FRAGA, DAVID (Tutor del alumno)
Introducción al aprendizaje por refuerzo
Autoría
R.T.L.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
R.T.L.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 11:25
17.07.2025 11:25
Resumen
Este trabajo presenta una introducción al aprendizaje por refuerzo desde una perspectiva matemática, haciendo especial énfasis en su conexión con la programación dinámica. Aunque el aprendizaje por refuerzo es un campo autónomo dentro de la inteligencia artificial, muchas de sus ideas fundamentales (como la toma de decisiones secuenciales, las funciones de utilidad o las políticas óptimas) tienen su origen en la programación dinámica. Por ello, se comienza el estudio abordando la programación dinámica como nexo conceptual y formal que permite sentar las bases del aprendizaje por refuerzo. Una vez finalizada la programación dinámica, se procederá a narrar los aspectos más importantes del aprendizaje por refuerzo. Para su comprensión será esencial comprender los procesos de decisión de Markov. También se discuten temas que derivan de este paradigma, como el dilema exploración explotación o el estudio de distintos algoritmos de resolución como son Monte Carlo y el aprendizaje por diferencias temporales. Por último, se quiere ver cómo el aprendizaje por refuerzo puede resultar una herramienta muy útil en el ámbito de la optimización matemática. Para ello se abordan distintos tipos de problemas clásicos de optimización, describiendo cómo se han de reformular para que encajen dentro del marco del aprendizaje por refuerzo, lo que permite aplicar sus algoritmos a problemas complejos que no se resuelven fácilmente por métodos tradicionales.
Este trabajo presenta una introducción al aprendizaje por refuerzo desde una perspectiva matemática, haciendo especial énfasis en su conexión con la programación dinámica. Aunque el aprendizaje por refuerzo es un campo autónomo dentro de la inteligencia artificial, muchas de sus ideas fundamentales (como la toma de decisiones secuenciales, las funciones de utilidad o las políticas óptimas) tienen su origen en la programación dinámica. Por ello, se comienza el estudio abordando la programación dinámica como nexo conceptual y formal que permite sentar las bases del aprendizaje por refuerzo. Una vez finalizada la programación dinámica, se procederá a narrar los aspectos más importantes del aprendizaje por refuerzo. Para su comprensión será esencial comprender los procesos de decisión de Markov. También se discuten temas que derivan de este paradigma, como el dilema exploración explotación o el estudio de distintos algoritmos de resolución como son Monte Carlo y el aprendizaje por diferencias temporales. Por último, se quiere ver cómo el aprendizaje por refuerzo puede resultar una herramienta muy útil en el ámbito de la optimización matemática. Para ello se abordan distintos tipos de problemas clásicos de optimización, describiendo cómo se han de reformular para que encajen dentro del marco del aprendizaje por refuerzo, lo que permite aplicar sus algoritmos a problemas complejos que no se resuelven fácilmente por métodos tradicionales.
Dirección
GONZALEZ DIAZ, JULIO (Tutoría)
GONZALEZ DIAZ, JULIO (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Aplicación móvil para el aprendizaje de educación auditiva musical
Autoría
R.T.L.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
R.T.L.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 12:30
17.07.2025 12:30
Resumen
En este trabajo se describirá el proceso de creación de una aplicación móvil para el aprendizaje de la educación auditiva musical. Se comenzará realizando un estudio preliminar donde exploraremos el potencial de la idea. Veremos quién puede estar interesa en la aplicación y por qué está interesado. Además se planteará un modelo de negocio, ya que una aplicación es muy fácil de introducirla en el mercado. Especificaremos los requisitos que determinarán la Luego dedicaremos un capítulo a la ingeniería del software, explicando el modelo de ciclo de vida, narrando la planificación que se llevó a cabo. También definiremos los casos de uso de los requisitos funcionales antes definidos. Pasamos al diseño, donde se explican muchos diseños distintos, el de la interfaz gráfica, la arquitectura y el software. Para acabar explicaremos el plan de pruebas y determinaremos el éxito o fracaso del proyecto
En este trabajo se describirá el proceso de creación de una aplicación móvil para el aprendizaje de la educación auditiva musical. Se comenzará realizando un estudio preliminar donde exploraremos el potencial de la idea. Veremos quién puede estar interesa en la aplicación y por qué está interesado. Además se planteará un modelo de negocio, ya que una aplicación es muy fácil de introducirla en el mercado. Especificaremos los requisitos que determinarán la Luego dedicaremos un capítulo a la ingeniería del software, explicando el modelo de ciclo de vida, narrando la planificación que se llevó a cabo. También definiremos los casos de uso de los requisitos funcionales antes definidos. Pasamos al diseño, donde se explican muchos diseños distintos, el de la interfaz gráfica, la arquitectura y el software. Para acabar explicaremos el plan de pruebas y determinaremos el éxito o fracaso del proyecto
Dirección
TOBAR QUINTANAR, ALEJANDRO JOSE (Tutoría)
TOBAR QUINTANAR, ALEJANDRO JOSE (Tutoría)
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Anotación de objetos con técnicas zero-shot
Autoría
L.T.H.
Grao en Ingeniería Informática (2ªed)
L.T.H.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
Uno de los problemas más prominentes en el área de la inteligencia artificial y, específicamente, de la visión por computador, es la necesidad de construir conjuntos de datos extensos de calidad para el entrenamiento de los modelos predictores. Obtener estos conjuntos de datos es una tarea compleja y costosa si no existen conjuntos disponibles al público que se ajusten a las necesidades específicas del modelo. Para problemas de visión por computador, esto puede conllevar la recopilación y etiquetado manual de cientos de miles de imágenes. Es por esto que la aparición de técnicas de aprendizaje zero-shot, donde no se necesitan ejemplos etiquetados para el entrenamiento del modelo de IA, resulta de especial interés para este campo. El objetivo principal de este TFG consiste en la investigación de la anotación de objetos mediante técnicas zero-shot, utilizando un detector de objetos zero-shot para generar pseudo-etiquetas sin necesidad de datos anotados manualmente. Estas pseudo-etiquetas se emplearán posteriormente para entrenar un detector convencional de manera supervisada. Mediante las pruebas realizadas, se evaluará si las pseudo-etiquetas generadas tienen una calidad suficiente en comparación con los resultados obtenidos mediante las etiquetas reales. Los resultados obtenidos evidencian que, efectivamente, las pseudo-etiquetas generadas automáticamente mediante el uso de modelos zero-shot permiten entrenar detectores supervisados con un rendimiento cercano al de modelos entrenados con etiquetas reales.
Uno de los problemas más prominentes en el área de la inteligencia artificial y, específicamente, de la visión por computador, es la necesidad de construir conjuntos de datos extensos de calidad para el entrenamiento de los modelos predictores. Obtener estos conjuntos de datos es una tarea compleja y costosa si no existen conjuntos disponibles al público que se ajusten a las necesidades específicas del modelo. Para problemas de visión por computador, esto puede conllevar la recopilación y etiquetado manual de cientos de miles de imágenes. Es por esto que la aparición de técnicas de aprendizaje zero-shot, donde no se necesitan ejemplos etiquetados para el entrenamiento del modelo de IA, resulta de especial interés para este campo. El objetivo principal de este TFG consiste en la investigación de la anotación de objetos mediante técnicas zero-shot, utilizando un detector de objetos zero-shot para generar pseudo-etiquetas sin necesidad de datos anotados manualmente. Estas pseudo-etiquetas se emplearán posteriormente para entrenar un detector convencional de manera supervisada. Mediante las pruebas realizadas, se evaluará si las pseudo-etiquetas generadas tienen una calidad suficiente en comparación con los resultados obtenidos mediante las etiquetas reales. Los resultados obtenidos evidencian que, efectivamente, las pseudo-etiquetas generadas automáticamente mediante el uso de modelos zero-shot permiten entrenar detectores supervisados con un rendimiento cercano al de modelos entrenados con etiquetas reales.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
Tribunal
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
Planta de producción de anilina a partir de nitrobenceno
Autoría
P.T.B.
Grado en Ingeniería Química
P.T.B.
Grado en Ingeniería Química
Fecha de la defensa
15.09.2025 09:30
15.09.2025 09:30
Resumen
Para el diseño de una planta de producción de anilina a partir de nitrobenceno e hidrógeno, se divide el proceso de producción en tres secciones: Almacenamiento: Está compuesta por los tanques para almacenar las materias primas, y bombas e intercambiadores de calor para lograr tener la corriente de entrada al reactor a las condiciones de presión y temperatura necesarias. Reacción: Esta sección cuenta con un reactor catalítico multitubular de funcionamiento isotérmico. La reacción que ocurre dentro del reactor es la producida por hidrógeno y nitrobenceno para dar anilina y agua. La reacción se lleva a cabo en fase gas. Este reactor será diseñado por Pablo Trabazo Barros. Separación: Esta sección se compone de un separador trifásico y dos columnas de destilación, cuya función es separar los distintos productos, así como materias primas que no reaccionasen, para obtener la anilina con la pureza deseada. La primera de las dos columnas de destilación será diseñada por Eva Martín Trebolle.
Para el diseño de una planta de producción de anilina a partir de nitrobenceno e hidrógeno, se divide el proceso de producción en tres secciones: Almacenamiento: Está compuesta por los tanques para almacenar las materias primas, y bombas e intercambiadores de calor para lograr tener la corriente de entrada al reactor a las condiciones de presión y temperatura necesarias. Reacción: Esta sección cuenta con un reactor catalítico multitubular de funcionamiento isotérmico. La reacción que ocurre dentro del reactor es la producida por hidrógeno y nitrobenceno para dar anilina y agua. La reacción se lleva a cabo en fase gas. Este reactor será diseñado por Pablo Trabazo Barros. Separación: Esta sección se compone de un separador trifásico y dos columnas de destilación, cuya función es separar los distintos productos, así como materias primas que no reaccionasen, para obtener la anilina con la pureza deseada. La primera de las dos columnas de destilación será diseñada por Eva Martín Trebolle.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
González Álvarez, Julia (Presidente/a)
GOMEZ DIAZ, DIEGO (Secretario/a)
GIL GONZALEZ, ALVARO (Vocal)
González Álvarez, Julia (Presidente/a)
GOMEZ DIAZ, DIEGO (Secretario/a)
GIL GONZALEZ, ALVARO (Vocal)
Uso de grafos convolusionales para el problema de la predicción de tiempos restantes en minería de procesos.
Autoría
A.T.S.
Grao en Ingeniería Informática (2ªed)
A.T.S.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
16.09.2025 11:45
16.09.2025 11:45
Resumen
La minería de procesos consiste principalmente en el estudio de los datos obtenidos en historiales y registros de eventos, y en la aplicación de las conclusiones extraídas de estos. El estudio de tendencias, patrones y localización de puntos críticos en los datos se realiza con metas como la optimización de procesos, dentro de la cual forma parte la predicción de tiempos restantes basada en datos de procesos incompletos. La representación de información en grafos permite capturar relaciones estructurales entre datos, y la incorporación de métodos de paso de mensajes implica a los nodos individuales en un contexto donde los valores asociados a cada uno de ellos también representen a los nodos que lo rodean. Con estos datos como base, el siguiente trabajo explora diversas modificaciones sobre una arquitectura basada en grafos, la cual se centra en la incorporación a cada nodo de información procedente de procesos externos a la secuencia principal. Además, se analiza la aplicación de esta arquitectura a múltiples conjuntos de datos, así como diferentes modelos de aprendizaje automático basados en redes convolucionales para obtener predicciones de los tiempos restantes de un proceso en ejecución. Como resultado del trabajo, se logran ubicar trazas en los diferentes conjuntos que permiten entender parte de las fortalezas y debilidades de cada modelo, y se obtienen medidas de error competentes conforme al estado del arte.
La minería de procesos consiste principalmente en el estudio de los datos obtenidos en historiales y registros de eventos, y en la aplicación de las conclusiones extraídas de estos. El estudio de tendencias, patrones y localización de puntos críticos en los datos se realiza con metas como la optimización de procesos, dentro de la cual forma parte la predicción de tiempos restantes basada en datos de procesos incompletos. La representación de información en grafos permite capturar relaciones estructurales entre datos, y la incorporación de métodos de paso de mensajes implica a los nodos individuales en un contexto donde los valores asociados a cada uno de ellos también representen a los nodos que lo rodean. Con estos datos como base, el siguiente trabajo explora diversas modificaciones sobre una arquitectura basada en grafos, la cual se centra en la incorporación a cada nodo de información procedente de procesos externos a la secuencia principal. Además, se analiza la aplicación de esta arquitectura a múltiples conjuntos de datos, así como diferentes modelos de aprendizaje automático basados en redes convolucionales para obtener predicciones de los tiempos restantes de un proceso en ejecución. Como resultado del trabajo, se logran ubicar trazas en los diferentes conjuntos que permiten entender parte de las fortalezas y debilidades de cada modelo, y se obtienen medidas de error competentes conforme al estado del arte.
Dirección
LAMA PENIN, MANUEL (Tutoría)
VIDAL AGUIAR, JUAN CARLOS Cotutoría
Suárez Barro, Noel Cotutoría
LAMA PENIN, MANUEL (Tutoría)
VIDAL AGUIAR, JUAN CARLOS Cotutoría
Suárez Barro, Noel Cotutoría
Tribunal
Losada Carril, David Enrique (Presidente/a)
VILLARROYA FERNANDEZ, SEBASTIAN (Secretario/a)
Taboada González, José Ángel (Vocal)
Losada Carril, David Enrique (Presidente/a)
VILLARROYA FERNANDEZ, SEBASTIAN (Secretario/a)
Taboada González, José Ángel (Vocal)
Planta de producción de acrilonitrilo
Autoría
L.V.B.
Grado en Ingeniería Química
L.V.B.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:40
16.07.2025 10:40
Resumen
O obxectivo deste TFG é deseño dunha planta de produción de 50.000 toneladas anuais de acrilonitrilo. Este composto ten un gran uso a nivel industrial. Emprégase conunmente para producir fibras sintéticas, plásticos, resinas e para a síntese doutros químicos. Este producto obtense mediante a reacción de amoxidación do propileno, amoniaco e osíxeno, coñecido como proceso Sohio. Os principais produtos de reacción son: o acrilonitrilo, HCN, acetonitrilo, auga, dióxido de carbono e monóxido de carbono. A reacción terá lugar nun reactor de leito fluidizado cun catalizador de óxido de bismuto molibdeno soportado en alúmina. Posteriormente, os produtos de reacción pasarán por un absorbedor (empregando auga como disolvente) para recuperar a maior cantidade de acrilonitrilo posible, e finalmente, os produtos pasarán por un tren de columnas de destilación cuxo obxectivo principal é a separación e recuperación a un 99,7% de pureza do acrilonitrilo.
O obxectivo deste TFG é deseño dunha planta de produción de 50.000 toneladas anuais de acrilonitrilo. Este composto ten un gran uso a nivel industrial. Emprégase conunmente para producir fibras sintéticas, plásticos, resinas e para a síntese doutros químicos. Este producto obtense mediante a reacción de amoxidación do propileno, amoniaco e osíxeno, coñecido como proceso Sohio. Os principais produtos de reacción son: o acrilonitrilo, HCN, acetonitrilo, auga, dióxido de carbono e monóxido de carbono. A reacción terá lugar nun reactor de leito fluidizado cun catalizador de óxido de bismuto molibdeno soportado en alúmina. Posteriormente, os produtos de reacción pasarán por un absorbedor (empregando auga como disolvente) para recuperar a maior cantidade de acrilonitrilo posible, e finalmente, os produtos pasarán por un tren de columnas de destilación cuxo obxectivo principal é a separación e recuperación a un 99,7% de pureza do acrilonitrilo.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Aplicación en Python en entorno productivo para migración y soporte entre bases de datos SQL y NoSQL.
Autoría
J.R.V.F.
Grado en Ingeniería Informática
J.R.V.F.
Grado en Ingeniería Informática
Fecha de la defensa
17.07.2025 11:30
17.07.2025 11:30
Resumen
Desarrollo de una aplicación en Python como herramienta de soporte y migración de datos entre un sistema Legacy de BBDD en SQL y un sistema nuevo en NoSQL en MongoDB. Esta herramienta permitirá la automatización de tareas repetitivas diarias sobre las bases de datos como consultas, copias de seguridad, obtención de datos de ambos sistemas sobre los mismos elementos y comparación de resultados para asegurar el correcto funcionamiento y migración de los mismos.
Desarrollo de una aplicación en Python como herramienta de soporte y migración de datos entre un sistema Legacy de BBDD en SQL y un sistema nuevo en NoSQL en MongoDB. Esta herramienta permitirá la automatización de tareas repetitivas diarias sobre las bases de datos como consultas, copias de seguridad, obtención de datos de ambos sistemas sobre los mismos elementos y comparación de resultados para asegurar el correcto funcionamiento y migración de los mismos.
Dirección
Argüello Pedreira, Francisco Santiago (Tutoría)
Argüello Pedreira, Francisco Santiago (Tutoría)
Tribunal
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
Planta de producción de cumeno a partir de benceno y propileno
Autoría
A.V.V.
Grado en Ingeniería Química
A.V.V.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:30
16.07.2025 10:30
Resumen
El cumeno, nombre común del isopropilbenceno, es un compuesto químico muy utilizado en la industria, ya que es un intermediario en la producción de productos de alto valor añadido, como el fenol y la acetona. También se emplea en la producción de óxido de propileno. Por estos motivos, se decidió llevar a cabo una planta industrial para la producción de cumeno a partir de la alquilación de benceno con la adición de propileno. El proceso consiste en una primera sección de acondicionamiento, donde entran el benceno y el propileno y se llevan a las condiciones adecuadas para llevar a cabo la reacción. La segunda sección es la del reactor, donde en un reactor catalítico ocurre la reacción de alquilación para obtener el producto deseado. A continuación, en la tercera sección, los productos obtenidos son separados y purificados mediante una serie de columnas de destilación. La última etapa es el almacenamiento de los productos separados. Alexandre Rey Baliña diseñará la columna de destilación Antón Varela Veiga diseñará el reactor
El cumeno, nombre común del isopropilbenceno, es un compuesto químico muy utilizado en la industria, ya que es un intermediario en la producción de productos de alto valor añadido, como el fenol y la acetona. También se emplea en la producción de óxido de propileno. Por estos motivos, se decidió llevar a cabo una planta industrial para la producción de cumeno a partir de la alquilación de benceno con la adición de propileno. El proceso consiste en una primera sección de acondicionamiento, donde entran el benceno y el propileno y se llevan a las condiciones adecuadas para llevar a cabo la reacción. La segunda sección es la del reactor, donde en un reactor catalítico ocurre la reacción de alquilación para obtener el producto deseado. A continuación, en la tercera sección, los productos obtenidos son separados y purificados mediante una serie de columnas de destilación. La última etapa es el almacenamiento de los productos separados. Alexandre Rey Baliña diseñará la columna de destilación Antón Varela Veiga diseñará el reactor
Dirección
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
Tribunal
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Planta de producción de hidrógeno por reformado de metano
Autoría
L.L.V.C.
Grado en Ingeniería Química
L.L.V.C.
Grado en Ingeniería Química
Fecha de la defensa
15.09.2025 15:40
15.09.2025 15:40
Resumen
El presente Trabajo de Fin de Grado tiene como objetivo el diseño de una planta para la producción de hidrógeno con una capacidad de 40 000 toneladas anuales, empleando el proceso de reformado de metano con vapor de agua. El proyecto se centra en el diseño del reactor, el cual utiliza un catalizador de níquel, a cargo de la alumna Laura Lucinda Vásquez Cardozo. Además, se contempla el diseño de una columna de absorción , desarrollado por Sara Arija García. Dado que el metano empleado ya se suministra desulfurado, no será necesario incluir una etapa de desulfuración previa. Este proyecto responde a la creciente demanda de hidrógeno en aplicaciones industriales como la producción de amoníaco y metanol.
El presente Trabajo de Fin de Grado tiene como objetivo el diseño de una planta para la producción de hidrógeno con una capacidad de 40 000 toneladas anuales, empleando el proceso de reformado de metano con vapor de agua. El proyecto se centra en el diseño del reactor, el cual utiliza un catalizador de níquel, a cargo de la alumna Laura Lucinda Vásquez Cardozo. Además, se contempla el diseño de una columna de absorción , desarrollado por Sara Arija García. Dado que el metano empleado ya se suministra desulfurado, no será necesario incluir una etapa de desulfuración previa. Este proyecto responde a la creciente demanda de hidrógeno en aplicaciones industriales como la producción de amoníaco y metanol.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
FREIRE LEIRA, MARIA SONIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
FREIRE LEIRA, MARIA SONIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
Herramienta de Análisis Interactivo del Inventario Toponímico Gallego-Portugués Antiguo
Autoría
P.V.P.
Grado en Ingeniería Informática
P.V.P.
Grado en Ingeniería Informática
Fecha de la defensa
20.02.2025 11:15
20.02.2025 11:15
Resumen
Este Trabajo de Fin de Grado (TFG) contiene la información que detalla el proceso de contrucción de un sistema informático, que tiene como objetivo el enrequecimiento del Inventario Toponímico Gallego-Portugués Antiguo (ILG). Se sustenta de cuatro pilares: - Análisis de la efectividad del Linguakit: por un lado se llevó a cabo un análisis, previo a la delimitación del ámbito del TFG, con el objetivo de determinar la dirección hacia la cuál orientar los esfuerzos. Por otra parte, se mejoró la efectividad y el empleo del Linguakit, y se creó la herramienta de análisis. - API REST: servidor REST (Java Spring Boot) que contiene la mayor parte de la lógica de negocio. - Base de datos: hereda el TFG 'Explotación del inventario toponímico gallego-portugués anitguo' de Andrea Rey Presas y que será modificada de acuerdo a las nuevas necesidades. El fin de esta herencia será complementar la funcionalidad de exploración de topónimos, desenvuelta en el susodicho TFG, con la funcionalidad de enrequecimiento que se va a realizar en este trabajo de fin de grado. - Cliente web: interfaz (ReactJS) que proporciona al usuario la posibilidad de interactuar con el sistema y así poder emplear la herramienta de análisis de topónimos.
Este Trabajo de Fin de Grado (TFG) contiene la información que detalla el proceso de contrucción de un sistema informático, que tiene como objetivo el enrequecimiento del Inventario Toponímico Gallego-Portugués Antiguo (ILG). Se sustenta de cuatro pilares: - Análisis de la efectividad del Linguakit: por un lado se llevó a cabo un análisis, previo a la delimitación del ámbito del TFG, con el objetivo de determinar la dirección hacia la cuál orientar los esfuerzos. Por otra parte, se mejoró la efectividad y el empleo del Linguakit, y se creó la herramienta de análisis. - API REST: servidor REST (Java Spring Boot) que contiene la mayor parte de la lógica de negocio. - Base de datos: hereda el TFG 'Explotación del inventario toponímico gallego-portugués anitguo' de Andrea Rey Presas y que será modificada de acuerdo a las nuevas necesidades. El fin de esta herencia será complementar la funcionalidad de exploración de topónimos, desenvuelta en el susodicho TFG, con la funcionalidad de enrequecimiento que se va a realizar en este trabajo de fin de grado. - Cliente web: interfaz (ReactJS) que proporciona al usuario la posibilidad de interactuar con el sistema y así poder emplear la herramienta de análisis de topónimos.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
VARELA BARREIRO, FRANCISCO JAVIER Cotutoría
Gamallo Otero, Pablo Cotutoría
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
VARELA BARREIRO, FRANCISCO JAVIER Cotutoría
Gamallo Otero, Pablo Cotutoría
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
VARELA HERNANDEZ, ANXO (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vocal)
Planta de Producción de Hidrógeno Dorado a partir de lodos de depuradora.
Autoría
A.V.S.
Grado en Ingeniería Química
A.V.S.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:45
16.07.2025 12:45
Resumen
El presente Trabajo Fin de Grado tiene como objetivo el diseño de una planta de producción de hidrógeno con captura de dióxido de carbono a partir de biometano, denominado hidrógeno dorado. El biometano se generará en la propia planta mediante la digestión anaerobia de lodos de estaciones depuradoras, EDAR, urbanas. La capacidad de producción de la planta es de 3.150 toneladas de H2, con un 99,99% de pureza, al año. De acuerdo con las normativas y manuales técnicos pertinentes, se realiza el diseño riguroso del digestor anaerobio, el reactor de reformado catalítico y la torre de absorción de dióxido de carbono. La propuesta de valor de este proyecto reside en proporcionar una alternativa para cerrar el ciclo del carbono y aprovechar residuos orgánicos como materia prima para el proceso de producción de un producto de interés, el hidrógeno en este caso.
El presente Trabajo Fin de Grado tiene como objetivo el diseño de una planta de producción de hidrógeno con captura de dióxido de carbono a partir de biometano, denominado hidrógeno dorado. El biometano se generará en la propia planta mediante la digestión anaerobia de lodos de estaciones depuradoras, EDAR, urbanas. La capacidad de producción de la planta es de 3.150 toneladas de H2, con un 99,99% de pureza, al año. De acuerdo con las normativas y manuales técnicos pertinentes, se realiza el diseño riguroso del digestor anaerobio, el reactor de reformado catalítico y la torre de absorción de dióxido de carbono. La propuesta de valor de este proyecto reside en proporcionar una alternativa para cerrar el ciclo del carbono y aprovechar residuos orgánicos como materia prima para el proceso de producción de un producto de interés, el hidrógeno en este caso.
Dirección
SANCHEZ FERNANDEZ, ADRIAN (Tutoría)
SANCHEZ FERNANDEZ, ADRIAN (Tutoría)
Tribunal
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
NIDO: Aprendizaje automático para identificación de neonatos pequeños
Autoría
P.V.T.
Grao en Ingeniería Informática (2ªed)
P.V.T.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 12:00
17.07.2025 12:00
Resumen
Este trabajo se enmarca en el proyecto de investigación COLLAGE, desarrollado en colaboración con la Universitat Pompeu Fabra y BCNatal (Barcelona), y se centra en la predicción de recién nacidos pequeños para la edad gestacional (SGA) a partir de datos clínicos, ecográficos y sociodemográficos del bebé y de la madre. El problema abordado es de alto interés en salud pública, dado que los fetos SGA presentan un mayor riesgo de complicaciones perinatales y enfermedades a largo plazo, y su detección temprana es clave para aplicar intervenciones que mejoren su salud y reduzcan desigualdades en la atención perinatal. Hemos desarrollado un flujo de preprocesado de datos, que incluyó la investigación detallada del significado y relevancia clínica de cada variable, la gestión de valores faltantes y la ingeniería de variables, obteniendo un conjunto de 791 casos y 28 variables que usamos como predictores, con validez clínica y sin valores nulos. Hemos construido y validado modelos predictivos de SGA utilizando XGBoost y Multiple Kernel Learning, optimizando sus parámetros mediante validación cruzada con k-fold y alcanzando un F1 score de 0,836 con XGBoost, demostrando su capacidad para identificar casos de SGA en un entorno clínico real. Además, con el objetivo de explorar la estructura interna del conjunto de datos e identificar posibles subgrupos, aplicamos técnicas de reducción de dimensionalidad mediante Análisis de Componentes Principales y clustering con modelos de mezcla gaussiana, identificando patrones de agrupamiento asociados al consumo de aceite durante el embarazo como factor diferenciador dentro de la cohorte. Por último, evaluamos la equidad del modelo en distintas subpoblaciones (etnia, índice de masa corporal (IMC), sexo del neonato) mediante la prueba de Mann Whitney U, identificando diferencias significativas de rendimiento según etnia e IMC y confirmando la importancia de analizar posibles sesgos poblacionales antes de aplicar el modelo en la práctica clínica. En resumen, esta memoria presenta una metodología detallada y replicable para la preparación de datos clínicos heterogéneos, la construcción de modelos de predicción de SGA y su evaluación en diferentes subgrupos poblacionales para garantizar su equidad.
Este trabajo se enmarca en el proyecto de investigación COLLAGE, desarrollado en colaboración con la Universitat Pompeu Fabra y BCNatal (Barcelona), y se centra en la predicción de recién nacidos pequeños para la edad gestacional (SGA) a partir de datos clínicos, ecográficos y sociodemográficos del bebé y de la madre. El problema abordado es de alto interés en salud pública, dado que los fetos SGA presentan un mayor riesgo de complicaciones perinatales y enfermedades a largo plazo, y su detección temprana es clave para aplicar intervenciones que mejoren su salud y reduzcan desigualdades en la atención perinatal. Hemos desarrollado un flujo de preprocesado de datos, que incluyó la investigación detallada del significado y relevancia clínica de cada variable, la gestión de valores faltantes y la ingeniería de variables, obteniendo un conjunto de 791 casos y 28 variables que usamos como predictores, con validez clínica y sin valores nulos. Hemos construido y validado modelos predictivos de SGA utilizando XGBoost y Multiple Kernel Learning, optimizando sus parámetros mediante validación cruzada con k-fold y alcanzando un F1 score de 0,836 con XGBoost, demostrando su capacidad para identificar casos de SGA en un entorno clínico real. Además, con el objetivo de explorar la estructura interna del conjunto de datos e identificar posibles subgrupos, aplicamos técnicas de reducción de dimensionalidad mediante Análisis de Componentes Principales y clustering con modelos de mezcla gaussiana, identificando patrones de agrupamiento asociados al consumo de aceite durante el embarazo como factor diferenciador dentro de la cohorte. Por último, evaluamos la equidad del modelo en distintas subpoblaciones (etnia, índice de masa corporal (IMC), sexo del neonato) mediante la prueba de Mann Whitney U, identificando diferencias significativas de rendimiento según etnia e IMC y confirmando la importancia de analizar posibles sesgos poblacionales antes de aplicar el modelo en la práctica clínica. En resumen, esta memoria presenta una metodología detallada y replicable para la preparación de datos clínicos heterogéneos, la construcción de modelos de predicción de SGA y su evaluación en diferentes subgrupos poblacionales para garantizar su equidad.
Dirección
Carreira Nouche, María José (Tutoría)
NUÑEZ GARCIA, MARTA Cotutoría
Carreira Nouche, María José (Tutoría)
NUÑEZ GARCIA, MARTA Cotutoría
Tribunal
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
FlashMaster: Plataforma colaborativa de estudio con IA
Autoría
A.V.G.
Grao en Ingeniería Informática (2ªed)
A.V.G.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
FlashMaster es una plataforma web de última generación que integra la repetición espaciada con la inteligencia artificial para ofrecer una experiencia de estudio colaborativo altamente eficaz. Apoyada en el algoritmo SM-2, gestiona intervalos de revisión personalizados que se adaptan al progreso de cada usuario, garantizando la retención a largo plazo de la información. Su asistente de IA genera automáticamente flashcards a partir de documentos PDF, crea resúmenes inteligentes y resuelve dudas en tiempo real mediante un sistema RAG con búsqueda semántica. Además, permite crear espacios de trabajo colaborativos con niveles de permisos configurables, compartir colecciones de estudio, chatear en directo y editar notas de forma simultánea.
FlashMaster es una plataforma web de última generación que integra la repetición espaciada con la inteligencia artificial para ofrecer una experiencia de estudio colaborativo altamente eficaz. Apoyada en el algoritmo SM-2, gestiona intervalos de revisión personalizados que se adaptan al progreso de cada usuario, garantizando la retención a largo plazo de la información. Su asistente de IA genera automáticamente flashcards a partir de documentos PDF, crea resúmenes inteligentes y resuelve dudas en tiempo real mediante un sistema RAG con búsqueda semántica. Además, permite crear espacios de trabajo colaborativos con niveles de permisos configurables, compartir colecciones de estudio, chatear en directo y editar notas de forma simultánea.
Dirección
Sánchez Vila, Eduardo Manuel (Tutoría)
Sánchez Vila, Eduardo Manuel (Tutoría)
Tribunal
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
Adaptación de una red full-resolution para la segmentación de vasos retinianos
Autoría
A.V.S.
Grao en Ingeniería Informática (2ªed)
A.V.S.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 12:00
18.07.2025 12:00
Resumen
Este trabajo aborda el desarrollo y optimización de arquitecturas de aprendizaje profundo para la segmentación automática de vasos sanguíneos en imágenes de fondo de ojo de alta resolución, con aplicación directa en el diagnóstico de patologías oculares como la retinopatía diabética, el glaucoma y la degeneración macular asociada a la edad. La investigación se estructura en tres fases principales. Primero, se evalúa la arquitectura FRNet (Full Resolution Network) como punto de partida, demostrando que, aunque el procesamiento a resolución completa mejora la segmentación de vasos finos, presenta limitaciones críticas de escalabilidad computacional que hacen inviable su uso con imágenes de 2048x2048 píxeles. Segundo, se presenta y valida VesselView, una nueva arquitectura de tipo U-Net que supera las limitaciones de FRNet mediante su adaptación a un paradigma encoder-decoder más eficiente. A través de estudios sistemáticos, se validan empíricamente sus componentes clave: la configuración óptima del bottleneck, la indispensabilidad de las skip connections y una evaluación del efecto de distintas funciones de pérdida sobre ella. Tercero, se propone SantosNet como evolución de VesselView, incorporando dos contribuciones originales: DirectionalSanLoss, una función de pérdida que optimiza la calidad topológica mediante información direccional de los vasos, y LearnableFusionBlock, un módulo de ponderación inteligente que mejora los resultados de segmentación vascular. Los experimentos, realizados sobre el dataset FIVES demuestran que SantosNet establece una mejora notable, superando significativamente tanto a FRNet como a VesselView en las métricas principales.
Este trabajo aborda el desarrollo y optimización de arquitecturas de aprendizaje profundo para la segmentación automática de vasos sanguíneos en imágenes de fondo de ojo de alta resolución, con aplicación directa en el diagnóstico de patologías oculares como la retinopatía diabética, el glaucoma y la degeneración macular asociada a la edad. La investigación se estructura en tres fases principales. Primero, se evalúa la arquitectura FRNet (Full Resolution Network) como punto de partida, demostrando que, aunque el procesamiento a resolución completa mejora la segmentación de vasos finos, presenta limitaciones críticas de escalabilidad computacional que hacen inviable su uso con imágenes de 2048x2048 píxeles. Segundo, se presenta y valida VesselView, una nueva arquitectura de tipo U-Net que supera las limitaciones de FRNet mediante su adaptación a un paradigma encoder-decoder más eficiente. A través de estudios sistemáticos, se validan empíricamente sus componentes clave: la configuración óptima del bottleneck, la indispensabilidad de las skip connections y una evaluación del efecto de distintas funciones de pérdida sobre ella. Tercero, se propone SantosNet como evolución de VesselView, incorporando dos contribuciones originales: DirectionalSanLoss, una función de pérdida que optimiza la calidad topológica mediante información direccional de los vasos, y LearnableFusionBlock, un módulo de ponderación inteligente que mejora los resultados de segmentación vascular. Los experimentos, realizados sobre el dataset FIVES demuestran que SantosNet establece una mejora notable, superando significativamente tanto a FRNet como a VesselView en las métricas principales.
Dirección
Pardo López, Xosé Manuel (Tutoría)
SANTOS MATEOS, ROI Cotutoría
Pardo López, Xosé Manuel (Tutoría)
SANTOS MATEOS, ROI Cotutoría
Tribunal
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Ciclo completo de CI y CD con Dagger y Kubernetes.
Autoría
D.V.T.
Grao en Ingeniería Informática (2ªed)
D.V.T.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
16.09.2025 17:30
16.09.2025 17:30
Resumen
Ante la creciente complejidad de los flujos DevOps, resulta conveniente identificar herramientas de Continuous Integration y Continuous Delivery (CI y CD) que unifiquen los pipelines y reduzcan los costes de mantenimiento. Este Trabajo de Fin de Grado investiga si Dagger, un motor programable basado en contenedores, puede simplificar y acelerar la integración y entrega continuas frente a los métodos convencionales predominantes. Se construyó un monorepo con una aplicación de prueba (frontend: Vue + Typescript; backend: Typescript; MongoDB) y se diseñaron e implementaron dos módulos de Dagger para los ciclos de CI y CD, empleando el SDK que proporciona Dagger para el lenguaje de programación Go. Además, se desplegó la aplicación en tres clusters de KinD, gestionados por ArgoCD bajo filosofía GitOps, con la infraestructura definida mediante Helm y Kubernetes. La evaluación cuantitativa incluyó una prueba en la que se ejecutó la función endtoend del módulo de CI. Esta mostró una reducción del tiempo de ejecución del 40% cuando los parámetros de entrada cambiaban entre ejecuciones, y del 94% cuando los parámetros permanecían sin cambios. Esto es gracias al sistema de gestión de caché nativo de Dagger. El análisis cualitativo destacó ventajas en cuanto al mantenimiento, la portabilidad (ejecución sobre runtime OCI), la reproducibilidad y la escalabilidad, frente a una curva de aprendizaje moderada. En conclusión, Dagger se posiciona como una alternativa sólida para estandarizar y modernizar los ciclos de vida del software, facilitando la integración continua y reduciendo la dependencia de scripts heterogéneos. Entre otras mejoras futuras, se sugieren: validar el funcionamiento de los módulos en clusters gestionados en la nube, gestionar de mejor manera los secretos y añadir herramientas de monitorización y de análisis de imágenes de Docker.
Ante la creciente complejidad de los flujos DevOps, resulta conveniente identificar herramientas de Continuous Integration y Continuous Delivery (CI y CD) que unifiquen los pipelines y reduzcan los costes de mantenimiento. Este Trabajo de Fin de Grado investiga si Dagger, un motor programable basado en contenedores, puede simplificar y acelerar la integración y entrega continuas frente a los métodos convencionales predominantes. Se construyó un monorepo con una aplicación de prueba (frontend: Vue + Typescript; backend: Typescript; MongoDB) y se diseñaron e implementaron dos módulos de Dagger para los ciclos de CI y CD, empleando el SDK que proporciona Dagger para el lenguaje de programación Go. Además, se desplegó la aplicación en tres clusters de KinD, gestionados por ArgoCD bajo filosofía GitOps, con la infraestructura definida mediante Helm y Kubernetes. La evaluación cuantitativa incluyó una prueba en la que se ejecutó la función endtoend del módulo de CI. Esta mostró una reducción del tiempo de ejecución del 40% cuando los parámetros de entrada cambiaban entre ejecuciones, y del 94% cuando los parámetros permanecían sin cambios. Esto es gracias al sistema de gestión de caché nativo de Dagger. El análisis cualitativo destacó ventajas en cuanto al mantenimiento, la portabilidad (ejecución sobre runtime OCI), la reproducibilidad y la escalabilidad, frente a una curva de aprendizaje moderada. En conclusión, Dagger se posiciona como una alternativa sólida para estandarizar y modernizar los ciclos de vida del software, facilitando la integración continua y reduciendo la dependencia de scripts heterogéneos. Entre otras mejoras futuras, se sugieren: validar el funcionamiento de los módulos en clusters gestionados en la nube, gestionar de mejor manera los secretos y añadir herramientas de monitorización y de análisis de imágenes de Docker.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
Maseda Muiño, Francisco Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
Maseda Muiño, Francisco Cotutoría
Tribunal
Fernández Rivera, Francisco (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
RODRIGUEZ PRESEDO, JESUS MARIA (Vocal)
Fernández Rivera, Francisco (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
RODRIGUEZ PRESEDO, JESUS MARIA (Vocal)
Aplicación móvil inteligente para el monitoreo y análisis del sueño
Autoría
E.V.T.
Grao en Ingeniería Informática (2ªed)
E.V.T.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
Este Trabajo de Fin de Grado presenta una aplicación móvil que permite monitorizar el sueño, analizar su calidad y recibir recomendaciones personalizadas. Combina datos objetivos y subjetivos mediante cuestionarios y registros, integrando inteligencia artificial para generar informes, consejos y un diario conversacional. Ofrece herramientas visuales y recomendaciones orientadas a mejorar la calidad del descanso de forma individualizada.
Este Trabajo de Fin de Grado presenta una aplicación móvil que permite monitorizar el sueño, analizar su calidad y recibir recomendaciones personalizadas. Combina datos objetivos y subjetivos mediante cuestionarios y registros, integrando inteligencia artificial para generar informes, consejos y un diario conversacional. Ofrece herramientas visuales y recomendaciones orientadas a mejorar la calidad del descanso de forma individualizada.
Dirección
Sánchez Vila, Eduardo Manuel (Tutoría)
Sánchez Vila, Eduardo Manuel (Tutoría)
Tribunal
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
RetroRevive: Plataforma web para la restauración de imágenes antiguas
Autoría
T.W.R.
Grao en Ingeniería Informática (2ªed)
T.W.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 12:30
18.07.2025 12:30
Resumen
En el presente Trabajo de Fin de Grado se ha desarrollado una aplicación web que facilita el tratamiento de imágenes antiguas afectadas por el paso del tiempo y una mala conservación. Para reparar las zonas deterioradas de una imagen se ha implementado un método que permite detectarlas automáticamente, así como un lienzo donde se pueden definir manualmente las áreas dañadas. Se integraron técnicas de inteligencia artificial para la recuperación de color y aumento del tamaño y de la resolución, junto con filtros de reducción de ruido. Todas las operaciones se pueden aplicar de forma individual o combinadas. El sistema se ha diseñado para que los usuarios puedan visualizar en una galería los resultados de todas las restauraciones realizadas en la plataforma, incluyendo una comparativa con la imagen original, lo que exigió introducir una base de datos para el almacenamiento persistente de información. Además, se ha buscado que la interfaz sea lo más sencilla e intuitiva posible, de manera que se minimicen las operaciones y los clics necesarios tanto para obtener resultados como para navegar entre las distintas secciones de la aplicación.
En el presente Trabajo de Fin de Grado se ha desarrollado una aplicación web que facilita el tratamiento de imágenes antiguas afectadas por el paso del tiempo y una mala conservación. Para reparar las zonas deterioradas de una imagen se ha implementado un método que permite detectarlas automáticamente, así como un lienzo donde se pueden definir manualmente las áreas dañadas. Se integraron técnicas de inteligencia artificial para la recuperación de color y aumento del tamaño y de la resolución, junto con filtros de reducción de ruido. Todas las operaciones se pueden aplicar de forma individual o combinadas. El sistema se ha diseñado para que los usuarios puedan visualizar en una galería los resultados de todas las restauraciones realizadas en la plataforma, incluyendo una comparativa con la imagen original, lo que exigió introducir una base de datos para el almacenamiento persistente de información. Además, se ha buscado que la interfaz sea lo más sencilla e intuitiva posible, de manera que se minimicen las operaciones y los clics necesarios tanto para obtener resultados como para navegar entre las distintas secciones de la aplicación.
Dirección
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
Andrés Estrada, Sergio Cotutoría
García Ullán, Pablo Cotutoría
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
Andrés Estrada, Sergio Cotutoría
García Ullán, Pablo Cotutoría
Tribunal
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)