Planta de producción de ácido acético a partir de metanol.
Autoría
M.A.G.
Grado en Ingeniería Química
M.A.G.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 09:30
16.07.2025 09:30
Resumen
Planta de producción de ácido acético a partir de metanol Obtención de 70.000 t/año de ácido acético a partir de metanol y monóxido de carbono mediante el proceso de carbonilación del metanol. Este compuesto orgánico tiene una gran variedad de utilidades, desde la elaboración de productos cosméticos, farmacéuticos o en la industria alimentaria, téxtil y química, lo cual lo convierte en un producto de gran interés industrial. En este proyecto, Martín Álvarez llevará a cabo el diseño riguroso del reactor, encargado del proceso de carbonilación del metanol para la obtención de ácido acético, y Elena Ojea de la primera columna, encargada de separar el ácido acético y el agua del resto de componentes del medio de reacción.
Planta de producción de ácido acético a partir de metanol Obtención de 70.000 t/año de ácido acético a partir de metanol y monóxido de carbono mediante el proceso de carbonilación del metanol. Este compuesto orgánico tiene una gran variedad de utilidades, desde la elaboración de productos cosméticos, farmacéuticos o en la industria alimentaria, téxtil y química, lo cual lo convierte en un producto de gran interés industrial. En este proyecto, Martín Álvarez llevará a cabo el diseño riguroso del reactor, encargado del proceso de carbonilación del metanol para la obtención de ácido acético, y Elena Ojea de la primera columna, encargada de separar el ácido acético y el agua del resto de componentes del medio de reacción.
Dirección
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Arquetipo Backend con Arquitectura Hexagonal
Autoría
S.A.P.
Grao en Ingeniería Informática (2ªed)
S.A.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 11:00
18.07.2025 11:00
Resumen
En el desarrollo de software, la fase inicial de un nuevo proyecto suele implicar tareas repetitivas y propensas a errores, especialmente cuando se requiere el uso de patrones arquitectónicos complejos, como es el caso de la arquitectura hexagonal, que promueve una estricta separación entre el dominio del negocio y sus dependencias externas. En este contexto, el presente Trabajo de Fin de Grado aborda la necesidad de facilitar y estandarizar esta fase en un entorno empresarial real, concretamente en colaboración con Altia Consultores. Para ello, se ha desarrollado un generador de proyectos basado en el motor de plantillas Yeoman, que permite automatizar la construcción de una estructura base en Java con Spring Boot. El generador crea, a partir de un modelo de datos, todas las capas necesarias de un microservicio en arquitectura hexagonal, incluyendo entidades de negocio, casos de uso, puertos y adaptadores, sirviendo como punto de partida para el desarrollo de nuevas aplicaciones.
En el desarrollo de software, la fase inicial de un nuevo proyecto suele implicar tareas repetitivas y propensas a errores, especialmente cuando se requiere el uso de patrones arquitectónicos complejos, como es el caso de la arquitectura hexagonal, que promueve una estricta separación entre el dominio del negocio y sus dependencias externas. En este contexto, el presente Trabajo de Fin de Grado aborda la necesidad de facilitar y estandarizar esta fase en un entorno empresarial real, concretamente en colaboración con Altia Consultores. Para ello, se ha desarrollado un generador de proyectos basado en el motor de plantillas Yeoman, que permite automatizar la construcción de una estructura base en Java con Spring Boot. El generador crea, a partir de un modelo de datos, todas las capas necesarias de un microservicio en arquitectura hexagonal, incluyendo entidades de negocio, casos de uso, puertos y adaptadores, sirviendo como punto de partida para el desarrollo de nuevas aplicaciones.
Dirección
Fernández Pena, Anselmo Tomás (Tutoría)
Rial Dosil, Mónica Cotutoría
Antón Bueso, José Luis Cotutoría
Fernández Pena, Anselmo Tomás (Tutoría)
Rial Dosil, Mónica Cotutoría
Antón Bueso, José Luis Cotutoría
Tribunal
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
TrollHunter: Sistema de gestión de reseñas basado en Modelos de Lenguaje Grande e IA.
Autoría
J.A.R.
Grao en Ingeniería Informática (2ªed)
J.A.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 11:30
18.07.2025 11:30
Resumen
En la era digital actual, la reputación online se ha convertido en uno de los activos más estratégicos para cualquier empresa. Plataformas como Google Maps, Trustpilot o las redes sociales funcionan como espacios públicos donde los clientes comparten sus experiencias, generando un gran volumen de datos. Gestionar adecuadamente esta información, distinguir entre críticas legítimas y ataques malintencionados, y extraer conclusiones útiles representa hoy un verdadero reto para las organizaciones. Este Trabajo de Fin de Grado propone el diseño e implementación de TrollHunter, un sistema basado en inteligencia artificial orientado al análisis y gestión de la reputación online empresarial. Su objetivo principal es doble: por una parte, optimizar la medición de la satisfacción del cliente mediante informes estadísticos detallados a partir de las reseñas; y por otra, mejorar la imagen corporativa facilitando herramientas para detectar y gestionar comentarios anómalos o procedentes de trolls, incluyendo respuestas generadas con asistencia de IA. Para alcanzar estos fines, se ha desarrollado una solución tecnológica compuesta por un backend robusto en Python y una interfaz web construida con React y TypeScript. El sistema permite la extracción automatizada de reseñas desde Google Places, combinando el uso de su API oficial con técnicas de scraping. El componente de inteligencia artificial opera localmente mediante Ollama y se basa en una arquitectura de Generación Aumentada por Recuperación (RAG), sustentada por una base de datos vectorial persistente. Esta base de datos centraliza tanto el sistema conversacional como los procesos de análisis, asegurando coherencia en la información procesada. Finalmente, se ha implementado un portal web que permite a los usuarios interactuar con todas las funcionalidades: búsqueda de negocios, conversaciones con el modelo, generación de informes por empresa y sugerencia automática de respuestas ante comentarios anómalos. Este sistema ofrece una vía eficaz para comprender mejor la percepción pública de una empresa en entornos digitales.
En la era digital actual, la reputación online se ha convertido en uno de los activos más estratégicos para cualquier empresa. Plataformas como Google Maps, Trustpilot o las redes sociales funcionan como espacios públicos donde los clientes comparten sus experiencias, generando un gran volumen de datos. Gestionar adecuadamente esta información, distinguir entre críticas legítimas y ataques malintencionados, y extraer conclusiones útiles representa hoy un verdadero reto para las organizaciones. Este Trabajo de Fin de Grado propone el diseño e implementación de TrollHunter, un sistema basado en inteligencia artificial orientado al análisis y gestión de la reputación online empresarial. Su objetivo principal es doble: por una parte, optimizar la medición de la satisfacción del cliente mediante informes estadísticos detallados a partir de las reseñas; y por otra, mejorar la imagen corporativa facilitando herramientas para detectar y gestionar comentarios anómalos o procedentes de trolls, incluyendo respuestas generadas con asistencia de IA. Para alcanzar estos fines, se ha desarrollado una solución tecnológica compuesta por un backend robusto en Python y una interfaz web construida con React y TypeScript. El sistema permite la extracción automatizada de reseñas desde Google Places, combinando el uso de su API oficial con técnicas de scraping. El componente de inteligencia artificial opera localmente mediante Ollama y se basa en una arquitectura de Generación Aumentada por Recuperación (RAG), sustentada por una base de datos vectorial persistente. Esta base de datos centraliza tanto el sistema conversacional como los procesos de análisis, asegurando coherencia en la información procesada. Finalmente, se ha implementado un portal web que permite a los usuarios interactuar con todas las funcionalidades: búsqueda de negocios, conversaciones con el modelo, generación de informes por empresa y sugerencia automática de respuestas ante comentarios anómalos. Este sistema ofrece una vía eficaz para comprender mejor la percepción pública de una empresa en entornos digitales.
Dirección
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Vidal De la Rosa, José Luis Cotutoría
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Vidal De la Rosa, José Luis Cotutoría
Tribunal
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Arquitecturas de aprendizaje profundo basadas en estados para monitorización predictiva
Autoría
J.A.V.
Grao en Ingeniería Informática (2ªed)
J.A.V.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
La minería de procesos es un área que permite analizar registros de eventos con el fin de descubrir, monitorizar y mejorar procesos de negocio. Dentro de este campo, la predicción de la siguiente actividad es una tarea central en la monitorización predictiva, que ha sido abordada con éxito mediante arquitecturas de aprendizaje profundo, especialmente mediante redes neuronales recurrentes, LSTM y Transformers. En este trabajo se estudia el rendimiento de Mamba, una arquitectura reciente basada en modelos de espacios de estados, que ha dado resultados prometedores en áreas como el procesado de lenguaje natural y será adaptada específicamente para la tarea de predicción de la siguiente actividad por primera vez. Para ello, se lleva a cabo un análisis comparativo entre Mamba, LSTM y Transformers, mediante la implementación de cinco versiones incrementales de cada arquitectura. Estas versiones incorporan progresivamente atributos temporales, del recurso y mecanismos de atención, y son evaluadas sobre tres conjuntos de datos públicos siguiendo un protocolo de validación cruzada. Los resultados obtenidos muestran que Mamba puede competir en precisión con las arquitecturas tradicionales. Sin embargo, su rendimiento presenta mayor variabilidad y sus tiempos de entrenamiento son considerablemente elevados, lo que indica que aún requiere optimización. Este trabajo pone de manifiesto el potencial de Mamba en el ámbito de la minería de procesos y sienta las bases para futuras investigaciones que profundicen en su uso y mejora.
La minería de procesos es un área que permite analizar registros de eventos con el fin de descubrir, monitorizar y mejorar procesos de negocio. Dentro de este campo, la predicción de la siguiente actividad es una tarea central en la monitorización predictiva, que ha sido abordada con éxito mediante arquitecturas de aprendizaje profundo, especialmente mediante redes neuronales recurrentes, LSTM y Transformers. En este trabajo se estudia el rendimiento de Mamba, una arquitectura reciente basada en modelos de espacios de estados, que ha dado resultados prometedores en áreas como el procesado de lenguaje natural y será adaptada específicamente para la tarea de predicción de la siguiente actividad por primera vez. Para ello, se lleva a cabo un análisis comparativo entre Mamba, LSTM y Transformers, mediante la implementación de cinco versiones incrementales de cada arquitectura. Estas versiones incorporan progresivamente atributos temporales, del recurso y mecanismos de atención, y son evaluadas sobre tres conjuntos de datos públicos siguiendo un protocolo de validación cruzada. Los resultados obtenidos muestran que Mamba puede competir en precisión con las arquitecturas tradicionales. Sin embargo, su rendimiento presenta mayor variabilidad y sus tiempos de entrenamiento son considerablemente elevados, lo que indica que aún requiere optimización. Este trabajo pone de manifiesto el potencial de Mamba en el ámbito de la minería de procesos y sienta las bases para futuras investigaciones que profundicen en su uso y mejora.
Dirección
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
LAMA PENIN, MANUEL Cotutoría
GAMALLO FERNANDEZ, PEDRO Cotutoría
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
LAMA PENIN, MANUEL Cotutoría
GAMALLO FERNANDEZ, PEDRO Cotutoría
Tribunal
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
Benchmark para compresión de señales y procesamiento de imaxes en aritmética de 16 y 32 bits
Autoría
E.B.P.
Grao en Ingeniería Informática (2ªed)
E.B.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
El campo de los tipos de datos de punto flotante de precisión reducida, binary16 y bfloat16, está dominado por las GPUs; un campo donde se concentran la mayor parte de las herramientas, el desarrollo y la investigación. En comparación, la situación de estos tipos de datos en las CPUs es más limitada en todas estas áreas. En este trabajo, se desarrolla un benchmark que permite evaluar la precisión y el rendimiento de estos tipos de datos en las arquitecturas de CPU x86 y ARM. A lo largo de este trabajo, se presentará el estado actual de la compatibilidad de estos tipos de datos por parte de las arquitecturas, se explicarán los programas que componen este benchmark y las CPU donde se ejecutará, y se analizarán los resultados obtenidos. Posteriormente, se desarrollarán métricas para evaluar y contextualizar el rendimiento de estos tipos de datos para poder así extraer conclusiones sobre la situación actual de binary16 y bfloat16 en las CPUs.
El campo de los tipos de datos de punto flotante de precisión reducida, binary16 y bfloat16, está dominado por las GPUs; un campo donde se concentran la mayor parte de las herramientas, el desarrollo y la investigación. En comparación, la situación de estos tipos de datos en las CPUs es más limitada en todas estas áreas. En este trabajo, se desarrolla un benchmark que permite evaluar la precisión y el rendimiento de estos tipos de datos en las arquitecturas de CPU x86 y ARM. A lo largo de este trabajo, se presentará el estado actual de la compatibilidad de estos tipos de datos por parte de las arquitecturas, se explicarán los programas que componen este benchmark y las CPU donde se ejecutará, y se analizarán los resultados obtenidos. Posteriormente, se desarrollarán métricas para evaluar y contextualizar el rendimiento de estos tipos de datos para poder así extraer conclusiones sobre la situación actual de binary16 y bfloat16 en las CPUs.
Dirección
QUESADA BARRIUSO, PABLO (Tutoría)
LOPEZ FANDIÑO, JAVIER Cotutoría
QUESADA BARRIUSO, PABLO (Tutoría)
LOPEZ FANDIÑO, JAVIER Cotutoría
Tribunal
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
Planta de producción de solketal por ketalización de glicerol bioderivado
Autoría
R.B.C.
Grado en Ingeniería Química
R.B.C.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:10
16.07.2025 10:10
Resumen
El objeto del presente proyecto es el diseño de una planta de producción de solketal, mediante una reacción de ketalización entre acetona y glicerol bioderivado. La capacidad de producción de la planta será de 20.021 toneladas al año de producto solketal con una pureza del 99,9 % en peso. La planta operará en régimen continuo 330 días al año, 24 horas al día. En el presente proyecto se realiza el diseño riguroso de la unidad T-202, siendo esta una columna de destilación. Mediante la elaboración de este proyecto, el alumno Rodrigo Barrio Corbillón opta al título del Grado de Ingeniería Química, otorgado por la Escola Técnica Superior de Enxeñaría de la Universidade de Santiago de Compostela.
El objeto del presente proyecto es el diseño de una planta de producción de solketal, mediante una reacción de ketalización entre acetona y glicerol bioderivado. La capacidad de producción de la planta será de 20.021 toneladas al año de producto solketal con una pureza del 99,9 % en peso. La planta operará en régimen continuo 330 días al año, 24 horas al día. En el presente proyecto se realiza el diseño riguroso de la unidad T-202, siendo esta una columna de destilación. Mediante la elaboración de este proyecto, el alumno Rodrigo Barrio Corbillón opta al título del Grado de Ingeniería Química, otorgado por la Escola Técnica Superior de Enxeñaría de la Universidade de Santiago de Compostela.
Dirección
SANCHEZ FERNANDEZ, ADRIAN (Tutoría)
SANCHEZ FERNANDEZ, ADRIAN (Tutoría)
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Enlazado de Entidades Nombradas en el Dominio Médico
Autoría
E.B.P.
Grao en Ingeniería Informática (2ªed)
E.B.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 09:30
18.07.2025 09:30
Resumen
La interoperabilidad semántica es uno de los principales desafíos en los sistemas clínicos actuales, especialmente en lo que respecta al proceso de enlazado automático de conceptos médicos definidos libremente con entidades estandarizadas en ontologías como SNOMED CT o UMLS. Este proceso, conocido como enlazado de entidades biomédicas (biomedical entity linking), es clave para garantizar la calidad de los datos clínicos, integrar información procedente de fuentes heterogéneas y posibilitar análisis automatizados con base semántica. Sin embargo, se trata de una tarea particularmente compleja, debido a la ambigüedad terminológica, la variabilidad lingüística y la dependencia del contexto clínico. En este trabajo se propuso el desarrollo de un sistema automático capaz de verificar y/o establecer correspondencias entre conceptos definidos por expertos y entidades de la base de conocimiento UMLS. Para ello, se utilizaron modelos de lenguaje biomédicos preentrenados como BioBERT, capaces de generar representaciones vectoriales (embeddings) que capturan la semántica de las descripciones médicas y permiten comparar entidades en función de su similitud contextual. La validación del sistema se llevó a cabo mediante un conjunto de experimentos que abarca tres escenarios principales: la revisión de las correspondencias existentes entre conceptos y entidades UMLS; el enlazado automático de entidades sin identificación previa; y la reevaluación de las correspondencias ya anotadas mediante técnicas de recuperación semántica. Estos experimentos permitieron observar el comportamiento del sistema en situaciones tanto controladas como reales, evidenciando que modelos de mayor capacidad como BioBERT-large obtienen mejores resultados. Además, se puso de manifiesto la importancia de la calidad y riqueza textual de las descripciones: entidades mal definidas o sin contexto dan lugar a errores, incluso cuando la entidad correcta está disponible en la base de conocimiento. Uno de los retos técnicos más relevantes fue la construcción de la base de conocimiento, que requirió la obtención de más de 318.000 conceptos de SNOMED CT a través de la API de BioPortal. Este proceso, limitado por restricciones de acceso y costoso en tiempo, evidenció la necesidad de fuentes más directas y eficientes para la integración de conocimiento biomédico. Como resultado final, este trabajo presenta una arquitectura reproducible y funcional que demuestra el potencial de los modelos de lenguaje en la tarea de enlazado de entidades biomédicas, identificando al mismo tiempo sus limitaciones actuales. Las conclusiones apuntan hacia la necesidad de integrar estrategias complementarias como el reranking semántico, el uso de filtros basados en tipos ontológicos y la incorporación de contexto clínico ampliado. Este sistema constituye, así, un primer paso hacia la automatización fiable de la normalización terminológica en registros clínicos reales.
La interoperabilidad semántica es uno de los principales desafíos en los sistemas clínicos actuales, especialmente en lo que respecta al proceso de enlazado automático de conceptos médicos definidos libremente con entidades estandarizadas en ontologías como SNOMED CT o UMLS. Este proceso, conocido como enlazado de entidades biomédicas (biomedical entity linking), es clave para garantizar la calidad de los datos clínicos, integrar información procedente de fuentes heterogéneas y posibilitar análisis automatizados con base semántica. Sin embargo, se trata de una tarea particularmente compleja, debido a la ambigüedad terminológica, la variabilidad lingüística y la dependencia del contexto clínico. En este trabajo se propuso el desarrollo de un sistema automático capaz de verificar y/o establecer correspondencias entre conceptos definidos por expertos y entidades de la base de conocimiento UMLS. Para ello, se utilizaron modelos de lenguaje biomédicos preentrenados como BioBERT, capaces de generar representaciones vectoriales (embeddings) que capturan la semántica de las descripciones médicas y permiten comparar entidades en función de su similitud contextual. La validación del sistema se llevó a cabo mediante un conjunto de experimentos que abarca tres escenarios principales: la revisión de las correspondencias existentes entre conceptos y entidades UMLS; el enlazado automático de entidades sin identificación previa; y la reevaluación de las correspondencias ya anotadas mediante técnicas de recuperación semántica. Estos experimentos permitieron observar el comportamiento del sistema en situaciones tanto controladas como reales, evidenciando que modelos de mayor capacidad como BioBERT-large obtienen mejores resultados. Además, se puso de manifiesto la importancia de la calidad y riqueza textual de las descripciones: entidades mal definidas o sin contexto dan lugar a errores, incluso cuando la entidad correcta está disponible en la base de conocimiento. Uno de los retos técnicos más relevantes fue la construcción de la base de conocimiento, que requirió la obtención de más de 318.000 conceptos de SNOMED CT a través de la API de BioPortal. Este proceso, limitado por restricciones de acceso y costoso en tiempo, evidenció la necesidad de fuentes más directas y eficientes para la integración de conocimiento biomédico. Como resultado final, este trabajo presenta una arquitectura reproducible y funcional que demuestra el potencial de los modelos de lenguaje en la tarea de enlazado de entidades biomédicas, identificando al mismo tiempo sus limitaciones actuales. Las conclusiones apuntan hacia la necesidad de integrar estrategias complementarias como el reranking semántico, el uso de filtros basados en tipos ontológicos y la incorporación de contexto clínico ampliado. Este sistema constituye, así, un primer paso hacia la automatización fiable de la normalización terminológica en registros clínicos reales.
Dirección
CHAVES FRAGA, DAVID (Tutoría)
LAMA PENIN, MANUEL Cotutoría
PEÑA GIL, CARLOS Cotutoría
CHAVES FRAGA, DAVID (Tutoría)
LAMA PENIN, MANUEL Cotutoría
PEÑA GIL, CARLOS Cotutoría
Tribunal
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
Argo: Aplicación de exploración y análisis de dispositivos conectados a Internet
Autoría
D.C.D.
Grao en Ingeniería Informática (2ªed)
D.C.D.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 10:00
18.07.2025 10:00
Resumen
Este Trabajo de Fin de Grado (TFG) propone un sistema informático inspirado en motores de búsqueda de dispositivos como Shodan o Censys, diseñado para ofrecer a investigadores, auditores de seguridad y administradores de red una visión clara y actualizada de los activos expuestos en la red global. El sistema desarrollado integra un crawler distribuido que explora rangos de direcciones IPv4 con técnicas de escaneo paralelo y balanceo de carga, garantizando un recorrido exhaustivo sin comprometer la estabilidad de la infraestructura. El proceso incluye el escaneo de puertos y servicios, con detección de versiones, la geolocalización de direcciones IP, el análisis de vulnerabilidades y la clasificación del tipo de dispositivo. Para la gestión de la gran cantidad de información generada, se ha implementado un sistema de almacenamiento e indexación basado en una base de datos NoSQL que permite filtrar dispositivos por ubicación, tipo de servicio o versión de software, y realizar agregaciones de alto rendimiento. Además, se pone a disposición de los usuarios finales una interfaz web intuitiva que permite explorar los datos a través de filtros dinámicos, configurar alertas personalizadas y exportar informes detallados. Por último, se expone un caso de estudio real que abarca un escaneo masivo de un gran conjunto de direcciones IP y el posterior análisis de los datos obtenidos. Los experimentos realizados evidencian que la solución propuesta alcanzó con éxito los objetivos de cobertura de escaneo, rendimiento y escalabilidad, así como una detección precisa de servicios y vulnerabilidades. Asimismo, las pruebas de usuario confirmaron la fiabilidad de la interfaz web y la robustez del sistema frente a distintos escenarios de uso.
Este Trabajo de Fin de Grado (TFG) propone un sistema informático inspirado en motores de búsqueda de dispositivos como Shodan o Censys, diseñado para ofrecer a investigadores, auditores de seguridad y administradores de red una visión clara y actualizada de los activos expuestos en la red global. El sistema desarrollado integra un crawler distribuido que explora rangos de direcciones IPv4 con técnicas de escaneo paralelo y balanceo de carga, garantizando un recorrido exhaustivo sin comprometer la estabilidad de la infraestructura. El proceso incluye el escaneo de puertos y servicios, con detección de versiones, la geolocalización de direcciones IP, el análisis de vulnerabilidades y la clasificación del tipo de dispositivo. Para la gestión de la gran cantidad de información generada, se ha implementado un sistema de almacenamiento e indexación basado en una base de datos NoSQL que permite filtrar dispositivos por ubicación, tipo de servicio o versión de software, y realizar agregaciones de alto rendimiento. Además, se pone a disposición de los usuarios finales una interfaz web intuitiva que permite explorar los datos a través de filtros dinámicos, configurar alertas personalizadas y exportar informes detallados. Por último, se expone un caso de estudio real que abarca un escaneo masivo de un gran conjunto de direcciones IP y el posterior análisis de los datos obtenidos. Los experimentos realizados evidencian que la solución propuesta alcanzó con éxito los objetivos de cobertura de escaneo, rendimiento y escalabilidad, así como una detección precisa de servicios y vulnerabilidades. Asimismo, las pruebas de usuario confirmaron la fiabilidad de la interfaz web y la robustez del sistema frente a distintos escenarios de uso.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Viqueira Hierro, Bernardo Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Viqueira Hierro, Bernardo Cotutoría
Tribunal
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
Técnica de clasificación de imágenes de observación terrestre baseada en un transformador híbrido
Autoría
H.C.R.
Grao en Ingeniería Informática (2ªed)
H.C.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 10:30
18.07.2025 10:30
Resumen
Durante los últimos años, el aprendizaje automático y las redes neuronales de deep learning están siendo el punto neurálgico del interés de muchos investigadores, empresas y administraciones públicas. Concretamente, en el área de remote sensing, el conocimiento está focalizándose en las imágenes multiespectrais y en la creación de gemelos digitales para el análisis de vertidos, superficies arbóreas o el mantenimiento de grandes extensiones de praderías agrícolas. Por este motivo, se consideró que realizar un trabajo en una materia de actualidad podría resultar interesante para conocer el estado del arte, así como aportar un grano de arena al campo de la clasificación de imágenes. Para eso, se emplearon diversos transformadores, con el fin de adaptarlos a un conjunto de imágenes multiespectrais obtenidas de las cuencas de varios ríos gallegos. Uno de los principales retos consistió en la elección de métodos precisos y eficientes, que a su vez pudieran ser trasladados a situaciones en tiempo real, muy aplicables, como mencionamos, a los gemelos digitales que también desde Galicia se están potenciando. Con esto, se realizó una experimentación que permitió obtener unas métricas de precisión y coste muy interesantes. Se destacó principalmente que los modelos transformadores híbridos, como FastViT o CoAtNet, son potencialmente útiles para situaciones que requieren la mayor precisión y el menor tiempo. También se concluyó que existe una fuerte componente global en las imágenes de teledetección de las tazas de los ríos, por lo que es necesario captar dichas características en estas primeras etapas para realizar la inferencia de clase de forma correcta.
Durante los últimos años, el aprendizaje automático y las redes neuronales de deep learning están siendo el punto neurálgico del interés de muchos investigadores, empresas y administraciones públicas. Concretamente, en el área de remote sensing, el conocimiento está focalizándose en las imágenes multiespectrais y en la creación de gemelos digitales para el análisis de vertidos, superficies arbóreas o el mantenimiento de grandes extensiones de praderías agrícolas. Por este motivo, se consideró que realizar un trabajo en una materia de actualidad podría resultar interesante para conocer el estado del arte, así como aportar un grano de arena al campo de la clasificación de imágenes. Para eso, se emplearon diversos transformadores, con el fin de adaptarlos a un conjunto de imágenes multiespectrais obtenidas de las cuencas de varios ríos gallegos. Uno de los principales retos consistió en la elección de métodos precisos y eficientes, que a su vez pudieran ser trasladados a situaciones en tiempo real, muy aplicables, como mencionamos, a los gemelos digitales que también desde Galicia se están potenciando. Con esto, se realizó una experimentación que permitió obtener unas métricas de precisión y coste muy interesantes. Se destacó principalmente que los modelos transformadores híbridos, como FastViT o CoAtNet, son potencialmente útiles para situaciones que requieren la mayor precisión y el menor tiempo. También se concluyó que existe una fuerte componente global en las imágenes de teledetección de las tazas de los ríos, por lo que es necesario captar dichas características en estas primeras etapas para realizar la inferencia de clase de forma correcta.
Dirección
Argüello Pedreira, Francisco Santiago (Tutoría)
Blanco Heras, Dora Cotutoría
Argüello Pedreira, Francisco Santiago (Tutoría)
Blanco Heras, Dora Cotutoría
Tribunal
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
Comparativa de tecnologías de búsqueda en bancos de prueba para el estudio de la desinformación en el ámbito de consultas de la salud
Autoría
X.C.A.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
X.C.A.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
18.07.2025 11:00
18.07.2025 11:00
Resumen
La desinformación presente en los resultados de búsquedas web sobre salud es una cuestión preocupante tanto a nivel social como científico, pues puede influir negativamente en la toma de decisiones de los/las usuarios/as y acarrear graves consecuencias para la salud. Este fenómeno, que cobró especial visibilidad con la pandemia de la COVID-19, es una de las áreas de investigación dentro del ámbito de la Recuperación de Información (RI), en torno a la cual se articula este trabajo. El proyecto tiene como objetivo central explorar cómo discernir documentos relevantes y correctos de documentos dañinos, dada una cierta intención de búsqueda. Para ello, se propone un estudio estructurado en tres líneas de investigación. En primer lugar, se lleva a cabo un análisis sistemático del desempeño de sistemas de búsqueda del estado del arte con respecto a esta tarea. En segundo lugar, se diseña, implementa y evalúa una nueva técnica basada en Modelos Grandes de Lenguaje (LLMs) para la generación de alternativas de consultas enviadas por usuarios/as, de forma que sus variantes favorezcan la recuperación de documentos relevantes y correctos, en detrimento de la recuperación de documentos dañinos. Por último, se presenta un estudio sobre la predicción de la presencia de desinformación sanitaria en los resultados de búsqueda de consultas, para lo cual se prueban técnicas procedentes de ámbitos relacionados y se diseña, implementa y evalúa un nuevo predictor basado en LLMs y específico para esta tarea. Los hallazgos del trabajo avalan el potencial de los LLMs en el campo de la RI, al lograr mejorar la eficacia de sistemas de búsqueda punteros. Además, se subsana la ausencia de literatura previa en cuanto a la predicción de desinformación en consultas, a la vez que se prueba la capacidad de los LLMs para ello, superior a la capacidad que demuestran técnicas más generales. Parte de las aportaciones de este proyecto han sido aceptadas para su publicación en la conferencia ACM SIGIR 2025.
La desinformación presente en los resultados de búsquedas web sobre salud es una cuestión preocupante tanto a nivel social como científico, pues puede influir negativamente en la toma de decisiones de los/las usuarios/as y acarrear graves consecuencias para la salud. Este fenómeno, que cobró especial visibilidad con la pandemia de la COVID-19, es una de las áreas de investigación dentro del ámbito de la Recuperación de Información (RI), en torno a la cual se articula este trabajo. El proyecto tiene como objetivo central explorar cómo discernir documentos relevantes y correctos de documentos dañinos, dada una cierta intención de búsqueda. Para ello, se propone un estudio estructurado en tres líneas de investigación. En primer lugar, se lleva a cabo un análisis sistemático del desempeño de sistemas de búsqueda del estado del arte con respecto a esta tarea. En segundo lugar, se diseña, implementa y evalúa una nueva técnica basada en Modelos Grandes de Lenguaje (LLMs) para la generación de alternativas de consultas enviadas por usuarios/as, de forma que sus variantes favorezcan la recuperación de documentos relevantes y correctos, en detrimento de la recuperación de documentos dañinos. Por último, se presenta un estudio sobre la predicción de la presencia de desinformación sanitaria en los resultados de búsqueda de consultas, para lo cual se prueban técnicas procedentes de ámbitos relacionados y se diseña, implementa y evalúa un nuevo predictor basado en LLMs y específico para esta tarea. Los hallazgos del trabajo avalan el potencial de los LLMs en el campo de la RI, al lograr mejorar la eficacia de sistemas de búsqueda punteros. Además, se subsana la ausencia de literatura previa en cuanto a la predicción de desinformación en consultas, a la vez que se prueba la capacidad de los LLMs para ello, superior a la capacidad que demuestran técnicas más generales. Parte de las aportaciones de este proyecto han sido aceptadas para su publicación en la conferencia ACM SIGIR 2025.
Dirección
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Tribunal
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
PIDASS - Plataforma Inteligente para el Diseño de Alimentos Saludables y Sostenibles
Autoría
A.C.R.
Grao en Ingeniería Informática (2ªed)
A.C.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 13:30
18.07.2025 13:30
Resumen
Este proyecto desarrolla una aplicación web para optimizar la creación de productos alimenticios en PYMES, siguiendo una metodología estructurada basada en el enfoque del investigador Jairo Torres. La herramienta busca reducir el tiempo de desarrollo y mejorar la competitividad frente a grandes empresas del sector. La aplicación es un ERP que permite a los usuarios gestionar proyectos de desarrollo de alimentos, integrando funcionalidades clave. Está desarrollada en Flask con bases de datos SQL y sigue un flujo de trabajo organizado en cuatro fases principales, que incluyen 27 funcionalidades definidas en un tablero de Miró. Para avanzar entre fases, el usuario debe revisar y aprobar el progreso manualmente. La plataforma se implementa como una solución web accesible desde cualquier dispositivo sin necesidad de instalación, alojada en un servidor remoto. Su impacto esperado es cubrir las necesidades del investigador Jairo Torres, reduciendo el tiempo de desarrollo de alimentos, con potencial para adaptarse a otras PYMES del sector con mínimas modificaciones. En este documento se detalla el proceso completo: gestión del proyecto, requisitos, diseño, pruebas, conclusiones y futuras líneas de trabajo. Además, se incluyen un manual técnico (para desarrolladores) y un manual de usuario (para clientes finales) que facilitan la comprensión y el uso del sistema.
Este proyecto desarrolla una aplicación web para optimizar la creación de productos alimenticios en PYMES, siguiendo una metodología estructurada basada en el enfoque del investigador Jairo Torres. La herramienta busca reducir el tiempo de desarrollo y mejorar la competitividad frente a grandes empresas del sector. La aplicación es un ERP que permite a los usuarios gestionar proyectos de desarrollo de alimentos, integrando funcionalidades clave. Está desarrollada en Flask con bases de datos SQL y sigue un flujo de trabajo organizado en cuatro fases principales, que incluyen 27 funcionalidades definidas en un tablero de Miró. Para avanzar entre fases, el usuario debe revisar y aprobar el progreso manualmente. La plataforma se implementa como una solución web accesible desde cualquier dispositivo sin necesidad de instalación, alojada en un servidor remoto. Su impacto esperado es cubrir las necesidades del investigador Jairo Torres, reduciendo el tiempo de desarrollo de alimentos, con potencial para adaptarse a otras PYMES del sector con mínimas modificaciones. En este documento se detalla el proceso completo: gestión del proyecto, requisitos, diseño, pruebas, conclusiones y futuras líneas de trabajo. Además, se incluyen un manual técnico (para desarrolladores) y un manual de usuario (para clientes finales) que facilitan la comprensión y el uso del sistema.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
BARBOSA PEREIRA, LETRICIA Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
BARBOSA PEREIRA, LETRICIA Cotutoría
Tribunal
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Planta de producción de acrilonitrilo
Autoría
D.I.C.S.
Grado en Ingeniería Química
D.I.C.S.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:40
16.07.2025 10:40
Resumen
El objetivo de este TFG es el diseño de una planta de producción de 50.000 toneladas anuales de acrilonitrilo. Este compuesto tiene un gran uso a nivel industrial. Se emplea comúnmente para producir fibras sintéticas, plásticos, resinas y para la síntesis de otros químicos. Este producto se obtiene mediante la reacción de amoxidación del propileno, amoníaco y oxígeno, conocido como proceso Sohio. Los principales productos de reacción son: el acrilonitrilo, HCN, acetonitrilo, agua, dióxido de carbono y monóxido de carbono. La reacción tendrá lugar en un reactor de lecho fluidizado con un catalizador óxido de bismuto molibdeno soportado en alúmina, posteriormente, los productos de reacción pasarán por un absorbedor (empleando agua como disolvente) para recuperar la mayor cantidad de acrilonitrilo posible, y finalmente, los productos pasarán por un tren de columnas de destilación, cuyo objetivo principal es la separación y purificación a un 99,7% de pureza del acrilonitrilo.
El objetivo de este TFG es el diseño de una planta de producción de 50.000 toneladas anuales de acrilonitrilo. Este compuesto tiene un gran uso a nivel industrial. Se emplea comúnmente para producir fibras sintéticas, plásticos, resinas y para la síntesis de otros químicos. Este producto se obtiene mediante la reacción de amoxidación del propileno, amoníaco y oxígeno, conocido como proceso Sohio. Los principales productos de reacción son: el acrilonitrilo, HCN, acetonitrilo, agua, dióxido de carbono y monóxido de carbono. La reacción tendrá lugar en un reactor de lecho fluidizado con un catalizador óxido de bismuto molibdeno soportado en alúmina, posteriormente, los productos de reacción pasarán por un absorbedor (empleando agua como disolvente) para recuperar la mayor cantidad de acrilonitrilo posible, y finalmente, los productos pasarán por un tren de columnas de destilación, cuyo objetivo principal es la separación y purificación a un 99,7% de pureza del acrilonitrilo.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Desarrollo e implementación de un videojuego independiente en Unreal Engine 5: CodeBreaker
Autoría
A.O.C.
Grao en Ingeniería Informática (2ªed)
A.O.C.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Motivado por la relevancia y crecimiento de la industria de los videojuegos, así como por la complejidad del desarrollo de un videojuego, se pretende desarrollar un proyecto que explore los varios aspectos del proceso de desarrollo de un videojuego de manera independiente. Comenzando por un análisis del estado del arte, y tras escoger un motor gráfico como herramienta de apoyo en la creación del sistema informático, se aborda el desarrollo de un videojuego multijugador siguiendo líneas similares a juegos desarrollados en la industria. El foco central se sitúa en la implementación de un sistema en tiempo real que permite la comunicación entre varios equipos conectados entre sí. En el proyecto se abordan las fases del diseño, implementación y pruebas, proporcionando explicaciones de las decisiones tomadas y de las pruebas realizadas, finalizando con una conclusión que une todos los esfuerzos del proyecto. Adicionalmente, se proporcionan manuales técnicos y de usuario complementarios para facilitar el desarrollo futuro y el uso del software.
Motivado por la relevancia y crecimiento de la industria de los videojuegos, así como por la complejidad del desarrollo de un videojuego, se pretende desarrollar un proyecto que explore los varios aspectos del proceso de desarrollo de un videojuego de manera independiente. Comenzando por un análisis del estado del arte, y tras escoger un motor gráfico como herramienta de apoyo en la creación del sistema informático, se aborda el desarrollo de un videojuego multijugador siguiendo líneas similares a juegos desarrollados en la industria. El foco central se sitúa en la implementación de un sistema en tiempo real que permite la comunicación entre varios equipos conectados entre sí. En el proyecto se abordan las fases del diseño, implementación y pruebas, proporcionando explicaciones de las decisiones tomadas y de las pruebas realizadas, finalizando con una conclusión que une todos los esfuerzos del proyecto. Adicionalmente, se proporcionan manuales técnicos y de usuario complementarios para facilitar el desarrollo futuro y el uso del software.
Dirección
FLORES GONZALEZ, JULIAN CARLOS (Tutoría)
González Santos, Alejandro Cotutoría
FLORES GONZALEZ, JULIAN CARLOS (Tutoría)
González Santos, Alejandro Cotutoría
Tribunal
LAMA PENIN, MANUEL (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
VARELA PET, JOSE (Vocal)
LAMA PENIN, MANUEL (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
VARELA PET, JOSE (Vocal)
ENERGETIC: Modelos fundacionales few-shot para segmentación de imagen médica
Autoría
C.C.R.
Grao en Ingeniería Informática (2ªed)
C.C.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
La segmentación automática de imágenes médicas puede facilitar el diagnóstico y pronóstico de patologías en el ámbito clínico. Sin embargo, se enfrenta a dos grandes retos: la escasez de datos etiquetados y la enorme heterogeneidad de las imágenes, por la diversidad de modalidades de imagen y variaciones de contraste, ruido y anatomías. Los modelos fundacionales, entrenados con grandes volúmenes de datos, prometen ofrecer una gran capacidad de generalización, mientras que las técnicas few-shot permiten adaptarse a entornos con muy pocos ejemplos anotados, reduciendo costes. El objetivo de este trabajo consiste en realizar un estudio comparativo de varios modelos few-shot de segmentación entrenados en conjuntos de datos de imágenes médicas multimodales, valorando su capacidad de generalización como modelo fundacional. En primer lugar, se recopilaron diversos conjuntos de datos de imágenes médicas 2D y 3D para crear una base de datos heterogénea, formada por modalidades de imagen y tareas de segmentación diversas. A continuación, sobre esta, se entrenaron cuatro arquitecturas de segmentación few-shot (PANet, PFENet, CyCTR y UniverSeg), variando tanto el uso de aumento de datos como el tamaño del conjunto de soporte (1-shot frente a 5-shot). Los resultados cuantitativos basados en la métrica DSC y la distancia de Hausdorff mostraron que el aumento de datos empeoraba el desempeño, mientras que incrementar el número de imágenes de soporte mejoraba la precisión de las segmentaciones. CyCTR y UniverSeg fueron los más precisos en tareas de segmentación utilizadas en la fase de entrenamiento, pero ambos sufrieron una caída notable en modalidades no incluidas en esa fase. Solo UniverSeg con 5 imágenes de soporte sin aumento de datos mantuvo resultados relativamente estables en escenarios nuevos, lo que sugiere que es el modelo que mejor extrae características relevantes de las imágenes de soporte. En conjunto, este estudio demuestra que los enfoques few-shot actuales presentan limitaciones significativas para comportarse como modelos fundacionales de segmentación. Esto resalta la necesidad de continuar investigando y desarrollando métodos con mejores capacidades en este ámbito.
La segmentación automática de imágenes médicas puede facilitar el diagnóstico y pronóstico de patologías en el ámbito clínico. Sin embargo, se enfrenta a dos grandes retos: la escasez de datos etiquetados y la enorme heterogeneidad de las imágenes, por la diversidad de modalidades de imagen y variaciones de contraste, ruido y anatomías. Los modelos fundacionales, entrenados con grandes volúmenes de datos, prometen ofrecer una gran capacidad de generalización, mientras que las técnicas few-shot permiten adaptarse a entornos con muy pocos ejemplos anotados, reduciendo costes. El objetivo de este trabajo consiste en realizar un estudio comparativo de varios modelos few-shot de segmentación entrenados en conjuntos de datos de imágenes médicas multimodales, valorando su capacidad de generalización como modelo fundacional. En primer lugar, se recopilaron diversos conjuntos de datos de imágenes médicas 2D y 3D para crear una base de datos heterogénea, formada por modalidades de imagen y tareas de segmentación diversas. A continuación, sobre esta, se entrenaron cuatro arquitecturas de segmentación few-shot (PANet, PFENet, CyCTR y UniverSeg), variando tanto el uso de aumento de datos como el tamaño del conjunto de soporte (1-shot frente a 5-shot). Los resultados cuantitativos basados en la métrica DSC y la distancia de Hausdorff mostraron que el aumento de datos empeoraba el desempeño, mientras que incrementar el número de imágenes de soporte mejoraba la precisión de las segmentaciones. CyCTR y UniverSeg fueron los más precisos en tareas de segmentación utilizadas en la fase de entrenamiento, pero ambos sufrieron una caída notable en modalidades no incluidas en esa fase. Solo UniverSeg con 5 imágenes de soporte sin aumento de datos mantuvo resultados relativamente estables en escenarios nuevos, lo que sugiere que es el modelo que mejor extrae características relevantes de las imágenes de soporte. En conjunto, este estudio demuestra que los enfoques few-shot actuales presentan limitaciones significativas para comportarse como modelos fundacionales de segmentación. Esto resalta la necesidad de continuar investigando y desarrollando métodos con mejores capacidades en este ámbito.
Dirección
VILA BLANCO, NICOLAS (Tutoría)
Carreira Nouche, María José Cotutoría
VILA BLANCO, NICOLAS (Tutoría)
Carreira Nouche, María José Cotutoría
Tribunal
LAMA PENIN, MANUEL (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
VARELA PET, JOSE (Vocal)
LAMA PENIN, MANUEL (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
VARELA PET, JOSE (Vocal)
Diseño de una planta de captura de dióxido de carbono empleando líquidos iónicos
Autoría
T.C.D.
Grado en Ingeniería Química
T.C.D.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 11:35
16.07.2025 11:35
Resumen
El objeto del presente proyecto es el diseño de una planta para la captura de dióxido de carbono de la corriente de gases emitida por una industria (las instalaciones de MGR Magnesitas de Rubián S.A., en cuyo proceso productivo generan de forma intrínseca CO2). Así, el objetivo de esta planta es la captura de este componente para evitar su emisión a la atmósfera (debido a los problemas de calentamiento global que causa). Para ello, se propone el uso de la tecnología de absorción química empleando un líquido iónico de tipo AHA (aniones heterocíclicos apróticos), concretamente el [P2228][2-CNPyr]. La planta se organiza en una primera sección en la que se acondicionan los gases a tratar y el líquido iónico a utilizar; una segunda en la que tiene lugar la absorción química y, posteriormente, la regeneración del líquido iónico y consecuente aislamiento del CO2; y una tercera en la que se acondiciona este dióxido para disponer de él como producto en fase líquida, y así poder llevar a cabo su venta. El equipo cuyo diseño se realiza en profundidad es la torre de absorción.
El objeto del presente proyecto es el diseño de una planta para la captura de dióxido de carbono de la corriente de gases emitida por una industria (las instalaciones de MGR Magnesitas de Rubián S.A., en cuyo proceso productivo generan de forma intrínseca CO2). Así, el objetivo de esta planta es la captura de este componente para evitar su emisión a la atmósfera (debido a los problemas de calentamiento global que causa). Para ello, se propone el uso de la tecnología de absorción química empleando un líquido iónico de tipo AHA (aniones heterocíclicos apróticos), concretamente el [P2228][2-CNPyr]. La planta se organiza en una primera sección en la que se acondicionan los gases a tratar y el líquido iónico a utilizar; una segunda en la que tiene lugar la absorción química y, posteriormente, la regeneración del líquido iónico y consecuente aislamiento del CO2; y una tercera en la que se acondiciona este dióxido para disponer de él como producto en fase líquida, y así poder llevar a cabo su venta. El equipo cuyo diseño se realiza en profundidad es la torre de absorción.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
Tribunal
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
FasterThanLight: Métricas agregadas en entornos Agiles con integración con sistemas heterogéneos
Autoría
A.D.S.
Grao en Ingeniería Informática (2ªed)
A.D.S.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 12:00
18.07.2025 12:00
Resumen
Este Trabajo de Fin de Grado, realizado en colaboración con la empresa HP, tiene como objetivo el diseño e implementación de un sistema automatizado para la extracción, procesamiento, almacenamiento y visualización de datos provenientes de las plataformas Jira y Azure DevOps. La motivación principal surge de la necesidad real de HP de consolidar y analizar la información dispersa en ambas herramientas, optimizando así la gestión de proyectos y la toma de decisiones basada en datos. El sistema desarrollado automatiza la obtención de datos relevantes mediante el uso de APIs REST, homogeneiza la información para asegurar su coherencia y la almacena en una base de datos gestionada con Django. Finalmente, los datos se presentan en dashboards interactivos creados con Power BI, facilitando el análisis visual y la extracción de conclusiones prácticas.
Este Trabajo de Fin de Grado, realizado en colaboración con la empresa HP, tiene como objetivo el diseño e implementación de un sistema automatizado para la extracción, procesamiento, almacenamiento y visualización de datos provenientes de las plataformas Jira y Azure DevOps. La motivación principal surge de la necesidad real de HP de consolidar y analizar la información dispersa en ambas herramientas, optimizando así la gestión de proyectos y la toma de decisiones basada en datos. El sistema desarrollado automatiza la obtención de datos relevantes mediante el uso de APIs REST, homogeneiza la información para asegurar su coherencia y la almacena en una base de datos gestionada con Django. Finalmente, los datos se presentan en dashboards interactivos creados con Power BI, facilitando el análisis visual y la extracción de conclusiones prácticas.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Gago Pérez, Alicia Cotutoría
Morán Bautista, Rafael Cotutoría
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Gago Pérez, Alicia Cotutoría
Morán Bautista, Rafael Cotutoría
Tribunal
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Estudio y mejora del rendimiento de modelos Octree para búsqueda de vecinos en nubes de puntos 3D
Autoría
P.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
P.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
18.07.2025 12:30
18.07.2025 12:30
Resumen
En este trabajo se presenta un enfoque para la búsqueda eficiente de vecinos en nubes de puntos 3D, en especial las obtenidas mediante tecnología LiDAR. El método propuesto consiste en un reordenamiento espacial de la nube fundamentado en las Curvas de Llenado del Espacio (SFCs), junto a implementaciones eficientes de búsqueda basadas en Octrees. Se explora cómo las SFCs de Morton y Hilbert pueden optimizar la organización de los datos tridimensionales, mejorando el rendimiento de las consultas de vecindad y la construcción de estructuras sobre la nube. Se proponen y evalúan diversas variantes del Octree, analizando su impacto en la eficiencia y escalabilidad del método propuesto. Los resultados experimentales demuestran que el reordenamiento mediante SFCs y el uso de algoritmos de búsqueda sobre Octrees especializados mejoran significativamente el acceso a datos espaciales, ofreciendo una solución robusta para aplicaciones que requieren procesamiento rápido de grandes conjuntos de puntos 3D. Una parte de este trabajo ha sido presentado en las XXXV Jornadas de Paralelismo de SARTECO.
En este trabajo se presenta un enfoque para la búsqueda eficiente de vecinos en nubes de puntos 3D, en especial las obtenidas mediante tecnología LiDAR. El método propuesto consiste en un reordenamiento espacial de la nube fundamentado en las Curvas de Llenado del Espacio (SFCs), junto a implementaciones eficientes de búsqueda basadas en Octrees. Se explora cómo las SFCs de Morton y Hilbert pueden optimizar la organización de los datos tridimensionales, mejorando el rendimiento de las consultas de vecindad y la construcción de estructuras sobre la nube. Se proponen y evalúan diversas variantes del Octree, analizando su impacto en la eficiencia y escalabilidad del método propuesto. Los resultados experimentales demuestran que el reordenamiento mediante SFCs y el uso de algoritmos de búsqueda sobre Octrees especializados mejoran significativamente el acceso a datos espaciales, ofreciendo una solución robusta para aplicaciones que requieren procesamiento rápido de grandes conjuntos de puntos 3D. Una parte de este trabajo ha sido presentado en las XXXV Jornadas de Paralelismo de SARTECO.
Dirección
Fernández Rivera, Francisco (Tutoría)
YERMO GARCIA, MIGUEL Cotutoría
Fernández Rivera, Francisco (Tutoría)
YERMO GARCIA, MIGUEL Cotutoría
Tribunal
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Modificación y Personalización de Arkime para la Detección de Ataques en Red
Autoría
L.D.C.
Grao en Ingeniería Informática (2ªed)
L.D.C.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
Este Trabajo de Fin de Grado presenta el diseño e implementación de un sistema de captura y análisis de tráfico de red orientado a la detección de amenazas en un entorno de red virtualizado. El objetivo principal ha sido evaluar la herramienta Arkime como componente central de detección pasiva y análisis forense, integrándola con tecnologías complementarias para aumentar su eficacia en la identificación de comportamientos maliciosos. El entorno de pruebas ha sido desplegado sobre una infraestructura basada en Proxmox VE, con múltiples máquinas virtuales simulando roles típicos en una red corporativa: nodos vulnerables, atacante, firewall y máquina de análisis. Arkime se ha instalado en una máquina Debian y se ha conectado con un servicio externo de OpenSearch para la indexación y visualización avanzada de los datos capturados. A lo largo del proyecto se han desarrollado distintas reglas personalizadas de detección en formato YAML y YARA, orientadas a identificar vectores de ataque frecuentes como inyecciones SQL, XSS, comandos remotos o el uso de protocolos inseguros. Además, se han diseñado scripts en Python que interactúan con la API de Arkime para detectar patrones de comportamiento no identificables mediante reglas estáticas, como ataques de denegación de servicio, fuerza bruta o accesos desde IPs externas. Las pruebas se han realizado sobre distintos escenarios reales: ataques web utilizando DVWA, explotación de servicios vulnerables, ataques contra Active Directory (GOAD v2) y simulación de intrusiones. Los resultados han demostrado que Arkime, complementado con desarrollos propios, puede utilizarse como base para un sistema de detección pasiva flexible, ampliable y eficaz, incluso en entornos con limitaciones de visibilidad o cifrado. El trabajo concluye con una reflexión sobre las limitaciones actuales del sistema y plantea posibles líneas de mejora, como la integración con motores de correlación, el análisis de tráfico cifrado y la automatización de respuestas ante incidentes.
Este Trabajo de Fin de Grado presenta el diseño e implementación de un sistema de captura y análisis de tráfico de red orientado a la detección de amenazas en un entorno de red virtualizado. El objetivo principal ha sido evaluar la herramienta Arkime como componente central de detección pasiva y análisis forense, integrándola con tecnologías complementarias para aumentar su eficacia en la identificación de comportamientos maliciosos. El entorno de pruebas ha sido desplegado sobre una infraestructura basada en Proxmox VE, con múltiples máquinas virtuales simulando roles típicos en una red corporativa: nodos vulnerables, atacante, firewall y máquina de análisis. Arkime se ha instalado en una máquina Debian y se ha conectado con un servicio externo de OpenSearch para la indexación y visualización avanzada de los datos capturados. A lo largo del proyecto se han desarrollado distintas reglas personalizadas de detección en formato YAML y YARA, orientadas a identificar vectores de ataque frecuentes como inyecciones SQL, XSS, comandos remotos o el uso de protocolos inseguros. Además, se han diseñado scripts en Python que interactúan con la API de Arkime para detectar patrones de comportamiento no identificables mediante reglas estáticas, como ataques de denegación de servicio, fuerza bruta o accesos desde IPs externas. Las pruebas se han realizado sobre distintos escenarios reales: ataques web utilizando DVWA, explotación de servicios vulnerables, ataques contra Active Directory (GOAD v2) y simulación de intrusiones. Los resultados han demostrado que Arkime, complementado con desarrollos propios, puede utilizarse como base para un sistema de detección pasiva flexible, ampliable y eficaz, incluso en entornos con limitaciones de visibilidad o cifrado. El trabajo concluye con una reflexión sobre las limitaciones actuales del sistema y plantea posibles líneas de mejora, como la integración con motores de correlación, el análisis de tráfico cifrado y la automatización de respuestas ante incidentes.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Cernadas Pérez, Guzmán Cotutoría
García Villada, Diego Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Cernadas Pérez, Guzmán Cotutoría
García Villada, Diego Cotutoría
Tribunal
LAMA PENIN, MANUEL (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
VARELA PET, JOSE (Vocal)
LAMA PENIN, MANUEL (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
VARELA PET, JOSE (Vocal)
Generación de bindings MPI para el lenguaje de programación Julia
Autoría
J.E.V.
Grao en Ingeniería Informática (2ªed)
J.E.V.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 13:00
18.07.2025 13:00
Resumen
En el ámbito de la computación de altas prestaciones (HPC), el uso del estándar Message Passing Interface (MPI) es fundamental para el desarrollo de aplicaciones paralelas en sistemas distribuidos. A medida que lenguajes de alto nivel como Julia ganan presencia en este tipo de entornos científicos y técnicos, se hace cada vez más necesaria la existencia de mecanismos robustos que permitan su interoperabilidad con bibliotecas escritas en C, como es el caso de MPI. No obstante, las soluciones existentes presentan importantes limitaciones en términos de portabilidad, mantenimiento y adaptación a nuevas versiones del estándar. En este trabajo, se aborda este problema dentro del marco del proyecto MPI4All, una infraestructura diseñada para generar automáticamente bindings del estándar MPI en distintos lenguajes. Concretamente, el objetivo es desarrollar e integrar un nuevo generador específico para Julia, permitiendo así que MPI4All sea capaz de producir bindings completos y funcionales para este lenguaje. Para ello, se ha aprovechado la arquitectura modular del sistema, que separa el análisis de la API de MPI de la generación de código, lo que ha permitido construir una solución robusta, mantenible y extensible. Para validar la solución, se han implementado varios benchmarks representativos del ámbito HPC. Estas pruebas, ejecutadas en el supercomputador Finisterrae III del CESGA, han demostrado que los bindings generados permiten un uso eficiente y fiable de MPI desde Julia, alcanzando un rendimiento competitivo en comparación con implementaciones en C y otras soluciones existentes en el ecosistema del lenguaje. El resultado es un sistema flexible y portable que facilita la integración de Julia en flujos de trabajo paralelos de alto rendimiento, reduciendo significativamente la complejidad técnica y el esfuerzo necesario para mantener compatibilidad con distintas versiones del estándar MPI.
En el ámbito de la computación de altas prestaciones (HPC), el uso del estándar Message Passing Interface (MPI) es fundamental para el desarrollo de aplicaciones paralelas en sistemas distribuidos. A medida que lenguajes de alto nivel como Julia ganan presencia en este tipo de entornos científicos y técnicos, se hace cada vez más necesaria la existencia de mecanismos robustos que permitan su interoperabilidad con bibliotecas escritas en C, como es el caso de MPI. No obstante, las soluciones existentes presentan importantes limitaciones en términos de portabilidad, mantenimiento y adaptación a nuevas versiones del estándar. En este trabajo, se aborda este problema dentro del marco del proyecto MPI4All, una infraestructura diseñada para generar automáticamente bindings del estándar MPI en distintos lenguajes. Concretamente, el objetivo es desarrollar e integrar un nuevo generador específico para Julia, permitiendo así que MPI4All sea capaz de producir bindings completos y funcionales para este lenguaje. Para ello, se ha aprovechado la arquitectura modular del sistema, que separa el análisis de la API de MPI de la generación de código, lo que ha permitido construir una solución robusta, mantenible y extensible. Para validar la solución, se han implementado varios benchmarks representativos del ámbito HPC. Estas pruebas, ejecutadas en el supercomputador Finisterrae III del CESGA, han demostrado que los bindings generados permiten un uso eficiente y fiable de MPI desde Julia, alcanzando un rendimiento competitivo en comparación con implementaciones en C y otras soluciones existentes en el ecosistema del lenguaje. El resultado es un sistema flexible y portable que facilita la integración de Julia en flujos de trabajo paralelos de alto rendimiento, reduciendo significativamente la complejidad técnica y el esfuerzo necesario para mantener compatibilidad con distintas versiones del estándar MPI.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
Tribunal
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Rediseño de una Planta Fischer Tropsch convencional para combustibles sostenibles
Autoría
J.F.C.
Grado en Ingeniería Química
J.F.C.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:05
16.07.2025 12:05
Resumen
En el presente proyecto se plantean dos modificaciones para el proceso de producción Fischer Tropsch convencional hacia combustibles sostenibles para hacerlo más flexible. Se decidide la producción de combustibles sostenibles para aviación, SAF por su creciente demanda e impacto en huella de carbono de los combustibles convencionales. En el proyecto se incluye el análisis de las alternativas disponibles, la justificación de la producción de SAF y el diseño detallado de dos de las unidades del conjunto, una en la línea de acondicionamiento y otra en la línea de recirculación. Lucía Freire realiza el diseño de la columna de absorción de relleno en la línea de alimentación y Julia Feijoo Cacabelos del diseño del reactor autotérmico de lecho fijo catalítico de la sección de recirculación.
En el presente proyecto se plantean dos modificaciones para el proceso de producción Fischer Tropsch convencional hacia combustibles sostenibles para hacerlo más flexible. Se decidide la producción de combustibles sostenibles para aviación, SAF por su creciente demanda e impacto en huella de carbono de los combustibles convencionales. En el proyecto se incluye el análisis de las alternativas disponibles, la justificación de la producción de SAF y el diseño detallado de dos de las unidades del conjunto, una en la línea de acondicionamiento y otra en la línea de recirculación. Lucía Freire realiza el diseño de la columna de absorción de relleno en la línea de alimentación y Julia Feijoo Cacabelos del diseño del reactor autotérmico de lecho fijo catalítico de la sección de recirculación.
Dirección
VIDAL TATO, MARIA ISABEL (Tutoría)
VIDAL TATO, MARIA ISABEL (Tutoría)
Tribunal
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
Planta de Producción de Hidrógeno Dorado a partir de lodos de depuradora.
Autoría
C.F.N.
Grado en Ingeniería Química
C.F.N.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:45
16.07.2025 12:45
Resumen
El presente Trabajo Fin de Grado tiene como objetivo el diseño de una planta de producción de hidrógeno con captura de dióxido de carbono a partir de biometano, denominado hidrógeno dorado. El biometano se generará en la propia planta mediante la disgestión anaerobiade lodos de estaciones depuradoras, EDAR, urbanas. La capacidad de producción de la planta es de 3.150 toneladas de H2, con un 99,99% de pureza, al año. De acuerdo con las normativas y manuales técnicos pertinentes, se realiza el diseño riguroso del digestor anaerobio, el reactor de reformado catalítico y la torre de absorción de dióxido de carbono. La propuesta de valor de este proyecto residen en proporcionar una alternativa para cerrar el ciclo del carbono y aprovechar residuos orgánicos como materia prima para el proceso de producción de un producto de interés, el hidrógeno en este caso.
El presente Trabajo Fin de Grado tiene como objetivo el diseño de una planta de producción de hidrógeno con captura de dióxido de carbono a partir de biometano, denominado hidrógeno dorado. El biometano se generará en la propia planta mediante la disgestión anaerobiade lodos de estaciones depuradoras, EDAR, urbanas. La capacidad de producción de la planta es de 3.150 toneladas de H2, con un 99,99% de pureza, al año. De acuerdo con las normativas y manuales técnicos pertinentes, se realiza el diseño riguroso del digestor anaerobio, el reactor de reformado catalítico y la torre de absorción de dióxido de carbono. La propuesta de valor de este proyecto residen en proporcionar una alternativa para cerrar el ciclo del carbono y aprovechar residuos orgánicos como materia prima para el proceso de producción de un producto de interés, el hidrógeno en este caso.
Dirección
SANCHEZ FERNANDEZ, ADRIAN (Tutoría)
SANCHEZ FERNANDEZ, ADRIAN (Tutoría)
Tribunal
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
Análisis y comparativa en técnicas de detección e tratamiento del Concept Drift
Autoría
F.F.M.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
F.F.M.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
En este trabajo se comparan distintas técnicas para la detección y adaptación del Concept Drift, un fenómeno que se manifiesta en entornos dinámicos y no estacionarios, donde las relaciones estadísticas entre las variables del modelo cambian con el tiempo, afectando en algunos casos a su rendimiento. El objetivo principal consiste en evaluar diversos detectores de drift presentes en la Literatura, junto con el análisis de diversas técnicas de adaptación tras la detección. El estudio se desarrolla sobre un entorno experimental con datasets artificiales que simulan distintos tipos de drift, aplicados sobre un modelo de clasificación. Se analizan algoritmos clásicos de la librería RiverML, en escenarios con y sin información previa del entorno, aplicando en el primer caso una optimización de hiperparámetros mediante un método novedoso basado en Random Search. Sobre KSWIN, uno de los algoritmos evaluados, se incorpora modificación desarrollada de forma complementaria en el Trabajo Fin de Grado en Matemáticas, que introduce técnicas estadísticas como contrastes múltiples y la corrección de Benjamini Hochberg para mejorar el proceso de detección, así como un sistema de identificación del tipo de drift mediante inferencia no paramétrica, considerado innovador en la Literatura. Los resultados ponen de manifiesto las fortalezas y limitaciones tanto de los detectores como de las estrategias de adaptación analizadas. Si bien algunos algoritmos, como HDDMW, muestran un buen rendimiento general, la elección del detector más adecuado depende en gran medida del caso de uso y del tipo de drift presente. Asimismo, la adaptación basada en mini batches ofrece un desempeño sólido frente al reentrenamiento periódico. Además, la modificación propuesta sobre KSWIN mejora al resto de detectores en cuanto a equilibrio entre falsos positivos y falsos negativos durante el proceso de detección, y sienta una base sólida en el método de identificación del tipo de drift.
En este trabajo se comparan distintas técnicas para la detección y adaptación del Concept Drift, un fenómeno que se manifiesta en entornos dinámicos y no estacionarios, donde las relaciones estadísticas entre las variables del modelo cambian con el tiempo, afectando en algunos casos a su rendimiento. El objetivo principal consiste en evaluar diversos detectores de drift presentes en la Literatura, junto con el análisis de diversas técnicas de adaptación tras la detección. El estudio se desarrolla sobre un entorno experimental con datasets artificiales que simulan distintos tipos de drift, aplicados sobre un modelo de clasificación. Se analizan algoritmos clásicos de la librería RiverML, en escenarios con y sin información previa del entorno, aplicando en el primer caso una optimización de hiperparámetros mediante un método novedoso basado en Random Search. Sobre KSWIN, uno de los algoritmos evaluados, se incorpora modificación desarrollada de forma complementaria en el Trabajo Fin de Grado en Matemáticas, que introduce técnicas estadísticas como contrastes múltiples y la corrección de Benjamini Hochberg para mejorar el proceso de detección, así como un sistema de identificación del tipo de drift mediante inferencia no paramétrica, considerado innovador en la Literatura. Los resultados ponen de manifiesto las fortalezas y limitaciones tanto de los detectores como de las estrategias de adaptación analizadas. Si bien algunos algoritmos, como HDDMW, muestran un buen rendimiento general, la elección del detector más adecuado depende en gran medida del caso de uso y del tipo de drift presente. Asimismo, la adaptación basada en mini batches ofrece un desempeño sólido frente al reentrenamiento periódico. Además, la modificación propuesta sobre KSWIN mejora al resto de detectores en cuanto a equilibrio entre falsos positivos y falsos negativos durante el proceso de detección, y sienta una base sólida en el método de identificación del tipo de drift.
Dirección
MERA PEREZ, DAVID (Tutoría)
MERA PEREZ, DAVID (Tutoría)
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
Rediseño de una planta Fischer Tropsch convencional para combustibles sostenibles
Autoría
L.F.M.
Grado en Ingeniería Química
L.F.M.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:05
16.07.2025 12:05
Resumen
En el presente proyecto se plantean dos modificaciones para el proceso de producción Fischer Tropsch convencional hacia combustibles sostenibles para hacerlo más flexible. Se decidide la producción de combustibles sostenibles para aviación, SAF por su creciente demanda e impacto en huella de carbono de los combustibles convencionales. En el proyecto se incluye el análisis de las alternativas disponibles, la justificación de la producción de SAF y el diseño detallado de dos de las unidades del conjunto, una en la línea de acondicionamiento y otra en la línea de recirculación. Lucía Freire realiza el diseño de la columna de absorción de relleno en la línea de alimentación y Julia Feijoo Cacabelos del diseño del reactor autotérmico de lecho fijo catalítico de la sección de recirculación.
En el presente proyecto se plantean dos modificaciones para el proceso de producción Fischer Tropsch convencional hacia combustibles sostenibles para hacerlo más flexible. Se decidide la producción de combustibles sostenibles para aviación, SAF por su creciente demanda e impacto en huella de carbono de los combustibles convencionales. En el proyecto se incluye el análisis de las alternativas disponibles, la justificación de la producción de SAF y el diseño detallado de dos de las unidades del conjunto, una en la línea de acondicionamiento y otra en la línea de recirculación. Lucía Freire realiza el diseño de la columna de absorción de relleno en la línea de alimentación y Julia Feijoo Cacabelos del diseño del reactor autotérmico de lecho fijo catalítico de la sección de recirculación.
Dirección
VIDAL TATO, MARIA ISABEL (Tutoría)
VIDAL TATO, MARIA ISABEL (Tutoría)
Tribunal
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
Creación de una apliación web para un club de baloncesto
Autoría
A.G.G.
Grao en Ingeniería Informática (2ªed)
A.G.G.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 12:00
17.07.2025 12:00
Resumen
Este trabajo tiene como objetivo el diseño y desarrollo de una aplicación web orientada a la gestión interna de un club de baloncesto así como a su proyección pública. La plataforma permite tanto la gestión de jugadores, partidos, convocatorias, categorías, temporadas y los períodos de inscripción, como la consulta de información relevante del club a través de la web. La aplicación se estructura en dos partes: un backend desarrollado en Java con Spring Boot que será el encargado de gestionar la lógica de negocio, y un frontend construido en Vue.js que ofrece a los usuarios una interfaz visual y responsiva para interactuar con el sistema. Durante el desarrollo del proyecto se asumieron, entre otros, los roles de gestor de proyectos, desarrollador, analista o devOps. El resultado final es una herramienta a medida, funcional y desplegable que se adapta a las necesidades de un cliente real.
Este trabajo tiene como objetivo el diseño y desarrollo de una aplicación web orientada a la gestión interna de un club de baloncesto así como a su proyección pública. La plataforma permite tanto la gestión de jugadores, partidos, convocatorias, categorías, temporadas y los períodos de inscripción, como la consulta de información relevante del club a través de la web. La aplicación se estructura en dos partes: un backend desarrollado en Java con Spring Boot que será el encargado de gestionar la lógica de negocio, y un frontend construido en Vue.js que ofrece a los usuarios una interfaz visual y responsiva para interactuar con el sistema. Durante el desarrollo del proyecto se asumieron, entre otros, los roles de gestor de proyectos, desarrollador, analista o devOps. El resultado final es una herramienta a medida, funcional y desplegable que se adapta a las necesidades de un cliente real.
Dirección
VARELA PET, JOSE (Tutoría)
VARELA PET, JOSE (Tutoría)
Tribunal
VARELA PET, JOSE (Tutor del alumno)
VARELA PET, JOSE (Tutor del alumno)
Planta de producción de detergente tipo LABS
Autoría
A.G.V.
Grado en Ingeniería Química
A.G.V.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 09:30
16.07.2025 09:30
Resumen
Diseño de una planta de producción de detergente tipo LABS a partir de benceno y dodeceno con una capacidad de producción de 120.000 toneladas anuales. Este proceso cuenta con tres reacciones, alquilación, sulfonación y neutralización. Además, se lleva a cabo el acondicionamiento previo a las entradas de los reactores y las respectivas operaciones de separación, El reactor de alquilación es diseñado por Lucía Pardilla Fraguas, la segunda columna de destilación por Noelia López García y el reactor de sulfonación por Antía Gándara Vieito.
Diseño de una planta de producción de detergente tipo LABS a partir de benceno y dodeceno con una capacidad de producción de 120.000 toneladas anuales. Este proceso cuenta con tres reacciones, alquilación, sulfonación y neutralización. Además, se lleva a cabo el acondicionamiento previo a las entradas de los reactores y las respectivas operaciones de separación, El reactor de alquilación es diseñado por Lucía Pardilla Fraguas, la segunda columna de destilación por Noelia López García y el reactor de sulfonación por Antía Gándara Vieito.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
Análisis de la seguridad y búsqueda de vulnerabilidades en dispositivos IoT
Autoría
A.G.F.
Grao en Ingeniería Informática (2ªed)
A.G.F.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
El crecimiento acelerado del ecosistema IoT ha traído consigo un aumento exponencial de vulnerabilidades, muchas de las cuales están asociadas al firmware, un componente clave pero frecuentemente descuidado en términos de protección. La falta de metodologías estructuradas y de bajo coste para abordar su análisis limita la capacidad de detectar y mitigar fallos en estos dispositivos, tanto en contextos educativos como profesionales. Ante esta necesidad, el trabajo desarrolla una metodología original orientada a entornos domésticos, aplicable sin necesidad de equipamiento especializado ni conocimientos avanzados en electrónica. El enfoque propuesto se basa en el uso de herramientas de código abierto y hardware económico, lo que permite su adopción en contextos formativos, autodidactas o de auditoría ligera. La metodología está estructurada en cinco fases encadenadas: recopilación de información, exploración de interfaces físicas, extracción del firmware, análisis estático y validación de hallazgos. Cada etapa cuenta con objetivos, procedimientos claros y criterios de verificación. El diseño de esta metodología se centra en combinar eficacia técnica con realismo operativo. Se parte de supuestos verosímiles, como la ausencia de documentación oficial o la presencia de protecciones físicas moderadas. Además, se da prioridad a técnicas no invasivas, fomentando una aproximación responsable y segura al análisis de dispositivos reales. El trabajo valida la metodología propuesta mediante su aplicación sobre un caso práctico, que permite comprobar la viabilidad del enfoque, identificar vulnerabilidades reales y documentar el proceso de análisis de forma reproducible. Los resultados obtenidos evidencian que, incluso con recursos limitados, es posible llevar a cabo investigaciones con un nivel técnico significativo y obtener conclusiones relevantes en materia de seguridad embebida.
El crecimiento acelerado del ecosistema IoT ha traído consigo un aumento exponencial de vulnerabilidades, muchas de las cuales están asociadas al firmware, un componente clave pero frecuentemente descuidado en términos de protección. La falta de metodologías estructuradas y de bajo coste para abordar su análisis limita la capacidad de detectar y mitigar fallos en estos dispositivos, tanto en contextos educativos como profesionales. Ante esta necesidad, el trabajo desarrolla una metodología original orientada a entornos domésticos, aplicable sin necesidad de equipamiento especializado ni conocimientos avanzados en electrónica. El enfoque propuesto se basa en el uso de herramientas de código abierto y hardware económico, lo que permite su adopción en contextos formativos, autodidactas o de auditoría ligera. La metodología está estructurada en cinco fases encadenadas: recopilación de información, exploración de interfaces físicas, extracción del firmware, análisis estático y validación de hallazgos. Cada etapa cuenta con objetivos, procedimientos claros y criterios de verificación. El diseño de esta metodología se centra en combinar eficacia técnica con realismo operativo. Se parte de supuestos verosímiles, como la ausencia de documentación oficial o la presencia de protecciones físicas moderadas. Además, se da prioridad a técnicas no invasivas, fomentando una aproximación responsable y segura al análisis de dispositivos reales. El trabajo valida la metodología propuesta mediante su aplicación sobre un caso práctico, que permite comprobar la viabilidad del enfoque, identificar vulnerabilidades reales y documentar el proceso de análisis de forma reproducible. Los resultados obtenidos evidencian que, incluso con recursos limitados, es posible llevar a cabo investigaciones con un nivel técnico significativo y obtener conclusiones relevantes en materia de seguridad embebida.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
IA embebida para clasificación de imágenes multiespectrales: un enfoque optimizado con Raspberry Pi 5 y Hailo 8L
Autoría
P.G.F.
Grao en Ingeniería Informática (2ªed)
P.G.F.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este trabajo busca acercar la clasificación de imágenes multiespectrales con aprendizaje profundo a los sistemas de edge computing. El principal objetivo es la adaptación de modelos de clasificación de imágenes multiespectrales para que puedan ejecutarse en un sistema embebido formado por una Raspberry Pi 5 con un módulo acelerador de inteligencia artificial Hailo 8L. Para alcanzar este objetivo, se propone un pipeline que permite la adaptación y compilación de los modelos de aprendizaje profundo desde su representación base en PyTorch hasta alcanzar un modelo que pueda ejecutarse en el sistema embebido. Esta adaptación implica el uso de técnicas de optimización de modelos que cuantizan sus pesos y modifican sus valores para reducir al mínimo las pérdidas de precisión y obtener unos tiempos de inferencia razonables en dispositivos con bajas capacidades de cómputo y consumos reducidos. Seleccionando dos modelos basados en una red neuronal convolucional y una red generativa antagónica, se llevaron a cabo una serie de pruebas para estudiar el comportamiento de los modelos ante diferentes técnicas de optimización. Esto permitió extraer unas conclusiones sobre el proceso de adaptación de los modelos, sobre las técnicas empleadas y sobre las arquitecturas seleccionadas. En general, estos resultados mostraron que el enfoque formulado inicialmente es viable para el sistema seleccionado, presenta diversas limitaciones y requiere posibles ampliaciones con investigaciones más detalladas, pero supone un punto de partida para un nuevo abanico de aplicaciones que se beneficien de este paradigma.
Este trabajo busca acercar la clasificación de imágenes multiespectrales con aprendizaje profundo a los sistemas de edge computing. El principal objetivo es la adaptación de modelos de clasificación de imágenes multiespectrales para que puedan ejecutarse en un sistema embebido formado por una Raspberry Pi 5 con un módulo acelerador de inteligencia artificial Hailo 8L. Para alcanzar este objetivo, se propone un pipeline que permite la adaptación y compilación de los modelos de aprendizaje profundo desde su representación base en PyTorch hasta alcanzar un modelo que pueda ejecutarse en el sistema embebido. Esta adaptación implica el uso de técnicas de optimización de modelos que cuantizan sus pesos y modifican sus valores para reducir al mínimo las pérdidas de precisión y obtener unos tiempos de inferencia razonables en dispositivos con bajas capacidades de cómputo y consumos reducidos. Seleccionando dos modelos basados en una red neuronal convolucional y una red generativa antagónica, se llevaron a cabo una serie de pruebas para estudiar el comportamiento de los modelos ante diferentes técnicas de optimización. Esto permitió extraer unas conclusiones sobre el proceso de adaptación de los modelos, sobre las técnicas empleadas y sobre las arquitecturas seleccionadas. En general, estos resultados mostraron que el enfoque formulado inicialmente es viable para el sistema seleccionado, presenta diversas limitaciones y requiere posibles ampliaciones con investigaciones más detalladas, pero supone un punto de partida para un nuevo abanico de aplicaciones que se beneficien de este paradigma.
Dirección
SUAREZ GAREA, JORGE ALBERTO (Tutoría)
LOPEZ FANDIÑO, JAVIER Cotutoría
ORDOÑEZ IGLESIAS, ALVARO Cotutoría
SUAREZ GAREA, JORGE ALBERTO (Tutoría)
LOPEZ FANDIÑO, JAVIER Cotutoría
ORDOÑEZ IGLESIAS, ALVARO Cotutoría
Tribunal
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
Planta de producción de butirato de etilo a partir de la esterificación de ácido butírico con etanol.
Autoría
P.G.M.
Grado en Ingeniería Química
P.G.M.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 11:25
16.07.2025 11:25
Resumen
El objetivo de este proyecto es desarrollar el diseño de una planta industrial dedicada a la producción de butirato de etilo mediante la reacción de esterificación entre ácido butírico y etanol. La instalación tendrá una capacidad de 5.000 toneladas anuales de butirato de etilo con una pureza del 99,62 % en peso, y operará de forma continua durante 330 días al año, 24 horas al día. Entre los equipos principales se encuentran el reactor multitubular R-201, diseñado por Paula Garrido Moreno, y la columna de destilación T-302, diseñada por Estela Martínez Regueira. Este documento constituye el Trabajo Fin de Grado con el que Paula Garrido Moreno y Estela Martínez Regueira optan al título de Grado en Ingeniería Química, otorgado por la Escola Técnica Superior de Enxeñaría de la Universidade de Santiago de Compostela.
El objetivo de este proyecto es desarrollar el diseño de una planta industrial dedicada a la producción de butirato de etilo mediante la reacción de esterificación entre ácido butírico y etanol. La instalación tendrá una capacidad de 5.000 toneladas anuales de butirato de etilo con una pureza del 99,62 % en peso, y operará de forma continua durante 330 días al año, 24 horas al día. Entre los equipos principales se encuentran el reactor multitubular R-201, diseñado por Paula Garrido Moreno, y la columna de destilación T-302, diseñada por Estela Martínez Regueira. Este documento constituye el Trabajo Fin de Grado con el que Paula Garrido Moreno y Estela Martínez Regueira optan al título de Grado en Ingeniería Química, otorgado por la Escola Técnica Superior de Enxeñaría de la Universidade de Santiago de Compostela.
Dirección
Rodríguez Figueiras, Óscar (Tutoría)
Rodríguez Figueiras, Óscar (Tutoría)
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
Modelos de visión-lenguaje robustos a objetos pequeños
Autoría
N.G.S.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
N.G.S.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
Este trabajo se centra en la optimización de modelos de visión-lenguaje (VLMs) aplicados a tareas de pregunta/respuesta visual (VQA) sobre vídeos con objetos pequeños, un escenario que plantea importantes retos computacionales debido al elevado número de tokens visuales irrelevantes que se generan. Para abordar este problema, se propone un método basado en la integración de un detector que identifica regiones visuales relevantes en los fotogramass del vídeo, lo que permite filtrar los tokens visuales asociados al fondo generados por el módulo de visión (ViT) antes de ser procesados por el modelo de lenguaje (LLM). Los resultados experimentales muestran que este filtrado permite eliminar una gran proporción de tokens visuales, lo que conlleva una notable reducción de la complejidad computacional del modelo de lenguaje y, en consecuencia, una disminución en la complejidad total del sistema, sin comprometer el rendimiento. Asimismo, se observa una mejora en el tiempo de ejecución del LLM, lo que contribuye a una mayor eficiencia en el procesamiento textual. Sin embargo, el impacto sobre el tiempo total de inferencia está condicionado por el ViT, que sigue representando el principal cuello de botella debido al procesamiento de imágenes en alta resolución, así como por el coste computacional adicional del detector utilizado. Este trabajo valida el uso de técnicas de filtrado como una estrategia eficaz para mejorar la eficiencia de los VLMs y abre nuevas líneas de investigación dirigidas a optimizar también el procesamiento visual, así como a explorar detectores más ligeros.
Este trabajo se centra en la optimización de modelos de visión-lenguaje (VLMs) aplicados a tareas de pregunta/respuesta visual (VQA) sobre vídeos con objetos pequeños, un escenario que plantea importantes retos computacionales debido al elevado número de tokens visuales irrelevantes que se generan. Para abordar este problema, se propone un método basado en la integración de un detector que identifica regiones visuales relevantes en los fotogramass del vídeo, lo que permite filtrar los tokens visuales asociados al fondo generados por el módulo de visión (ViT) antes de ser procesados por el modelo de lenguaje (LLM). Los resultados experimentales muestran que este filtrado permite eliminar una gran proporción de tokens visuales, lo que conlleva una notable reducción de la complejidad computacional del modelo de lenguaje y, en consecuencia, una disminución en la complejidad total del sistema, sin comprometer el rendimiento. Asimismo, se observa una mejora en el tiempo de ejecución del LLM, lo que contribuye a una mayor eficiencia en el procesamiento textual. Sin embargo, el impacto sobre el tiempo total de inferencia está condicionado por el ViT, que sigue representando el principal cuello de botella debido al procesamiento de imágenes en alta resolución, así como por el coste computacional adicional del detector utilizado. Este trabajo valida el uso de técnicas de filtrado como una estrategia eficaz para mejorar la eficiencia de los VLMs y abre nuevas líneas de investigación dirigidas a optimizar también el procesamiento visual, así como a explorar detectores más ligeros.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
Técnicas de Generación Procedural y Entornos Dinámicos aplicadas al Desarrollo de un Videojuego en Godot
Autoría
P.G.B.
Grao en Ingeniería Informática (2ªed)
P.G.B.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 12:30
17.07.2025 12:30
Resumen
Este Trabajo de Fin de Grado presenta el desarrollo de un prototipo funcional de un videojuego 2D, basado en la generación procedural. Además, incluye mecánicas típicas de los videojuegos como la exploración, el combate y la progresión del personaje en partidas frenéticas. El objetivo principal ha sido diseñar y construir un sistema que permita implementar las mécanicas de juego de forma modular, con el objetivo de permitir ampliar el alcance del videojuego tras la finalización del trabajo. La implementación se ha realizado utilizando un motor gráfico de código abierto, Godot Engine. En él se han aplicado principios de la programación orientada a objetos y una metodología ágil adaptada a un proyecto individual. Se ha prestado especial atención a la implementación de un sistema de generación procedural personalizado, además de otros módulos como un sistema de movimiento del jugador, un sistema de combate con una IA básica de enemigos, un sistema de progresión y la integración de una interfaz de usuario dinámica a la partida. El resultado es un prototipo jugable que permite probar de forma integrada todas las mecánicas mencionadas. Además, se han incorporado herramientas de control de versiones, validación de código y documentación técnica. Estas características facilitan el mantenimiento del producto y reflejan una gestión del proyecto coherente con los principios de la ingeniería del software.
Este Trabajo de Fin de Grado presenta el desarrollo de un prototipo funcional de un videojuego 2D, basado en la generación procedural. Además, incluye mecánicas típicas de los videojuegos como la exploración, el combate y la progresión del personaje en partidas frenéticas. El objetivo principal ha sido diseñar y construir un sistema que permita implementar las mécanicas de juego de forma modular, con el objetivo de permitir ampliar el alcance del videojuego tras la finalización del trabajo. La implementación se ha realizado utilizando un motor gráfico de código abierto, Godot Engine. En él se han aplicado principios de la programación orientada a objetos y una metodología ágil adaptada a un proyecto individual. Se ha prestado especial atención a la implementación de un sistema de generación procedural personalizado, además de otros módulos como un sistema de movimiento del jugador, un sistema de combate con una IA básica de enemigos, un sistema de progresión y la integración de una interfaz de usuario dinámica a la partida. El resultado es un prototipo jugable que permite probar de forma integrada todas las mecánicas mencionadas. Además, se han incorporado herramientas de control de versiones, validación de código y documentación técnica. Estas características facilitan el mantenimiento del producto y reflejan una gestión del proyecto coherente con los principios de la ingeniería del software.
Dirección
VARELA PET, JOSE (Tutoría)
VARELA PET, JOSE (Tutoría)
Tribunal
VARELA PET, JOSE (Tutor del alumno)
VARELA PET, JOSE (Tutor del alumno)
Diseño de una planta de producción de ácido propanoico a partir de propanal
Autoría
B.I.V.
Grado en Ingeniería Química
B.I.V.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:05
16.07.2025 12:05
Resumen
El objetivo de este TFG es diseñar una planta de producción de ácido propanoico a partir de propanal. El ácido propanoico es un ácido carboxílico de cadena corta cuyo uso es extenso. Algunas de sus principales aplicaciones serían como conservante en comida o como compuesto precursor en la industria farmacéutica. Este compuesto se produce a través de la oxidación aerobia del propanal en presencia de un catalizador, en concreto propionato de manganeso,y en condiciones suaves de temperatura y presión. La oxidación tendrá una conversión del 60% y tendrá lugar en un reactor de borboteo. Se obtendrán como efluentes del reactor el propanal no reaccionado y el ácido propanoico como producto. El proceso de separación consistirá en una columna de destilación que separa el propanal no reaccionado del ácido propanoico. Este equipo será el seleccionado para diseñar de manera rigurosa, determinando el número de platos mediante métodos aproximados y rigurosos, realizando el diseño hidráulico y mecánico. Por útlimo, el propanal no reaccionado se recirculará al reactor y se obtentrá por la corriente de colas el ácido propanaoico listo para comercializar.
El objetivo de este TFG es diseñar una planta de producción de ácido propanoico a partir de propanal. El ácido propanoico es un ácido carboxílico de cadena corta cuyo uso es extenso. Algunas de sus principales aplicaciones serían como conservante en comida o como compuesto precursor en la industria farmacéutica. Este compuesto se produce a través de la oxidación aerobia del propanal en presencia de un catalizador, en concreto propionato de manganeso,y en condiciones suaves de temperatura y presión. La oxidación tendrá una conversión del 60% y tendrá lugar en un reactor de borboteo. Se obtendrán como efluentes del reactor el propanal no reaccionado y el ácido propanoico como producto. El proceso de separación consistirá en una columna de destilación que separa el propanal no reaccionado del ácido propanoico. Este equipo será el seleccionado para diseñar de manera rigurosa, determinando el número de platos mediante métodos aproximados y rigurosos, realizando el diseño hidráulico y mecánico. Por útlimo, el propanal no reaccionado se recirculará al reactor y se obtentrá por la corriente de colas el ácido propanaoico listo para comercializar.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
RODIL RODRIGUEZ, EVA (Tutoría)
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
Introduction to time series models
Autoría
I.L.C.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
I.L.C.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 09:10
17.07.2025 09:10
Resumen
El estudio de series de tiempo constituye una herramienta fundamental en el análisis de datos que evolucionan a lo largo del tiempo, permitiendo modelar y predecir fenómenos en campos como la economía, la meteorología, la ingeniería o las ciencias sociales. Este Trabajo Fin de Grado aborda el análisis de series de tiempo desde una perspectiva estadística clásica, considerando que las series observadas son realizaciones de procesos estocásticos. Se presentan en detalle los modelos autorregresivos (AR), de medias móviles (MA), mixtos (ARMA), integrados (ARIMA) y estacionales (SARIMA), explicando su formulación matemática, los métodos de estimación de sus parámetros y las técnicas de predicción asociadas. Asimismo, se propone una metodología para el análisis de series de tiempo, la cual será empleada en el análisis de dos series de tiempo reales. Además, se incluye un estudio de simulación para ilustrar y evaluar los procesos de estimación y predicción de los modelos.
El estudio de series de tiempo constituye una herramienta fundamental en el análisis de datos que evolucionan a lo largo del tiempo, permitiendo modelar y predecir fenómenos en campos como la economía, la meteorología, la ingeniería o las ciencias sociales. Este Trabajo Fin de Grado aborda el análisis de series de tiempo desde una perspectiva estadística clásica, considerando que las series observadas son realizaciones de procesos estocásticos. Se presentan en detalle los modelos autorregresivos (AR), de medias móviles (MA), mixtos (ARMA), integrados (ARIMA) y estacionales (SARIMA), explicando su formulación matemática, los métodos de estimación de sus parámetros y las técnicas de predicción asociadas. Asimismo, se propone una metodología para el análisis de series de tiempo, la cual será empleada en el análisis de dos series de tiempo reales. Además, se incluye un estudio de simulación para ilustrar y evaluar los procesos de estimación y predicción de los modelos.
Dirección
CRUJEIRAS CASAIS, ROSA MARÍA (Tutoría)
CRUJEIRAS CASAIS, ROSA MARÍA (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Explotación de Grandes Modelos de Linguaxe para Anotación Automática de Credibilidade
Autoría
P.L.P.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
P.L.P.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 11:30
17.07.2025 11:30
Resumen
Este trabajo fin de grado se centra en la aplicación de modelos de lenguaje de última generación, como GPT-4 y LlaMa 3, al etiquetado de documentos relacionados con temas de salud en el contexto del proyecto TREC. El objetivo principal es evaluar la posibilidad de sustituir las anotaciones realizadas por expertos humanos por etiquetas generadas con LLMs. El área de estudio de la Recuperación de la Información requiere de conjuntos de datos etiquetados de gran tamaño, que son llevados a cabo por etiquetadores humanos expertos, lo que tiene un alto coste en tiempo y dinero. Si se comprueba que estas etiquetaciones humanas pueden ser sustituidas por unas generadas automáticamente, supondría un gran avance en la generación de datasets de alta calidad. En el presente trabajo se llevará a cabo el etiquetado de los mismos documentos web que fueron etiquetados por humanos; esto nos sirve para analizar discrepancias entre las etiquetas humanas y las generadas por los modelos. También se estudió el efecto que tienen las instrucciones indicadas al modelo de lenguaje sobre la precisión del etiquetado. Basamos nuestra metodología en una publicación llevada a cabo por investigadores de Micorsoft, en la que se lleva a cabo un etiquetado de la relevancia de cada documento. Los resultados obtenidos en thomas2024 fueron muy satisfactorios y se implementaron en Bing por su mejora en tiempo, coste y calidad comparado con etiquetadores. de crowdsourcing. Nuestros resultados suponen un avance respecto a esta publicación anterior, ya que llevamos a cabo un etiquetado de características más complejas como la correctitud médica y la credibilidad. Los resultados obtenidos en nuestro trabajo resultaron en algunos casos muy similares a los de Paul Thomas et al, por lo que los consideramos suficientemente positivos como para sustituir las etiquetas humanas.
Este trabajo fin de grado se centra en la aplicación de modelos de lenguaje de última generación, como GPT-4 y LlaMa 3, al etiquetado de documentos relacionados con temas de salud en el contexto del proyecto TREC. El objetivo principal es evaluar la posibilidad de sustituir las anotaciones realizadas por expertos humanos por etiquetas generadas con LLMs. El área de estudio de la Recuperación de la Información requiere de conjuntos de datos etiquetados de gran tamaño, que son llevados a cabo por etiquetadores humanos expertos, lo que tiene un alto coste en tiempo y dinero. Si se comprueba que estas etiquetaciones humanas pueden ser sustituidas por unas generadas automáticamente, supondría un gran avance en la generación de datasets de alta calidad. En el presente trabajo se llevará a cabo el etiquetado de los mismos documentos web que fueron etiquetados por humanos; esto nos sirve para analizar discrepancias entre las etiquetas humanas y las generadas por los modelos. También se estudió el efecto que tienen las instrucciones indicadas al modelo de lenguaje sobre la precisión del etiquetado. Basamos nuestra metodología en una publicación llevada a cabo por investigadores de Micorsoft, en la que se lleva a cabo un etiquetado de la relevancia de cada documento. Los resultados obtenidos en thomas2024 fueron muy satisfactorios y se implementaron en Bing por su mejora en tiempo, coste y calidad comparado con etiquetadores. de crowdsourcing. Nuestros resultados suponen un avance respecto a esta publicación anterior, ya que llevamos a cabo un etiquetado de características más complejas como la correctitud médica y la credibilidad. Los resultados obtenidos en nuestro trabajo resultaron en algunos casos muy similares a los de Paul Thomas et al, por lo que los consideramos suficientemente positivos como para sustituir las etiquetas humanas.
Dirección
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
HVQ-Transformer para detección de anomalías en imágenes multidimensionales de teledetección
Autoría
M.L.F.
Grao en Ingeniería Informática (2ªed)
M.L.F.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
El sensado remoto es la técnica de obtener información sobre la superficie terrestre sin contacto directo. Para estas investigaciones, se usan las imágenes multiespectrales e hiperespectrales, las cuales aportan una representación detallada del terreno mediante la captura de información en múltiples bandas del espectro electromagnético. Esta riqueza espectral permite analizar la superficie terrestre con un alto grado de precisión, lo que las convierte en una herramienta fundamental para la detección de anomalías. En los últimos años, el uso de modelos de aprendizaje profundo ha cobrado relevancia en la detección de anomalías en este tipo de imágenes, debido a su capacidad para extraer representaciones complejas y captar patrones sutiles en datos de alta dimensión. A diferencia de los métodos tradicionales, las redes neuronales profundas pueden aprender características discriminativas directamente de los datos, siendo más robustas frente al ruido y las variaciones. Esto resulta especialmente útil en entornos reales donde las anomalías no siempre siguen un patrón fijo o predecible, como es común en las imágenes multiespectrales e hiperespectrales. Este trabajo se ha centrado en la implementación de una nueva versión de un modelo de detección de anomalías que funcionaba originalmente con imágenes de 3 bandas y las clasificaba a nivel de imagen, para que trabaje con imágenes multiespectrales a nivel de píxel. Se ha incorporado un modelo de última generación denominado Hierarchical Vector Quantized Transformer for Multi-class Unsupervised Anomaly Detection (HVQ-TR). Este modelo se basa en arquitecturas transformer hechas para funcionar con conjuntos de datos RGB, como CIFAR-10, con tres bandas. Su función principal es identificar imágenes anómalas de forma no supervisada, clasificando aquellas que difieren de la distribución normal del conjunto. La principal contribución del proyecto ha sido adaptar el flujo de trabajo del modelo transformer para operar sobre imágenes multiespectrales. Esto ha requerido ajustes en el procesamiento de datos, la estructura de entrada, la gestión de clases y la generación de una imagen de salida. Este enfoque permite estudiar las posibilidades de aplicar modelos originalmente diseñados para imágenes RGB en contextos multiespectrales con imágenes de 5 bandas del río Oitavén, ampliando el alcance de las técnicas de aprendizaje profundo en la detección de anomalías en imágenes de sensado remoto. Los resultados permitieron ver cómo el nuevo modelo es capaz de detectar satisfactoriamente las anomalías tras un número reducido de épocas de entrenamiento, mejorando los resultados de otros modelos del estado del arte, como el RX.
El sensado remoto es la técnica de obtener información sobre la superficie terrestre sin contacto directo. Para estas investigaciones, se usan las imágenes multiespectrales e hiperespectrales, las cuales aportan una representación detallada del terreno mediante la captura de información en múltiples bandas del espectro electromagnético. Esta riqueza espectral permite analizar la superficie terrestre con un alto grado de precisión, lo que las convierte en una herramienta fundamental para la detección de anomalías. En los últimos años, el uso de modelos de aprendizaje profundo ha cobrado relevancia en la detección de anomalías en este tipo de imágenes, debido a su capacidad para extraer representaciones complejas y captar patrones sutiles en datos de alta dimensión. A diferencia de los métodos tradicionales, las redes neuronales profundas pueden aprender características discriminativas directamente de los datos, siendo más robustas frente al ruido y las variaciones. Esto resulta especialmente útil en entornos reales donde las anomalías no siempre siguen un patrón fijo o predecible, como es común en las imágenes multiespectrales e hiperespectrales. Este trabajo se ha centrado en la implementación de una nueva versión de un modelo de detección de anomalías que funcionaba originalmente con imágenes de 3 bandas y las clasificaba a nivel de imagen, para que trabaje con imágenes multiespectrales a nivel de píxel. Se ha incorporado un modelo de última generación denominado Hierarchical Vector Quantized Transformer for Multi-class Unsupervised Anomaly Detection (HVQ-TR). Este modelo se basa en arquitecturas transformer hechas para funcionar con conjuntos de datos RGB, como CIFAR-10, con tres bandas. Su función principal es identificar imágenes anómalas de forma no supervisada, clasificando aquellas que difieren de la distribución normal del conjunto. La principal contribución del proyecto ha sido adaptar el flujo de trabajo del modelo transformer para operar sobre imágenes multiespectrales. Esto ha requerido ajustes en el procesamiento de datos, la estructura de entrada, la gestión de clases y la generación de una imagen de salida. Este enfoque permite estudiar las posibilidades de aplicar modelos originalmente diseñados para imágenes RGB en contextos multiespectrales con imágenes de 5 bandas del río Oitavén, ampliando el alcance de las técnicas de aprendizaje profundo en la detección de anomalías en imágenes de sensado remoto. Los resultados permitieron ver cómo el nuevo modelo es capaz de detectar satisfactoriamente las anomalías tras un número reducido de épocas de entrenamiento, mejorando los resultados de otros modelos del estado del arte, como el RX.
Dirección
LOPEZ FANDIÑO, JAVIER (Tutoría)
Argüello Pedreira, Francisco Santiago Cotutoría
LOPEZ FANDIÑO, JAVIER (Tutoría)
Argüello Pedreira, Francisco Santiago Cotutoría
Tribunal
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
ArtAlchemy: Modernización de Arte con IA
Autoría
A.L.M.
Grao en Ingeniería Informática (2ªed)
A.L.M.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
ArtAlchemy: Modernización de Arte con IA es una aplicación web desarrollada como Trabajo de Fin de Grado que democratiza el acceso a tecnologías avanzadas de inteligencia artificial para la transformación artística. La plataforma ofrece tres funcionalidades principales: eliminación automática de fondo mediante modelos RMBG-2.0 y BiRefNet, animación facial de retratos utilizando la API de fal.ai, y conversión de imágenes 2D a estereoscopía 3D con el modelo MiDaS. El sistema implementa una arquitectura desacoplada con un frontend desarrollado en Vue.js/Nuxt.js y un backend en Python con FastAPI, proporcionando una interfaz intuitiva que permite a usuarios sin conocimientos técnicos aplicar técnicas complejas de machine learning a obras de arte. El proyecto ha sido validado mediante pruebas funcionales y de usabilidad, obteniendo una puntuación SUS de 82.5 puntos, demostrando la viabilidad de integrar modelos de IA en aplicaciones web accesibles.
ArtAlchemy: Modernización de Arte con IA es una aplicación web desarrollada como Trabajo de Fin de Grado que democratiza el acceso a tecnologías avanzadas de inteligencia artificial para la transformación artística. La plataforma ofrece tres funcionalidades principales: eliminación automática de fondo mediante modelos RMBG-2.0 y BiRefNet, animación facial de retratos utilizando la API de fal.ai, y conversión de imágenes 2D a estereoscopía 3D con el modelo MiDaS. El sistema implementa una arquitectura desacoplada con un frontend desarrollado en Vue.js/Nuxt.js y un backend en Python con FastAPI, proporcionando una interfaz intuitiva que permite a usuarios sin conocimientos técnicos aplicar técnicas complejas de machine learning a obras de arte. El proyecto ha sido validado mediante pruebas funcionales y de usabilidad, obteniendo una puntuación SUS de 82.5 puntos, demostrando la viabilidad de integrar modelos de IA en aplicaciones web accesibles.
Dirección
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
Gago Pérez, Alicia Cotutoría
García Ullán, Pablo Cotutoría
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
Gago Pérez, Alicia Cotutoría
García Ullán, Pablo Cotutoría
Tribunal
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
Detección celular y categorización morfológica en tecnología farmacéutica
Autoría
B.L.M.
Grao en Ingeniería Informática (2ªed)
B.L.M.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 09:15
18.07.2025 09:15
Resumen
Al cultivar células, su observación es fundamental para decidir cuándo continuar con el protocolo. Las células cambian de morfología y el operador debe evaluar su progreso, basándose en su experiencia. El análisis de la morfología celular también permite evaluar el progreso de la diferenciación celular y correlacionar la forma celular con su funcionalidad. Generalmente, se realiza mediante microscopía óptica, donde el usuario diferencia el comportamiento de la célula basándose en las variaciones de elongación y forma. Sin embargo, es un proceso con un alto grado de subjetividad y no existe un sistema automático capaz de identificar, mediante una imagen, el estado de diferenciación celular. Este proyecto soluciona esta situación mediante el diseño de una arquitectura basada en aprendizaje profundo que permite la segmentación y clasificación automática de células.
Al cultivar células, su observación es fundamental para decidir cuándo continuar con el protocolo. Las células cambian de morfología y el operador debe evaluar su progreso, basándose en su experiencia. El análisis de la morfología celular también permite evaluar el progreso de la diferenciación celular y correlacionar la forma celular con su funcionalidad. Generalmente, se realiza mediante microscopía óptica, donde el usuario diferencia el comportamiento de la célula basándose en las variaciones de elongación y forma. Sin embargo, es un proceso con un alto grado de subjetividad y no existe un sistema automático capaz de identificar, mediante una imagen, el estado de diferenciación celular. Este proyecto soluciona esta situación mediante el diseño de una arquitectura basada en aprendizaje profundo que permite la segmentación y clasificación automática de células.
Dirección
Pardo López, Xosé Manuel (Tutoría)
FERNANDEZ VIDAL, XOSE RAMON Cotutoría
DIAZ RODRIGUEZ, PATRICIA Cotutoría
Pardo López, Xosé Manuel (Tutoría)
FERNANDEZ VIDAL, XOSE RAMON Cotutoría
DIAZ RODRIGUEZ, PATRICIA Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
Herramienta para la automatización del proceso de compilación y pruebas en bibliotecas Python nativas basada en tecnologías de compilación cruzada y emulación
Autoría
A.L.O.
Grao en Ingeniería Informática (2ªed)
A.L.O.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 09:45
18.07.2025 09:45
Resumen
Este Trabajo de Fin de Grado se centra en el estudio de la compilación cruzada de bibliotecas de Python que incluyen código en C y C++, así como en el desarrollo de entornos que permitan su compilación para diversas arquitecturas y sistemas operativos. El objetivo principal es proporcionar una herramienta que facilite al usuario un proceso transparente para la compilación y prueba de dichas bibliotecas. Durante el desarrollo del proyecto, se aplicaron técnicas de compilación cruzada y emulación para asegurar la correcta construcción y validación de las bibliotecas en distintos entornos. Los resultados obtenidos demuestran la viabilidad de automatizar el proceso de compilación y prueba de bibliotecas Python con componentes en C y C++, mejorando notablemente su portabilidad y compatibilidad entre múltiples plataformas. Esto representa un avance significativo en la eficiencia del desarrollo y despliegue de estas bibliotecas, ofreciendo a los usuarios una solución integrada, accesible y transparente.
Este Trabajo de Fin de Grado se centra en el estudio de la compilación cruzada de bibliotecas de Python que incluyen código en C y C++, así como en el desarrollo de entornos que permitan su compilación para diversas arquitecturas y sistemas operativos. El objetivo principal es proporcionar una herramienta que facilite al usuario un proceso transparente para la compilación y prueba de dichas bibliotecas. Durante el desarrollo del proyecto, se aplicaron técnicas de compilación cruzada y emulación para asegurar la correcta construcción y validación de las bibliotecas en distintos entornos. Los resultados obtenidos demuestran la viabilidad de automatizar el proceso de compilación y prueba de bibliotecas Python con componentes en C y C++, mejorando notablemente su portabilidad y compatibilidad entre múltiples plataformas. Esto representa un avance significativo en la eficiencia del desarrollo y despliegue de estas bibliotecas, ofreciendo a los usuarios una solución integrada, accesible y transparente.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
VAKaloura: desarrollo de un predictor de estilos de aprendizaje VAK a partir del análisis de texto
Autoría
M.L.P.
Grao en Ingeniería Informática (2ªed)
M.L.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
Este Trabajo de Fin de Grado explora la posibilidad de predecir automáticamente los estilos de aprendizaje VAK (Visual, Auditivo y Kinestésico) a partir del análisis de texto libre. La motivación principal parte de la necesidad de avanzar hacia modelos educativos más personalizados y eficientes, donde el conocimiento del estilo cognitivo de cada persona permita adaptar mejor los contenidos y metodologías de enseñanza. Para abordar este reto, se diseñó e implementó una aplicación web que recogió textos escritos por personas participantes sobre sus aficiones, junto a un formulario para identificar su estilo de aprendizaje validado por el psicólogo experto Jaume Romero. El corpus resultante incluye 116 entradas, con amplia representación del grupo infantil gracias a la colaboración del centro de enseñaza público CPI Curros Enríquez. Se probaron cuatro líneas de predicción: modelos clásicos de clasificación de texto (Naive Bayes, SVM y Regresión Logística), un modelo neuronal BERT fine-tuned, prompting zero-shot con GPT-4o y la evaluación de un psicólogo educativo experto como referencia. Las pruebas se realizaron en clasificación multietiqueta, teniendo en cuenta que una misma persona puede presentar más de un estilo de aprendizaje. Los resultados muestran que los modelos clásicos superaron con claridad a los clasificadores base (random y majority) y, en muchos casos, también al experto humano; y que incluso en condiciones limitadas (textos cortos, datos en gallego/castellano y desequilibrio de clases), fueron capaces de identificar patrones útiles. La LLM GPT-4o también fue capaz de detectar el estilo visual con cierto éxito sin entrenamiento específico, lo que refuerza la idea de que el texto libre contiene señales lingüísticas relevantes para esta tarea. Este trabajo constituye una primera aproximación sólida a la predicción automática de estilos de aprendizaje a partir de texto libre. A pesar de las limitaciones, los resultados obtenidos abren la puerta al desarrollo de sistemas accesibles y adaptables que contribuyan a una educación más personalizada y eficiente, especialmente en el contexto de lenguas minorizadas y recursos limitados.
Este Trabajo de Fin de Grado explora la posibilidad de predecir automáticamente los estilos de aprendizaje VAK (Visual, Auditivo y Kinestésico) a partir del análisis de texto libre. La motivación principal parte de la necesidad de avanzar hacia modelos educativos más personalizados y eficientes, donde el conocimiento del estilo cognitivo de cada persona permita adaptar mejor los contenidos y metodologías de enseñanza. Para abordar este reto, se diseñó e implementó una aplicación web que recogió textos escritos por personas participantes sobre sus aficiones, junto a un formulario para identificar su estilo de aprendizaje validado por el psicólogo experto Jaume Romero. El corpus resultante incluye 116 entradas, con amplia representación del grupo infantil gracias a la colaboración del centro de enseñaza público CPI Curros Enríquez. Se probaron cuatro líneas de predicción: modelos clásicos de clasificación de texto (Naive Bayes, SVM y Regresión Logística), un modelo neuronal BERT fine-tuned, prompting zero-shot con GPT-4o y la evaluación de un psicólogo educativo experto como referencia. Las pruebas se realizaron en clasificación multietiqueta, teniendo en cuenta que una misma persona puede presentar más de un estilo de aprendizaje. Los resultados muestran que los modelos clásicos superaron con claridad a los clasificadores base (random y majority) y, en muchos casos, también al experto humano; y que incluso en condiciones limitadas (textos cortos, datos en gallego/castellano y desequilibrio de clases), fueron capaces de identificar patrones útiles. La LLM GPT-4o también fue capaz de detectar el estilo visual con cierto éxito sin entrenamiento específico, lo que refuerza la idea de que el texto libre contiene señales lingüísticas relevantes para esta tarea. Este trabajo constituye una primera aproximación sólida a la predicción automática de estilos de aprendizaje a partir de texto libre. A pesar de las limitaciones, los resultados obtenidos abren la puerta al desarrollo de sistemas accesibles y adaptables que contribuyan a una educación más personalizada y eficiente, especialmente en el contexto de lenguas minorizadas y recursos limitados.
Dirección
Losada Carril, David Enrique (Tutoría)
ROMERO MIRO, JAUME Cotutoría
Losada Carril, David Enrique (Tutoría)
ROMERO MIRO, JAUME Cotutoría
Tribunal
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
PICHEL CAMPOS, JUAN CARLOS (Presidente/a)
VILA BLANCO, NICOLAS (Secretario/a)
COSTOYA RAMOS, MARIA CRISTINA (Vocal)
Procesamiento en tiempo real de nubes de puntos LiDAR terrestre
Autoría
P.L.C.
Grao en Ingeniería Informática (2ªed)
P.L.C.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 10:15
18.07.2025 10:15
Resumen
Este trabajo se centra en el desarrollo de un pipeline de procesamiento en tiempo real de datos LiDAR terrestres, orientado a aplicaciones de automoción. En particular, se ha diseñado e implementado un sistema capaz de identificar, clasificar y realizar el seguimiento de objetos en tiempo real, utilizando para ello herramientas del entorno ROS2. Para llevar a cabo la tarea de clasificación, se han empleado modelos de Deep Learning basados en el estado del arte. En concreto, se han considerado los modelos PointNet, PointNet++, PointPillars y PointRCNN, todos ellos aplicados al procesamiento de nubes de puntos 3D. Dado el enfoque en tiempo real del sistema, se realizó un estudio detallado del rendimiento de la aplicación, identificando que el proceso de inferencia de los modelos constituye el principal cuello de botella para garantizar dicha condición. Con el fin de abordar esta limitación, se desarrolló una herramienta de evaluación orientada a comparar modelos de Deep Learning en función de un conjunto configurable de métricas, incluyendo precisión, tiempo de inferencia y consumo de recursos. Esta evaluación permitió extraer conclusiones relevantes sobre el equilibrio entre eficiencia computacional y calidad de los resultados en diferentes modelos. Los resultados experimentales, obtenidos utilizando el conjunto de datos KITTI, muestran que PointPillars ofrece el mejor compromiso entre rendimiento computacional y precisión. Por su parte, PointRCNN destaca como el modelo más preciso, mientras que PointNet presenta los menores tiempos de inferencia. En cuanto a la utilización de recursos, PointRCNN y PointPillars, pese a su mayor complejidad estructural, presentan un consumo de memoria por objeto inferior al de PointNet y PointNet++ durante la fase de procesamiento. Finalmente, se concluye que todos los modelos evaluados requieren aceleración mediante GPU para cumplir con las restricciones temporales establecidas por el entorno de ejecución en tiempo real definido en el pipeline desarrollado.
Este trabajo se centra en el desarrollo de un pipeline de procesamiento en tiempo real de datos LiDAR terrestres, orientado a aplicaciones de automoción. En particular, se ha diseñado e implementado un sistema capaz de identificar, clasificar y realizar el seguimiento de objetos en tiempo real, utilizando para ello herramientas del entorno ROS2. Para llevar a cabo la tarea de clasificación, se han empleado modelos de Deep Learning basados en el estado del arte. En concreto, se han considerado los modelos PointNet, PointNet++, PointPillars y PointRCNN, todos ellos aplicados al procesamiento de nubes de puntos 3D. Dado el enfoque en tiempo real del sistema, se realizó un estudio detallado del rendimiento de la aplicación, identificando que el proceso de inferencia de los modelos constituye el principal cuello de botella para garantizar dicha condición. Con el fin de abordar esta limitación, se desarrolló una herramienta de evaluación orientada a comparar modelos de Deep Learning en función de un conjunto configurable de métricas, incluyendo precisión, tiempo de inferencia y consumo de recursos. Esta evaluación permitió extraer conclusiones relevantes sobre el equilibrio entre eficiencia computacional y calidad de los resultados en diferentes modelos. Los resultados experimentales, obtenidos utilizando el conjunto de datos KITTI, muestran que PointPillars ofrece el mejor compromiso entre rendimiento computacional y precisión. Por su parte, PointRCNN destaca como el modelo más preciso, mientras que PointNet presenta los menores tiempos de inferencia. En cuanto a la utilización de recursos, PointRCNN y PointPillars, pese a su mayor complejidad estructural, presentan un consumo de memoria por objeto inferior al de PointNet y PointNet++ durante la fase de procesamiento. Finalmente, se concluye que todos los modelos evaluados requieren aceleración mediante GPU para cumplir con las restricciones temporales establecidas por el entorno de ejecución en tiempo real definido en el pipeline desarrollado.
Dirección
GARCIA LORENZO, OSCAR (Tutoría)
RODRIGUEZ ALCARAZ, SILVIA Cotutoría
GARCIA LORENZO, OSCAR (Tutoría)
RODRIGUEZ ALCARAZ, SILVIA Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
Validación de información de referencia para imágenes de observación terrestre de alta resolución
Autoría
P.L.R.
Grao en Ingeniería Informática (2ªed)
P.L.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 10:45
18.07.2025 10:45
Resumen
A medida que el campo del sensado remoto avanza resulta crucial establecer mecanismos sólidos de validación de la información de referencia empleada en la detección de cambios. Este trabajo se centra en el desarrollo de una metodología que permita construir información de referencia confiable aplicada a imágenes de observación terrestre de alta resolución obtenidas en ecosistemas fluviales gallegos, correspondientes a dos momentos temporales distintos. El objetivo fundamental es generar información de referencia para imágenes recientes a partir de aquellas capturadas con anterioridad, mediante un análisis exhaustivo de los cambios espectrales y espaciales detectados. Para ello, se seleccionan y aplican técnicas avanzadas de clasificación y detección de cambios, combinando metodologías espectrales y espaciales que permiten identificar alteraciones relevantes en el paisaje fluvial. Además, se definen criterios de validación apoyados en la información de referencia, con el fin de evaluar la fiabilidad de los resultados obtenidos. El trabajo también explora el uso de esquemas de clasificación basados en redes neuronales profundas para mejorar la capacidad de discriminación del sistema propuesto. Finalmente, se realiza una evaluación experimental orientada a garantizar la robustez del modelo, comprobando su rendimiento en distintos escenarios y condiciones operativas. Esta propuesta contribuye al campo del sensado remoto aplicado a la gestión y monitorización ambiental, y sienta las bases para futuros desarrollos orientados a la automatización de procesos de validación en imágenes tomadas en diferentes momentos temporales.
A medida que el campo del sensado remoto avanza resulta crucial establecer mecanismos sólidos de validación de la información de referencia empleada en la detección de cambios. Este trabajo se centra en el desarrollo de una metodología que permita construir información de referencia confiable aplicada a imágenes de observación terrestre de alta resolución obtenidas en ecosistemas fluviales gallegos, correspondientes a dos momentos temporales distintos. El objetivo fundamental es generar información de referencia para imágenes recientes a partir de aquellas capturadas con anterioridad, mediante un análisis exhaustivo de los cambios espectrales y espaciales detectados. Para ello, se seleccionan y aplican técnicas avanzadas de clasificación y detección de cambios, combinando metodologías espectrales y espaciales que permiten identificar alteraciones relevantes en el paisaje fluvial. Además, se definen criterios de validación apoyados en la información de referencia, con el fin de evaluar la fiabilidad de los resultados obtenidos. El trabajo también explora el uso de esquemas de clasificación basados en redes neuronales profundas para mejorar la capacidad de discriminación del sistema propuesto. Finalmente, se realiza una evaluación experimental orientada a garantizar la robustez del modelo, comprobando su rendimiento en distintos escenarios y condiciones operativas. Esta propuesta contribuye al campo del sensado remoto aplicado a la gestión y monitorización ambiental, y sienta las bases para futuros desarrollos orientados a la automatización de procesos de validación en imágenes tomadas en diferentes momentos temporales.
Dirección
SUAREZ GAREA, JORGE ALBERTO (Tutoría)
Blanco Heras, Dora Cotutoría
SUAREZ GAREA, JORGE ALBERTO (Tutoría)
Blanco Heras, Dora Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
SEOANE IGLESIAS, NATALIA (Secretario/a)
RODRIGUEZ CASAL, ALBERTO (Vocal)
Planta de producción de detergente tipo LABS
Autoría
N.L.G.
Grado en Ingeniería Química
N.L.G.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 09:30
16.07.2025 09:30
Resumen
Diseño de una planta de producción de detergente tipo LABS a partir de benceno y dodeceno con una capacidad de producción de 120.000 toneladas anuales. Este proceso cuenta con tres reacciones, alquilación, sulfonación y neutralización. Además, se lleva a cabo el acondicionamiento previo a la entrada de los reactores y las respectivas operaciones de separación. El reactor de alquilación es diseñado por Lucía Pardilla Fraguas, la segunda columna de destilación por Noelia López García y el reactor de sulfonación por Antía Gándara Vieito.
Diseño de una planta de producción de detergente tipo LABS a partir de benceno y dodeceno con una capacidad de producción de 120.000 toneladas anuales. Este proceso cuenta con tres reacciones, alquilación, sulfonación y neutralización. Además, se lleva a cabo el acondicionamiento previo a la entrada de los reactores y las respectivas operaciones de separación. El reactor de alquilación es diseñado por Lucía Pardilla Fraguas, la segunda columna de destilación por Noelia López García y el reactor de sulfonación por Antía Gándara Vieito.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
Aplicación de técnicas de aprendizaje automático en el ámbito de la biomedicina
Autoría
P.L.O.
Grao en Ingeniería Informática (2ªed)
P.L.O.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El presente Trabajo de Fin de Grado tiene como objetivo, dentro del contexto específico de clasificación binaria, el análisis, adaptación y mejora del modelo MMGIN, originalmente propuesto para tareas de clasificación multitarea de toxicidad molecular. Con el propósito de optimizar el modelo, se introdujeron varias modificaciones arquitectónicas, tales como: -La sustitución de la red neuronal tradicional por un Autoencoder Variacional (VAE). -La incorporación de atributos de enlace mediante el uso de la arquitectura GINE. -La aplicación de mecanismos de atención global con bloques Transformer y capas GCN. -La introducción de un sistema de fusión adaptativa mediante Gate Fusion. Finalmente, se empleó una estrategia estratificada de validación cruzada (K-Folds), lo que permite valorar de manera sólida el comportamiento de cada variante. Los resultados obtenidos muestran una mejora en el rendimiento al combinar estas técnicas, superando al modelo original. La arquitectura basada en Transformer+GCN destaca especialmente por su capacidad para capturar relaciones no locales en la estructura molecular. Dentro del ámbito de la toxicología computacional, el trabajo propone futuras líneas de investigación y concluye con una discusión sobre las implicaciones de estos hallazgos.
El presente Trabajo de Fin de Grado tiene como objetivo, dentro del contexto específico de clasificación binaria, el análisis, adaptación y mejora del modelo MMGIN, originalmente propuesto para tareas de clasificación multitarea de toxicidad molecular. Con el propósito de optimizar el modelo, se introdujeron varias modificaciones arquitectónicas, tales como: -La sustitución de la red neuronal tradicional por un Autoencoder Variacional (VAE). -La incorporación de atributos de enlace mediante el uso de la arquitectura GINE. -La aplicación de mecanismos de atención global con bloques Transformer y capas GCN. -La introducción de un sistema de fusión adaptativa mediante Gate Fusion. Finalmente, se empleó una estrategia estratificada de validación cruzada (K-Folds), lo que permite valorar de manera sólida el comportamiento de cada variante. Los resultados obtenidos muestran una mejora en el rendimiento al combinar estas técnicas, superando al modelo original. La arquitectura basada en Transformer+GCN destaca especialmente por su capacidad para capturar relaciones no locales en la estructura molecular. Dentro del ámbito de la toxicología computacional, el trabajo propone futuras líneas de investigación y concluye con una discusión sobre las implicaciones de estos hallazgos.
Dirección
LAMA PENIN, MANUEL (Tutoría)
TABOADA ANTELO, PABLO Cotutoría
Suárez Barro, Noel Cotutoría
LAMA PENIN, MANUEL (Tutoría)
TABOADA ANTELO, PABLO Cotutoría
Suárez Barro, Noel Cotutoría
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
Extracción Automática de Restricciones para Grafos de Conocimiento mediante Grandes Modelos de Lenguaje
Autoría
A.M.B.
Grao en Ingeniería Informática (2ªed)
A.M.B.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 09:15
17.07.2025 09:15
Resumen
Los grafos de conocimiento y la Web Semántica permiten representar información estructurada de manera interoperable, enlazando entidades mediante relaciones significativas y facilitando el razonamiento automático. Estos sistemas se apoyan en tecnologías como RDF (Resource Description Framework) y en ontologías que definen la semántica de los datos. Para garantizar la coherencia y calidad de los datos representados, resulta fundamental aplicar mecanismos de validación, especialmente en contextos normativos o técnicos. Uno de los lenguajes más extendidos para esta tarea es SHACL (Shapes Constraint Language), que permite definir restricciones sobre datos RDF. Sin embargo, en muchos escenarios reales, como en el ámbito regulatorio, las restricciones no se encuentran explícitamente formuladas, sino que están redactadas en lenguaje natural. Esto plantea un problema importante: la conversión de estas descripciones en restricciones SHACL requiere un proceso manual realizado por expertos, que resulta lento, propenso a errores y poco escalable. Para abordar este problema, este Trabajo de Fin de Grado propone una solución basada en arquitecturas multiagente combinadas con LLMs guiados mediante técnicas avanzadas de prompting. La propuesta se apoya también en información estructurada, como ontologías y sistemas de recuperación aumentada (RAG), para enriquecer el contexto semántico del modelo. A lo largo del trabajo se han explorado distintas estrategias de prompting, así como diversas configuraciones del modelo empleado. La evaluación se ha realizado de forma sistemática sobre un conjunto de referencia compuesto por restricciones redactadas manualmente por expertos. Los resultados muestran que la propuesta es capaz de alcanzar coberturas muy elevadas, superando incluso propuestas previas del estado del arte. Además, la herramienta detecta tanto restricciones simples como complejas. No obstante, esta alta cobertura conlleva una baja precision, lo que refuerza la necesidad de un enfoque colaborativo en el que el experto humano valide o corrija las restricciones generadas. Esta línea de trabajo abre nuevas posibilidades para agilizar la transformación de conocimiento normativo en esquemas de validación formales, haciendo más eficiente la labor de los ingenieros de conocimiento y avanzando hacia la automatización parcial de tareas clave en el ámbito de la Web Semántica.
Los grafos de conocimiento y la Web Semántica permiten representar información estructurada de manera interoperable, enlazando entidades mediante relaciones significativas y facilitando el razonamiento automático. Estos sistemas se apoyan en tecnologías como RDF (Resource Description Framework) y en ontologías que definen la semántica de los datos. Para garantizar la coherencia y calidad de los datos representados, resulta fundamental aplicar mecanismos de validación, especialmente en contextos normativos o técnicos. Uno de los lenguajes más extendidos para esta tarea es SHACL (Shapes Constraint Language), que permite definir restricciones sobre datos RDF. Sin embargo, en muchos escenarios reales, como en el ámbito regulatorio, las restricciones no se encuentran explícitamente formuladas, sino que están redactadas en lenguaje natural. Esto plantea un problema importante: la conversión de estas descripciones en restricciones SHACL requiere un proceso manual realizado por expertos, que resulta lento, propenso a errores y poco escalable. Para abordar este problema, este Trabajo de Fin de Grado propone una solución basada en arquitecturas multiagente combinadas con LLMs guiados mediante técnicas avanzadas de prompting. La propuesta se apoya también en información estructurada, como ontologías y sistemas de recuperación aumentada (RAG), para enriquecer el contexto semántico del modelo. A lo largo del trabajo se han explorado distintas estrategias de prompting, así como diversas configuraciones del modelo empleado. La evaluación se ha realizado de forma sistemática sobre un conjunto de referencia compuesto por restricciones redactadas manualmente por expertos. Los resultados muestran que la propuesta es capaz de alcanzar coberturas muy elevadas, superando incluso propuestas previas del estado del arte. Además, la herramienta detecta tanto restricciones simples como complejas. No obstante, esta alta cobertura conlleva una baja precision, lo que refuerza la necesidad de un enfoque colaborativo en el que el experto humano valide o corrija las restricciones generadas. Esta línea de trabajo abre nuevas posibilidades para agilizar la transformación de conocimiento normativo en esquemas de validación formales, haciendo más eficiente la labor de los ingenieros de conocimiento y avanzando hacia la automatización parcial de tareas clave en el ámbito de la Web Semántica.
Dirección
CHAVES FRAGA, DAVID (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
LAMA PENIN, MANUEL Cotutoría
CHAVES FRAGA, DAVID (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
LAMA PENIN, MANUEL Cotutoría
Tribunal
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
Planta de producción de butadieno a partir de la deshidrogenación catalítica del n-butano
Autoría
C.M.F.
Grado en Ingeniería Química
C.M.F.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 11:10
16.07.2025 11:10
Resumen
El presente proyecto tiene como objetivo el diseño, a nivel de ingeniería básica, de una planta de producción de 50.000 toneladas al año de 1,3-butadieno al 99,99% de pureza a partir de la deshidrogenación catalítica de n-butano con un modo de operación en continuo de 24 horas al día durante 330 días al año reservando los días restantes al mantenimiento de la planta. Se incluye un diseño detallado del reactor de deshidrogenación oxidativa de 1-buteno (R-202) llevado a cabo por la alumna Alejandra Novo Iñigo, de la columna de destilación de platos (T-304) por Andrea Yáñez Rey y de la torre de absorción (T-301) por Celia Martínez Fernández. Este proyecto se presenta como el Trabajo de Fin de Grado de las alumnas Alejandra Novo Íñigo, Celia Martínez Fernández y Andrea Yáñez Rey con el objetivo de obtener el título en Ingeniería Química otorgado por la Universidad de Santiago de Compostela.
El presente proyecto tiene como objetivo el diseño, a nivel de ingeniería básica, de una planta de producción de 50.000 toneladas al año de 1,3-butadieno al 99,99% de pureza a partir de la deshidrogenación catalítica de n-butano con un modo de operación en continuo de 24 horas al día durante 330 días al año reservando los días restantes al mantenimiento de la planta. Se incluye un diseño detallado del reactor de deshidrogenación oxidativa de 1-buteno (R-202) llevado a cabo por la alumna Alejandra Novo Iñigo, de la columna de destilación de platos (T-304) por Andrea Yáñez Rey y de la torre de absorción (T-301) por Celia Martínez Fernández. Este proyecto se presenta como el Trabajo de Fin de Grado de las alumnas Alejandra Novo Íñigo, Celia Martínez Fernández y Andrea Yáñez Rey con el objetivo de obtener el título en Ingeniería Química otorgado por la Universidad de Santiago de Compostela.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
RODIL RODRIGUEZ, EVA (Tutoría)
Tribunal
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Planta de producción de butirato de etilo a partir de la esterificación de ácido butírico con etanol.
Autoría
E.M.R.
Grado en Ingeniería Química
E.M.R.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 11:25
16.07.2025 11:25
Resumen
El objetivo de este proyecto es desarrollar el diseño de una planta industrial dedicada a la producción de butirato de etilo mediante la reacción de esterificación entre ácido butírico y etanol. La instalación tendrá una capacidad de 5.000 toneladas anuales de butirato de etilo con una pureza del 99,62 % en peso, y operará de forma continua durante 330 días al año, 24 horas al día. Entre los equipos principales se encuentran el reactor multitubular R-201, diseñado por Paula Garrido Moreno, y la columna de destilación T-302, diseñada por Estela Martínez Regueira. Este documento constituye el Trabajo Fin de Grado con el que Paula Garrido Moreno y Estela Martínez Regueira optan al título de Grado en Ingeniería Química, otorgado por la Escola Técnica Superior de Enxeñaría de la Universidade de Santiago de Compostela.
El objetivo de este proyecto es desarrollar el diseño de una planta industrial dedicada a la producción de butirato de etilo mediante la reacción de esterificación entre ácido butírico y etanol. La instalación tendrá una capacidad de 5.000 toneladas anuales de butirato de etilo con una pureza del 99,62 % en peso, y operará de forma continua durante 330 días al año, 24 horas al día. Entre los equipos principales se encuentran el reactor multitubular R-201, diseñado por Paula Garrido Moreno, y la columna de destilación T-302, diseñada por Estela Martínez Regueira. Este documento constituye el Trabajo Fin de Grado con el que Paula Garrido Moreno y Estela Martínez Regueira optan al título de Grado en Ingeniería Química, otorgado por la Escola Técnica Superior de Enxeñaría de la Universidade de Santiago de Compostela.
Dirección
Rodríguez Figueiras, Óscar (Tutoría)
Rodríguez Figueiras, Óscar (Tutoría)
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
Planta de producción de epsilon-caprolactama
Autoría
I.M.H.
Grado en Ingeniería Química
I.M.H.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:35
16.07.2025 12:35
Resumen
La planta de producción de epsilon-caprolactama (CPL), es el proyecto realizado por el alumno Jose Otero López e Iago Meijide Hidalgo para poder optar al título de graduado en Ingeniería Química. Esta planta de producción obtiene caprolactama mediante, en una primera instancia, la formación de ciclohexanona oxima a partir de la amoximación de la ciclohexanona junto con peróxido de hidrógeno y amoníaco en un reactor empaquetado de tipo carcasa y tubos; para posteriormente, en una segunda fase, mediante un reactor de reordenamiento de Beckmann también de lecho empaquetado con un diseño de carcasa y tubos, se reordena la molécula de ciclohexanona oxima para producir caprolactama. Finalmente, para su producción industrial será necesaria la purificación de dicho producto mediante una columna de destilación que opera a presión reducida, obteniendo de esta manera una pureza en masa del 99,99 por ciento. Cabe destacar que, el diseño riguroso realizado por Iago Meijide fue el del reactor de amoximación de ciclohexanona, mientras que la unidad diseñada por Jose Otero fue la columna de destilación a vacío para la purificación de la caprolactama. Finalmente, este proyecto establece que la planta operará en un régimen contínuo durante 330 días al año, durante las 24 horas del día, dejando así 35 días para el mantenimiento y descanso de esta. Para, de esta manera, poder cumplir con el requisito de capacidad de producción de 60.000 t/año de caprolactama.
La planta de producción de epsilon-caprolactama (CPL), es el proyecto realizado por el alumno Jose Otero López e Iago Meijide Hidalgo para poder optar al título de graduado en Ingeniería Química. Esta planta de producción obtiene caprolactama mediante, en una primera instancia, la formación de ciclohexanona oxima a partir de la amoximación de la ciclohexanona junto con peróxido de hidrógeno y amoníaco en un reactor empaquetado de tipo carcasa y tubos; para posteriormente, en una segunda fase, mediante un reactor de reordenamiento de Beckmann también de lecho empaquetado con un diseño de carcasa y tubos, se reordena la molécula de ciclohexanona oxima para producir caprolactama. Finalmente, para su producción industrial será necesaria la purificación de dicho producto mediante una columna de destilación que opera a presión reducida, obteniendo de esta manera una pureza en masa del 99,99 por ciento. Cabe destacar que, el diseño riguroso realizado por Iago Meijide fue el del reactor de amoximación de ciclohexanona, mientras que la unidad diseñada por Jose Otero fue la columna de destilación a vacío para la purificación de la caprolactama. Finalmente, este proyecto establece que la planta operará en un régimen contínuo durante 330 días al año, durante las 24 horas del día, dejando así 35 días para el mantenimiento y descanso de esta. Para, de esta manera, poder cumplir con el requisito de capacidad de producción de 60.000 t/año de caprolactama.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
RODIL RODRIGUEZ, EVA (Tutoría)
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
Planta de producción de silicio de grado solar
Autoría
N.M.R.
Grado en Ingeniería Química
N.M.R.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:20
16.07.2025 10:20
Resumen
La transición hacia fuentes de energía renovables ha incrementado la demanda de energía solar. El silicio es un material fundamental en la fabricación de células fotovoltaicas, cuya eficiencia requiere una alta pureza del material. Este proyecto tiene como objetivo diseñar una planta de producción de silicio de grado solar a partir de silicio de grado metalúrgico. La planta se compone de tres secciones diferentes: la sección de síntesis, donde se produce triclorosilano; la sección de separación y purificación, en la que se obtiene el silano; y la sección de deposición, de la cual se obtiene el silicio con la pureza deseada. La unidad a diseñar será el reactor de deposición, en el que tiene lugar la descomposición del silano en presencia de hidrógeno y la deposición del silicio de grado solar.
La transición hacia fuentes de energía renovables ha incrementado la demanda de energía solar. El silicio es un material fundamental en la fabricación de células fotovoltaicas, cuya eficiencia requiere una alta pureza del material. Este proyecto tiene como objetivo diseñar una planta de producción de silicio de grado solar a partir de silicio de grado metalúrgico. La planta se compone de tres secciones diferentes: la sección de síntesis, donde se produce triclorosilano; la sección de separación y purificación, en la que se obtiene el silano; y la sección de deposición, de la cual se obtiene el silicio con la pureza deseada. La unidad a diseñar será el reactor de deposición, en el que tiene lugar la descomposición del silano en presencia de hidrógeno y la deposición del silicio de grado solar.
Dirección
González Álvarez, Julia (Tutoría)
FREIRE LEIRA, MARIA SONIA Cotutoría
González Álvarez, Julia (Tutoría)
FREIRE LEIRA, MARIA SONIA Cotutoría
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
Análisis del rendimiento de la búsqueda de vecinos en nubes de puntos 3D estructuradas en octrees
Autoría
N.N.P.
Grao en Ingeniería Informática (2ªed)
N.N.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
En el campo del procesamiento de nubes de puntos LiDAR, la búsqueda eficiente de vecinos es una de las tareas más costosas a nivel computacional. Con el objetivo de minimizar su impacto en el rendimiento global, se emplean estructuras especializadas, tales como el octree, que pueden beneficiarse de la localidad espacial presente en los puntos. Para reforzar y garantizar dicha localidad, se recurre a técnicas avanzadas, entre las que destacan la codificación de Morton o la codificación de Hilbert. Ambas permiten transformar coordenadas espaciales tridimensionales en índices unidimensionales que conservan, en la medida de lo posible, la localidad espacial. No obstante, este enfoque introduce un posible punto de pérdida de eficiencia: la ordenación de los índices espaciales generados. Este paso puede llegar a resultar clave para garantizar un acceso eficiente a los datos y reducir los tiempos de búsqueda. Dada su importancia, el presente trabajo se enfoca en realizar un análisis exhaustivo del proceso de ordenación de estos índices, haciendo énfasis en su comportamiento en entornos de ejecución paralelizados mediante OpenMP, aprovechando de esta forma las capacidades de procesamiento ofrecidas por arquitecturas modernas. El enfoque seguido ha consistido en seleccionar y evaluar diversos algoritmos de ordenación. Concretamente, se han implementado y comparado versiones de Selection sort, Quicksort, Parallel Quicksort, Radix sort y Bucket sort, cada una con sus respectivas características y estrategias de optimización. Los resultados obtenidos permiten establecer una comparativa sólida entre las distintas propuestas y determinar, según las circunstancias, cuál de ellas ofrece el mejor rendimiento en términos de tiempo de ejecución y escalabilidad, observándose en varios casos una mejora respecto a los métodos originales. De este modo, se contribuye a optimizar el proceso de ordenación de los índices, lo que representa una alternativa a tener en cuenta en la búsqueda de vecinos dentro del procesamiento de nubes de puntos 3D.
En el campo del procesamiento de nubes de puntos LiDAR, la búsqueda eficiente de vecinos es una de las tareas más costosas a nivel computacional. Con el objetivo de minimizar su impacto en el rendimiento global, se emplean estructuras especializadas, tales como el octree, que pueden beneficiarse de la localidad espacial presente en los puntos. Para reforzar y garantizar dicha localidad, se recurre a técnicas avanzadas, entre las que destacan la codificación de Morton o la codificación de Hilbert. Ambas permiten transformar coordenadas espaciales tridimensionales en índices unidimensionales que conservan, en la medida de lo posible, la localidad espacial. No obstante, este enfoque introduce un posible punto de pérdida de eficiencia: la ordenación de los índices espaciales generados. Este paso puede llegar a resultar clave para garantizar un acceso eficiente a los datos y reducir los tiempos de búsqueda. Dada su importancia, el presente trabajo se enfoca en realizar un análisis exhaustivo del proceso de ordenación de estos índices, haciendo énfasis en su comportamiento en entornos de ejecución paralelizados mediante OpenMP, aprovechando de esta forma las capacidades de procesamiento ofrecidas por arquitecturas modernas. El enfoque seguido ha consistido en seleccionar y evaluar diversos algoritmos de ordenación. Concretamente, se han implementado y comparado versiones de Selection sort, Quicksort, Parallel Quicksort, Radix sort y Bucket sort, cada una con sus respectivas características y estrategias de optimización. Los resultados obtenidos permiten establecer una comparativa sólida entre las distintas propuestas y determinar, según las circunstancias, cuál de ellas ofrece el mejor rendimiento en términos de tiempo de ejecución y escalabilidad, observándose en varios casos una mejora respecto a los métodos originales. De este modo, se contribuye a optimizar el proceso de ordenación de los índices, lo que representa una alternativa a tener en cuenta en la búsqueda de vecinos dentro del procesamiento de nubes de puntos 3D.
Dirección
Fernández Rivera, Francisco (Tutoría)
YERMO GARCIA, MIGUEL Cotutoría
Fernández Rivera, Francisco (Tutoría)
YERMO GARCIA, MIGUEL Cotutoría
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
Planta de producción de butadieno a partir de la deshidrogenación catalítica de n-butano
Autoría
A.N.I.
Grado en Ingeniería Química
A.N.I.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 11:10
16.07.2025 11:10
Resumen
El objetivo de este proyecto es diseñar, a nivel de ingeniería básica, una planta de producción de 50.000 toneladas al año de 1,3-butadieno con una pureza del 99.99% a partir de la deshidrogenación catalítica de n-butano, funcionando continuamente las 24 horas del día durante 330 días al año, con los días restantes reservados para el mantenimiento de la planta, El proyecto incluye un deseño detallado del reactor de deshidrogenación oxidativa de 1-buteno (R-202), realizado por la estudiante Alejandra Novo Iñigo, de la columna de destilación (T-304) por Andrea Yáñez Rey y de la torre de absorción (T-301) por Celia Martínez Fernández. Este proyecto se presenta como el proyecto final de las alumnas Alejandra Novo Iñigo, Celia Martínez Fernández e Andrea Yáñez Rey, con el objetivo de obtener el título de Ingeniería Química por la Universidad de Santiago de Compostela.
El objetivo de este proyecto es diseñar, a nivel de ingeniería básica, una planta de producción de 50.000 toneladas al año de 1,3-butadieno con una pureza del 99.99% a partir de la deshidrogenación catalítica de n-butano, funcionando continuamente las 24 horas del día durante 330 días al año, con los días restantes reservados para el mantenimiento de la planta, El proyecto incluye un deseño detallado del reactor de deshidrogenación oxidativa de 1-buteno (R-202), realizado por la estudiante Alejandra Novo Iñigo, de la columna de destilación (T-304) por Andrea Yáñez Rey y de la torre de absorción (T-301) por Celia Martínez Fernández. Este proyecto se presenta como el proyecto final de las alumnas Alejandra Novo Iñigo, Celia Martínez Fernández e Andrea Yáñez Rey, con el objetivo de obtener el título de Ingeniería Química por la Universidad de Santiago de Compostela.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
RODIL RODRIGUEZ, EVA (Tutoría)
Tribunal
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Marco de evaluación para el aprendizaje automático de ontologías a partir de bases de datos
Autoría
I.N.V.
Grao en Ingeniería Informática (2ªed)
I.N.V.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 09:45
17.07.2025 09:45
Resumen
Las ontologías son especialmente relevantes en el campo de la integración de datos, interoperabilidad semántica y recuperación de la información, entre otros. La construcción de una ontología requiere un gran trabajo manual, es por eso que se recurre a la creación de ontologías de forma automática (Ontology Learning), que hace uso de técnicas de aprendizaje automático, procesamiento del lenguaje natural y, recientemente, del uso de grandes modelos del lenguaje (LLMs) para generar ontologías a partir de textos, documentos, o en este caso, bases de datos relacionales. Resulta fundamental contar con metodologías estandarizadas que permitan evaluar de forma objetiva y reproducible la calidad de las ontologías producidas por los distintos sistemas. Este trabajo propone un marco de evaluación específico para el Ontology Learning a partir de esquemas de bases de datos relacionales, compuesto por un conjunto de recursos de referencia (gold standard) y un conjunto de métricas formales para la comparación estructural y semántica de las ontologías. Este marco permite realizar comparaciones sistemáticas entre las distintas herramientas y enfoques de aprendizaje de ontologías, proporcionando una base sólida para la experimentación y el avance en este campo. Además, se llevó a cabo una experimentación sobre grandes modelos del lenguaje (LLMs) con el fin de validar la utilidad y aplicabilidad del marco de evaluación propuesto. El código se encuentra público en RDB2OWL-Bench.
Las ontologías son especialmente relevantes en el campo de la integración de datos, interoperabilidad semántica y recuperación de la información, entre otros. La construcción de una ontología requiere un gran trabajo manual, es por eso que se recurre a la creación de ontologías de forma automática (Ontology Learning), que hace uso de técnicas de aprendizaje automático, procesamiento del lenguaje natural y, recientemente, del uso de grandes modelos del lenguaje (LLMs) para generar ontologías a partir de textos, documentos, o en este caso, bases de datos relacionales. Resulta fundamental contar con metodologías estandarizadas que permitan evaluar de forma objetiva y reproducible la calidad de las ontologías producidas por los distintos sistemas. Este trabajo propone un marco de evaluación específico para el Ontology Learning a partir de esquemas de bases de datos relacionales, compuesto por un conjunto de recursos de referencia (gold standard) y un conjunto de métricas formales para la comparación estructural y semántica de las ontologías. Este marco permite realizar comparaciones sistemáticas entre las distintas herramientas y enfoques de aprendizaje de ontologías, proporcionando una base sólida para la experimentación y el avance en este campo. Además, se llevó a cabo una experimentación sobre grandes modelos del lenguaje (LLMs) con el fin de validar la utilidad y aplicabilidad del marco de evaluación propuesto. El código se encuentra público en RDB2OWL-Bench.
Dirección
CHAVES FRAGA, DAVID (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
LAMA PENIN, MANUEL Cotutoría
CHAVES FRAGA, DAVID (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
LAMA PENIN, MANUEL Cotutoría
Tribunal
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
Planta de producción de ácido acético a partir de metanol
Autoría
E.O.M.
Grado en Ingeniería Química
E.O.M.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 09:30
16.07.2025 09:30
Resumen
Obtención de 70.000 t/año de ácido acético a partir de metanol y monóxido de carbono mediante el proceso de carbonilación del metanol. Este compuesto orgánico tiene una gran variedad de utilidades, desde la elaboración de productos cosméticos, farmacéuticos o en la industria alimentaria, téxtil y química, lo cual lo convierte en un producto de gran interés industrial. En este proyecto, Martín Álvarez llevará a cabo el diseño riguroso del reactor, encargado del proceso de carbonilación del metanol para la obtención de ácido acético, y Elena Ojea de la primera columna, encargada de separar el ácido acético y el agua del resto de componentes del medio de reacción.
Obtención de 70.000 t/año de ácido acético a partir de metanol y monóxido de carbono mediante el proceso de carbonilación del metanol. Este compuesto orgánico tiene una gran variedad de utilidades, desde la elaboración de productos cosméticos, farmacéuticos o en la industria alimentaria, téxtil y química, lo cual lo convierte en un producto de gran interés industrial. En este proyecto, Martín Álvarez llevará a cabo el diseño riguroso del reactor, encargado del proceso de carbonilación del metanol para la obtención de ácido acético, y Elena Ojea de la primera columna, encargada de separar el ácido acético y el agua del resto de componentes del medio de reacción.
Dirección
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
FREIRE LEIRA, MARIA SONIA (Tutoría)
González Álvarez, Julia Cotutoría
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Planta de biodiésel a partir de aceites vegetales mediante transesterificación
Autoría
P.O.F.
Grado en Ingeniería Química
P.O.F.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:50
16.07.2025 10:50
Resumen
Este trabajo de fin de grado presenta el diseño de una planta de producción de biodiésel a escala industrial utilizando aceite de soja refinado como materia prima, mediante un proceso de transesterificación catalizado homogéneamente por una base. Con una capacidad anual de 100.000 toneladas, la planta está diseñada para operar de forma continua y prioriza la sostenibilidad, la viabilidad técnica y la alineación con los objetivos europeos de descarbonización. El proyecto incluye el diseño detallado del reactor principal (R-201), la selección del metóxido de sodio como catalizador óptimo y un análisis integral que abarca los balances de materia y energía, la dinámica del mercado, la viabilidad económica, la selección del emplazamiento, los protocolos de seguridad y el cumplimiento ambiental.
Este trabajo de fin de grado presenta el diseño de una planta de producción de biodiésel a escala industrial utilizando aceite de soja refinado como materia prima, mediante un proceso de transesterificación catalizado homogéneamente por una base. Con una capacidad anual de 100.000 toneladas, la planta está diseñada para operar de forma continua y prioriza la sostenibilidad, la viabilidad técnica y la alineación con los objetivos europeos de descarbonización. El proyecto incluye el diseño detallado del reactor principal (R-201), la selección del metóxido de sodio como catalizador óptimo y un análisis integral que abarca los balances de materia y energía, la dinámica del mercado, la viabilidad económica, la selección del emplazamiento, los protocolos de seguridad y el cumplimiento ambiental.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
Planta de producción de epsilon-caprolactama
Autoría
J.O.L.
Grado en Ingeniería Química
J.O.L.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:35
16.07.2025 12:35
Resumen
La planta de producción de epsilon-caprolactama (CPL), es el proyecto realizado por el alumno Jose Otero López y el alumno Iago Meijide Hidalgo para poder optar al título de graduado en Ingeniería Química. Esta planta de producción, obtiene caprolactama mediante, en una primera instancia, la formación de ciclohexanona oxima a partir de la amoximación de la ciclohexanona junto con peróxido de hidrogeno y amoníaco, en un reactor de lecho empaquetado de tipo carcasa y tubos; para posteriormente, en una segunda fase, mediante un reactor de reordenamiento de Beckmann también de lecho empaquetado con un diseño de carcasa y tubos, se reordena la molécula de ciclohexanona oxima para producir caprolactama. Finalmente, para su producción industrial, será necesaria la purificación de dicho producto mediante una columna de destilación que opera a presión reducida, obteniendo de esta manera, una pureza en masa del 99,99 %. Cabe destacar que, el diseño riguroso realizado por Iago Meijide fue el del reactor de amoximación de ciclohexanona, mientras que la unidad diseñada por Jose Otero, fue la columna de destilación a vacío para la purificación de caprolactama. Finalmente, este proyecto establece que la planta operará en un régimen continuo durante 330 días al año durante las 24 horas del día, dejando así, 35 días para el mantenimiento y descanso de esta. Para, de esta manera, poder cumplir con el requisito de capacidad de producción de 60.000 t/año de caprolactama.
La planta de producción de epsilon-caprolactama (CPL), es el proyecto realizado por el alumno Jose Otero López y el alumno Iago Meijide Hidalgo para poder optar al título de graduado en Ingeniería Química. Esta planta de producción, obtiene caprolactama mediante, en una primera instancia, la formación de ciclohexanona oxima a partir de la amoximación de la ciclohexanona junto con peróxido de hidrogeno y amoníaco, en un reactor de lecho empaquetado de tipo carcasa y tubos; para posteriormente, en una segunda fase, mediante un reactor de reordenamiento de Beckmann también de lecho empaquetado con un diseño de carcasa y tubos, se reordena la molécula de ciclohexanona oxima para producir caprolactama. Finalmente, para su producción industrial, será necesaria la purificación de dicho producto mediante una columna de destilación que opera a presión reducida, obteniendo de esta manera, una pureza en masa del 99,99 %. Cabe destacar que, el diseño riguroso realizado por Iago Meijide fue el del reactor de amoximación de ciclohexanona, mientras que la unidad diseñada por Jose Otero, fue la columna de destilación a vacío para la purificación de caprolactama. Finalmente, este proyecto establece que la planta operará en un régimen continuo durante 330 días al año durante las 24 horas del día, dejando así, 35 días para el mantenimiento y descanso de esta. Para, de esta manera, poder cumplir con el requisito de capacidad de producción de 60.000 t/año de caprolactama.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
RODIL RODRIGUEZ, EVA (Tutoría)
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
SOTO CAMPOS, ANA MARIA (Vocal)
Planta de producción de detergente tipo LABS
Autoría
L.P.F.
Grado en Ingeniería Química
L.P.F.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 09:30
16.07.2025 09:30
Resumen
Diseño de una planta de producción de detergente tipo LABS a partir de benceno y dodeceno con una capacidad de producción de 120.000 toneladas anuales. Este proceso cuente con tres reacciones, alquilación, sulfonación y neutralización. Además, se lleva a cabo el acondicionamiento previo a la entrada de los reactores y las respectivas operaciones de separación. El reactor de alquilación es diseñado por Lucía Pardilla Fraguas, la segunda columna de destilación por Noelia López García y el reactor de sulfonación por Antía Gándara Vieito.
Diseño de una planta de producción de detergente tipo LABS a partir de benceno y dodeceno con una capacidad de producción de 120.000 toneladas anuales. Este proceso cuente con tres reacciones, alquilación, sulfonación y neutralización. Además, se lleva a cabo el acondicionamiento previo a la entrada de los reactores y las respectivas operaciones de separación. El reactor de alquilación es diseñado por Lucía Pardilla Fraguas, la segunda columna de destilación por Noelia López García y el reactor de sulfonación por Antía Gándara Vieito.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
Nolik
Autoría
K.P.G.
Grao en Ingeniería Informática (2ªed)
K.P.G.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
La gestión del conocimiento en los servicios de soporte técnico se ve frecuentemente obstaculizada por la ineficiencia de los sistemas de búsqueda tradicionales, que, al basarse en palabras clave, fracasan en comprender el contexto y el significado semántico de los problemas. Este Trabajo de Fin de Grado aborda dicho desafío mediante el diseño y la implementación de un sistema informático completo que aplica técnicas de Inteligencia Artificial para ofrecer una solución de búsqueda semántica avanzada. La solución se articula en una aplicación web con una arquitectura desacoplada, compuesta por un frontend interactivo en React y una API (Application Programming Interface) en el backend desarrollada con Flask. Una de las contribuciones principales de este trabajo es el desarrollo de un pipeline de datos automatizado y dinámico que extrae, procesa y estructura incidencias (o issues) del repositorio público microsoft/PowerToys. Este pipeline implementa una heurística de extracción de soluciones multi-etapa que interpreta las convenciones de la comunidad, como la detección de duplicados y las sugerencias de bots, para identificar las respuestas más fiables. El núcleo del sistema es un motor de búsqueda que utiliza modelos de lenguaje de la librería sentence-transformers para convertir las descripciones de los problemas en representaciones vectoriales de características (conocidas como embeddings). Estos vectores se indexan en una base de datos FAISS (Facebook AI Similarity Search) para realizar búsquedas de similitud de coseno a alta velocidad. Además, se ha realizado un estudio comparativo riguroso para evaluar diferentes modelos de embedding y seleccionar el más adecuado para este dominio. El resultado final es un prototipo funcional y robusto que, dada una consulta en lenguaje natural, devuelve una lista clasificada de problemas resueltos y relevantes, con enlaces a la fuente original. El sistema valida la superioridad del enfoque semántico y presenta una solución integral y escalable al problema de la recuperación eficiente de información en entornos de soporte técnico.
La gestión del conocimiento en los servicios de soporte técnico se ve frecuentemente obstaculizada por la ineficiencia de los sistemas de búsqueda tradicionales, que, al basarse en palabras clave, fracasan en comprender el contexto y el significado semántico de los problemas. Este Trabajo de Fin de Grado aborda dicho desafío mediante el diseño y la implementación de un sistema informático completo que aplica técnicas de Inteligencia Artificial para ofrecer una solución de búsqueda semántica avanzada. La solución se articula en una aplicación web con una arquitectura desacoplada, compuesta por un frontend interactivo en React y una API (Application Programming Interface) en el backend desarrollada con Flask. Una de las contribuciones principales de este trabajo es el desarrollo de un pipeline de datos automatizado y dinámico que extrae, procesa y estructura incidencias (o issues) del repositorio público microsoft/PowerToys. Este pipeline implementa una heurística de extracción de soluciones multi-etapa que interpreta las convenciones de la comunidad, como la detección de duplicados y las sugerencias de bots, para identificar las respuestas más fiables. El núcleo del sistema es un motor de búsqueda que utiliza modelos de lenguaje de la librería sentence-transformers para convertir las descripciones de los problemas en representaciones vectoriales de características (conocidas como embeddings). Estos vectores se indexan en una base de datos FAISS (Facebook AI Similarity Search) para realizar búsquedas de similitud de coseno a alta velocidad. Además, se ha realizado un estudio comparativo riguroso para evaluar diferentes modelos de embedding y seleccionar el más adecuado para este dominio. El resultado final es un prototipo funcional y robusto que, dada una consulta en lenguaje natural, devuelve una lista clasificada de problemas resueltos y relevantes, con enlaces a la fuente original. El sistema valida la superioridad del enfoque semántico y presenta una solución integral y escalable al problema de la recuperación eficiente de información en entornos de soporte técnico.
Dirección
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Delás Ruíz, José Carlos Cotutoría
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Delás Ruíz, José Carlos Cotutoría
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
TimeWise: aplicación para la gestión del tiempo y organización de tareas personales
Autoría
S.P.S.
Grao en Ingeniería Informática (2ªed)
S.P.S.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
El presente trabajo de fin de grado tiene como objetivo principal desarrollar una aplicación móvil para Android que permita a sus usuarios organizar su tiempo, gestionar sus tareas personales y definir sus metas a largo plazo. Para alcanzar estos objetivos, se desarrollaron varias funcionales clave. En primer lugar, se implementó un calendario interactivo para visualizar los eventos diarios de los usuarios y configurar recordatorios asociados a dichos eventos. A continuación, se implementó un tablero que sigue la metodología Kanban para la visualización y gestión de tareas. Por último, se implementó la funcionalidad para la consecución de logros a largo plazo, con la capacidad de desglosarse en objetivos más concretos. A lo largo de todo el desarrollo, se ha mantenido en mente la experiencia de los usuarios, diseñándola con la idea de que fuese lo más intutiva y atractiva posible. Una vez finalizada la fase de implementación, se procedió a validar y verificar el funcionamiento de la aplicación mediante un proceso de pruebas que permitieron la detección y corrección de errores. En conclusión, todos los objetivos propuestos al inicio del proyecto se han completado, dando como resultado una aplicación eficiente, útil y atractiva.
El presente trabajo de fin de grado tiene como objetivo principal desarrollar una aplicación móvil para Android que permita a sus usuarios organizar su tiempo, gestionar sus tareas personales y definir sus metas a largo plazo. Para alcanzar estos objetivos, se desarrollaron varias funcionales clave. En primer lugar, se implementó un calendario interactivo para visualizar los eventos diarios de los usuarios y configurar recordatorios asociados a dichos eventos. A continuación, se implementó un tablero que sigue la metodología Kanban para la visualización y gestión de tareas. Por último, se implementó la funcionalidad para la consecución de logros a largo plazo, con la capacidad de desglosarse en objetivos más concretos. A lo largo de todo el desarrollo, se ha mantenido en mente la experiencia de los usuarios, diseñándola con la idea de que fuese lo más intutiva y atractiva posible. Una vez finalizada la fase de implementación, se procedió a validar y verificar el funcionamiento de la aplicación mediante un proceso de pruebas que permitieron la detección y corrección de errores. En conclusión, todos los objetivos propuestos al inicio del proyecto se han completado, dando como resultado una aplicación eficiente, útil y atractiva.
Dirección
TOBAR QUINTANAR, ALEJANDRO JOSE (Tutoría)
TOBAR QUINTANAR, ALEJANDRO JOSE (Tutoría)
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
Cotos Yáñez, José Manuel (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
Árboles de clasificación y optimización
Autoría
I.Q.R.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
I.Q.R.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 10:40
17.07.2025 10:40
Resumen
En este trabajo se estudian los árboles de clasificación, una técnica ampliamente utilizada en aprendizaje automático por su simplicidad, capacidad predictiva y facilidad de interpretación. En particular, se analizan distintas estrategias para su construcción, con especial atención a los métodos basados en optimización matemática. Se consideran tres enfoques representativos: Random Forests (RF), como modelo heurístico basado en el ensamblado de árboles; Optimal Classification Trees (OCT), que plantea el problema como una optimización lineal entera mixta; y Optimal Randomized Classification Trees (ORCT), que utiliza una formulación continua que mejora la escalabilidad manteniendo la interpretabilidad. El trabajo comienza con una revisión de los fundamentos de la clasificación estadística y los métodos basados en árboles de decisión. A continuación, se describen en detalle los modelos de optimización que permiten construir árboles óptimos. Finalmente, se realiza un estudio empírico comparativo utilizando cinco conjuntos de datos de distinta complejidad, evaluando cada modelo según precisión, tiempo de entrenamiento, interpretabilidad y viabilidad práctica. Los resultados muestran que RF ofrece un alto rendimiento con bajo coste computacional, mientras que ORCT logra un equilibrio entre exactitud y escalabilidad. En cambio, OCT, aunque teóricamente atractivo, presenta limitaciones computacionales que restringen su uso a problemas de menor escala.
En este trabajo se estudian los árboles de clasificación, una técnica ampliamente utilizada en aprendizaje automático por su simplicidad, capacidad predictiva y facilidad de interpretación. En particular, se analizan distintas estrategias para su construcción, con especial atención a los métodos basados en optimización matemática. Se consideran tres enfoques representativos: Random Forests (RF), como modelo heurístico basado en el ensamblado de árboles; Optimal Classification Trees (OCT), que plantea el problema como una optimización lineal entera mixta; y Optimal Randomized Classification Trees (ORCT), que utiliza una formulación continua que mejora la escalabilidad manteniendo la interpretabilidad. El trabajo comienza con una revisión de los fundamentos de la clasificación estadística y los métodos basados en árboles de decisión. A continuación, se describen en detalle los modelos de optimización que permiten construir árboles óptimos. Finalmente, se realiza un estudio empírico comparativo utilizando cinco conjuntos de datos de distinta complejidad, evaluando cada modelo según precisión, tiempo de entrenamiento, interpretabilidad y viabilidad práctica. Los resultados muestran que RF ofrece un alto rendimiento con bajo coste computacional, mientras que ORCT logra un equilibrio entre exactitud y escalabilidad. En cambio, OCT, aunque teóricamente atractivo, presenta limitaciones computacionales que restringen su uso a problemas de menor escala.
Dirección
GONZALEZ DIAZ, JULIO (Tutoría)
GONZALEZ DIAZ, JULIO (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Tecnologías de Análisis Automático de Textos para la Estimación de Rasgos de Personalidad
Autoría
I.Q.R.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
I.Q.R.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 10:15
17.07.2025 10:15
Resumen
Este trabajo se enmarca en el campo del Text-based Personality Computing (TPC), que busca estimar rasgos de personalidad a partir de textos escritos por usuarios/as mediante técnicas de procesamiento del lenguaje natural (PLN). Tradicionalmente, los rasgos de personalidad se miden con cuestionarios, pero estos métodos tienen limitaciones como la subjetividad de las respuestas o la dificultad para aplicarlos a gran escala. Gracias a los avances en el PLN, hoy en día es posible analizar textos y predecir ciertos rasgos sin necesidad de encuestas. En este trabajo se ha utilizado un conjunto de datos de Reddit con información sobre los rasgos de personalidad de sus usuarios/as y se han aplicado técnicas modernas para comparar sus textos con los ítems del cuestionario NEO-FFI. A través de este proceso, se han estimado las puntuaciones Big-5, se han evaluado los resultados obtenidos y se han derivado los rasgos MBTI a partir de estos resultados. El enfoque propuesto ofrece una alternativa sencilla, escalable e interpretable para el análisis automático de personalidad.
Este trabajo se enmarca en el campo del Text-based Personality Computing (TPC), que busca estimar rasgos de personalidad a partir de textos escritos por usuarios/as mediante técnicas de procesamiento del lenguaje natural (PLN). Tradicionalmente, los rasgos de personalidad se miden con cuestionarios, pero estos métodos tienen limitaciones como la subjetividad de las respuestas o la dificultad para aplicarlos a gran escala. Gracias a los avances en el PLN, hoy en día es posible analizar textos y predecir ciertos rasgos sin necesidad de encuestas. En este trabajo se ha utilizado un conjunto de datos de Reddit con información sobre los rasgos de personalidad de sus usuarios/as y se han aplicado técnicas modernas para comparar sus textos con los ítems del cuestionario NEO-FFI. A través de este proceso, se han estimado las puntuaciones Big-5, se han evaluado los resultados obtenidos y se han derivado los rasgos MBTI a partir de estos resultados. El enfoque propuesto ofrece una alternativa sencilla, escalable e interpretable para el análisis automático de personalidad.
Dirección
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Tribunal
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
Desarrollo de una aplicación eCommerce (tienda online) para un negocio de artículos de pesca
Autoría
I.Q.G.
Grao en Ingeniería Informática (2ªed)
I.Q.G.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 13:00
17.07.2025 13:00
Resumen
Hoy en día muchas pequeñas y medianas empresas necesitan mejorar su visibilidad para mantenerse competitivas en el mercado. En el caso del sector de la venta de artículos de pesca, la cantidad de productos a mostrar a los clientes y la difícil gestión de estos miles de productos en un negocio hacen que sea muy complicado mantener un catálogo claro y accesible empleando métodos tradicionales como listados en papel, catálogos físicos o incluso páginas web poco dinámicas. Este Trabajo Fin de Grado consiste en el diseño y en la implementación de una aplicación web tipo eCommerce para la tienda de artículos de pesca Automar Baiona. El principal objetivo de esta aplicación es permitir a los clientes consultar de una forma sencilla el catálogo de productos de la tienda, empleando mecanismos como filtrados y categorías; por otra parte se plantea el desarrollo de un panel de administrador que proporcione al propietario de la tienda una fácil gestión de su catálogo online, permitiéndole añadir, modificar o eliminar productos sin requerir conocimientos técnicos avanzados. Cabe destacar que, aunque se utilice el término eCommerce, en esta aplicación no se implementa la funcionalidad de compra online. Esto es debido a que la gran mayoría de los clientes de la tienda Automar Baiona realizan sus compras de forma presencial, motivo por el cual el cliente no ha considerado oportuno implementar esta parte.
Hoy en día muchas pequeñas y medianas empresas necesitan mejorar su visibilidad para mantenerse competitivas en el mercado. En el caso del sector de la venta de artículos de pesca, la cantidad de productos a mostrar a los clientes y la difícil gestión de estos miles de productos en un negocio hacen que sea muy complicado mantener un catálogo claro y accesible empleando métodos tradicionales como listados en papel, catálogos físicos o incluso páginas web poco dinámicas. Este Trabajo Fin de Grado consiste en el diseño y en la implementación de una aplicación web tipo eCommerce para la tienda de artículos de pesca Automar Baiona. El principal objetivo de esta aplicación es permitir a los clientes consultar de una forma sencilla el catálogo de productos de la tienda, empleando mecanismos como filtrados y categorías; por otra parte se plantea el desarrollo de un panel de administrador que proporcione al propietario de la tienda una fácil gestión de su catálogo online, permitiéndole añadir, modificar o eliminar productos sin requerir conocimientos técnicos avanzados. Cabe destacar que, aunque se utilice el término eCommerce, en esta aplicación no se implementa la funcionalidad de compra online. Esto es debido a que la gran mayoría de los clientes de la tienda Automar Baiona realizan sus compras de forma presencial, motivo por el cual el cliente no ha considerado oportuno implementar esta parte.
Dirección
VARELA PET, JOSE (Tutoría)
VARELA PET, JOSE (Tutoría)
Tribunal
VARELA PET, JOSE (Tutor del alumno)
VARELA PET, JOSE (Tutor del alumno)
Planta de producción de ácido acético a partir de residuos (bagazo) de manzana
Autoría
L.R.T.
Grado en Ingeniería Química
L.R.T.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:00
16.07.2025 10:00
Resumen
El objetivo principal del presente proyecto es la gestión de residuos orgánicos producidos en la industria sidrera y de zumos del norte de España, teniendo la capacidad de tratar todos los producidos en Galicia. Para ello, se ha realizado el diseño de una instalación situada en el polígono industrial de Chantada (Lugo). En este proceso que utiliza como materia prima bagazo de manzana, se producen anualmente 1500 toneladas de ácido acético de manera sostenible aprovechando 43440 toneladas del residuo. El proceso consta de dos fermentaciones principales en las que se produce, en la primera de ellas, etanol para posteriormente transformarlo en ácido acético con la presencia de la bacteria Acetobacter Pasteurianus SKYAA25. Además, como subproducto se obtiene fibra de manzana que será comercializada para que otras industrias puedan aprovecharla. Por otra parte, se ha realizado el diseño de la planta estableciendo los balances de materia y energía de cada equipo, una estimación de las dimensiones y otras características de cada uno de ellos y se han diseñado en detalle los fermentadores en los que se produce el ácido acético, incluyendo un plano de construcción de los mismos. También se incluyen junto a este los siguientes planos: plano de situación y emplazamiento, plano de implantación, diagrama de flujo, diagramas de instrumentación y tuberías y diagrama de Gantt de los equipos. Finalmente, se han realizado un estudio de seguridad y salud, un estudio de impacto ambiental y un análisis económico de la instalación. Este último se divide en dos partes principales, un análisis de viabilidad económica y una partida presupuestaria en la que se ha obtenido un presupuesto de 30.123.206,25 euros. Palabras clave: bagazo de manzana, ácido acético, residuo, sidra, Acetobacter Pasteurianus SKYAA25.
El objetivo principal del presente proyecto es la gestión de residuos orgánicos producidos en la industria sidrera y de zumos del norte de España, teniendo la capacidad de tratar todos los producidos en Galicia. Para ello, se ha realizado el diseño de una instalación situada en el polígono industrial de Chantada (Lugo). En este proceso que utiliza como materia prima bagazo de manzana, se producen anualmente 1500 toneladas de ácido acético de manera sostenible aprovechando 43440 toneladas del residuo. El proceso consta de dos fermentaciones principales en las que se produce, en la primera de ellas, etanol para posteriormente transformarlo en ácido acético con la presencia de la bacteria Acetobacter Pasteurianus SKYAA25. Además, como subproducto se obtiene fibra de manzana que será comercializada para que otras industrias puedan aprovecharla. Por otra parte, se ha realizado el diseño de la planta estableciendo los balances de materia y energía de cada equipo, una estimación de las dimensiones y otras características de cada uno de ellos y se han diseñado en detalle los fermentadores en los que se produce el ácido acético, incluyendo un plano de construcción de los mismos. También se incluyen junto a este los siguientes planos: plano de situación y emplazamiento, plano de implantación, diagrama de flujo, diagramas de instrumentación y tuberías y diagrama de Gantt de los equipos. Finalmente, se han realizado un estudio de seguridad y salud, un estudio de impacto ambiental y un análisis económico de la instalación. Este último se divide en dos partes principales, un análisis de viabilidad económica y una partida presupuestaria en la que se ha obtenido un presupuesto de 30.123.206,25 euros. Palabras clave: bagazo de manzana, ácido acético, residuo, sidra, Acetobacter Pasteurianus SKYAA25.
Dirección
GONZALEZ GARCIA, SARA (Tutoría)
GONZALEZ GARCIA, SARA (Tutoría)
Tribunal
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Planta de producción de benceno e propileno
Autoría
A.R.B.
Grado en Ingeniería Química
A.R.B.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:30
16.07.2025 10:30
Resumen
El cumeno, nombre común del isopropilbenceno, es un compuesto químico muy utilizado en la industria, ya que es un intermediario en la producción de productos de alto valor añadido, como el fenol y la acetona. También se emplea en la producción de óxido de propileno. Por estos motivos, se decidió llevar a cabo una planta industrial para la producción de cumeno a partir de la alquilación de benceno con la adición de propileno. El proceso consiste en una primera sección de acondicionamiento, donde entran el benceno y el propileno y se llevan a las condiciones adecuadas para llevar a cabo la reacción. La segunda sección es la del reactor, donde en un reactor catalítico ocurre la reacción de alquilación para obtener el producto deseado. A continuación, en la tercera sección, los productos obtenidos son separados y purificados mediante una serie de columnas de destilación. La última etapa es el almacenamiento de los productos separados. Alexandre Rey Baliña diseñará la columna de destilación Antón Varela Veiga diseñará el reactor
El cumeno, nombre común del isopropilbenceno, es un compuesto químico muy utilizado en la industria, ya que es un intermediario en la producción de productos de alto valor añadido, como el fenol y la acetona. También se emplea en la producción de óxido de propileno. Por estos motivos, se decidió llevar a cabo una planta industrial para la producción de cumeno a partir de la alquilación de benceno con la adición de propileno. El proceso consiste en una primera sección de acondicionamiento, donde entran el benceno y el propileno y se llevan a las condiciones adecuadas para llevar a cabo la reacción. La segunda sección es la del reactor, donde en un reactor catalítico ocurre la reacción de alquilación para obtener el producto deseado. A continuación, en la tercera sección, los productos obtenidos son separados y purificados mediante una serie de columnas de destilación. La última etapa es el almacenamiento de los productos separados. Alexandre Rey Baliña diseñará la columna de destilación Antón Varela Veiga diseñará el reactor
Dirección
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
Tribunal
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Caracterización de los cambios en el ECG inmediatamente antes del comienzo de la Fibrilación Auricular Paroxística mediante aprendizaje automático
Autoría
S.R.V.
Grao en Ingeniería Informática (2ªed)
S.R.V.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:45
17.07.2025 10:45
Resumen
El objetivo principal de este trabajo es el desarrollo de un modelo de predicción de fibrilación auricular (FA) paroxística a partir de electrocardiogramas (ECG), mediante el uso de técnicas de aprendizaje automático. El enfoque propuesto busca identificar patrones en los ECG que puedan actuar como indicadores tempranos de un episodio inminente de FA, concretamente con una antelación de hasta 10 minutos. Para ello, se emplea la base de datos proporcionada por el Predicting Paroxysmal Atrial Fibrillation/Flutter: The PhysioNet/Computing in Cardiology Challenge 2001, la cual contiene registros de ECG de pacientes, donde la mitad de los pacientes presentan episodios de FA. La metodología se basa en una combinación de técnicas de aprendizaje automático, incluyendo redes neuronales LSTM bidireccionales, el algoritmo XGBoost y varios modelos {\it ensemble}. Las arquitecturas propuestas trabajan tanto con los registros de forma agregada como a nivel de latido, para extraer la máxima información posible de ellos. Además de la detección de eventos de FA, este trabajo tiene como finalidad contribuir a la interpretación clínica de los resultados, mediante la caracterización de las variables más relevantes. Esto permite identificar qué características del ECG podrían asociarse con un riesgo elevado de sufrir un episodio de fibrilación auricular, facilitando su análisis y comprensión por parte del personal médico.
El objetivo principal de este trabajo es el desarrollo de un modelo de predicción de fibrilación auricular (FA) paroxística a partir de electrocardiogramas (ECG), mediante el uso de técnicas de aprendizaje automático. El enfoque propuesto busca identificar patrones en los ECG que puedan actuar como indicadores tempranos de un episodio inminente de FA, concretamente con una antelación de hasta 10 minutos. Para ello, se emplea la base de datos proporcionada por el Predicting Paroxysmal Atrial Fibrillation/Flutter: The PhysioNet/Computing in Cardiology Challenge 2001, la cual contiene registros de ECG de pacientes, donde la mitad de los pacientes presentan episodios de FA. La metodología se basa en una combinación de técnicas de aprendizaje automático, incluyendo redes neuronales LSTM bidireccionales, el algoritmo XGBoost y varios modelos {\it ensemble}. Las arquitecturas propuestas trabajan tanto con los registros de forma agregada como a nivel de latido, para extraer la máxima información posible de ellos. Además de la detección de eventos de FA, este trabajo tiene como finalidad contribuir a la interpretación clínica de los resultados, mediante la caracterización de las variables más relevantes. Esto permite identificar qué características del ECG podrían asociarse con un riesgo elevado de sufrir un episodio de fibrilación auricular, facilitando su análisis y comprensión por parte del personal médico.
Dirección
FELIX LAMAS, PAULO MANUEL (Tutoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotutoría
FELIX LAMAS, PAULO MANUEL (Tutoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotutoría
Tribunal
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
Planta de producción de acetato de vinilo (monómero)
Autoría
D.S.S.
Grado en Ingeniería Química
D.S.S.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 09:30
16.07.2025 09:30
Resumen
El presente proyecto consta de la elaboración de una planta de producción de acetato de vinilo (monómero). Este producto químico es muy demandado a nivel industrial debido a todos los usos que este posee. Principalmente, se utiliza para la creación de polímeros como el PVA o el PVP. Para su elaboración, se utilizó como materia prima el etileno, el ácido acético y el oxígeno. El proceso se caracteriza por realizarse en fase gaseosa. El proyecto fue realizado por los estudiantes Darío Senín Sotelo y Alberto Pisco Domínguez, que diseñaron, respectivamente, el reactor catalítico heterogéneo multitubular R-201 y la columna de absorción física T-302.
El presente proyecto consta de la elaboración de una planta de producción de acetato de vinilo (monómero). Este producto químico es muy demandado a nivel industrial debido a todos los usos que este posee. Principalmente, se utiliza para la creación de polímeros como el PVA o el PVP. Para su elaboración, se utilizó como materia prima el etileno, el ácido acético y el oxígeno. El proceso se caracteriza por realizarse en fase gaseosa. El proyecto fue realizado por los estudiantes Darío Senín Sotelo y Alberto Pisco Domínguez, que diseñaron, respectivamente, el reactor catalítico heterogéneo multitubular R-201 y la columna de absorción física T-302.
Dirección
Rodríguez Figueiras, Óscar (Tutoría)
Rodríguez Figueiras, Óscar (Tutoría)
Tribunal
CARBALLA ARCOS, MARTA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
EIBES GONZALEZ, GEMMA MARIA (Vocal)
CARBALLA ARCOS, MARTA (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
EIBES GONZALEZ, GEMMA MARIA (Vocal)
Estado del arte de las herramientas de pentesting WiFi mediante la metodología OWISAM
Autoría
L.S.L.
Grao en Ingeniería Informática (2ªed)
L.S.L.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
El presente Trabajo de Fin de Grado (TFG) se ha centrado en la actualización y mejora de la metodología OWISAM (Open Wireless Security Assessment Methodology), para auditorías de seguridad en redes inalámbricas. El proyecto ha sido desarrollado en colaboración con Tarlogic Security, empresa autora desde 2013. El objetivo principal consistió en actualizar los contenidos para incluir las amenazas y tecnologías más recientes, y paralelamente, desarrollar una nueva plataforma web basada en Jekyll que mejora significativamente la accesibilidad, mantenibilidad y experiencia de usuario respecto a la implementación original. Entre las principales contribuciones del trabajo destacan la actualización de los 64 controles técnicos organizados en 10 categorías y la implementación de una interfaz moderna y responsiva. La nueva plataforma ha superado con éxito los objetivos de rendimiento, accesibilidad y usabilidad establecidos. Este trabajo de fin de grado no solo ha modernizado una herramienta clave para la comunidad de ciberseguridad, sino que también establece las bases para su mantenimiento, facilitando la colaboración abierta y una evolución continua de sus contenidos.
El presente Trabajo de Fin de Grado (TFG) se ha centrado en la actualización y mejora de la metodología OWISAM (Open Wireless Security Assessment Methodology), para auditorías de seguridad en redes inalámbricas. El proyecto ha sido desarrollado en colaboración con Tarlogic Security, empresa autora desde 2013. El objetivo principal consistió en actualizar los contenidos para incluir las amenazas y tecnologías más recientes, y paralelamente, desarrollar una nueva plataforma web basada en Jekyll que mejora significativamente la accesibilidad, mantenibilidad y experiencia de usuario respecto a la implementación original. Entre las principales contribuciones del trabajo destacan la actualización de los 64 controles técnicos organizados en 10 categorías y la implementación de una interfaz moderna y responsiva. La nueva plataforma ha superado con éxito los objetivos de rendimiento, accesibilidad y usabilidad establecidos. Este trabajo de fin de grado no solo ha modernizado una herramienta clave para la comunidad de ciberseguridad, sino que también establece las bases para su mantenimiento, facilitando la colaboración abierta y una evolución continua de sus contenidos.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
TARASCO ACUÑA, MIGUEL Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
TARASCO ACUÑA, MIGUEL Cotutoría
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Análisis y visualización de emociones en foros para la detección de síntomas de adicciónn al juego
Autoría
D.S.V.
Grao en Ingeniería Informática (2ªed)
D.S.V.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 11:30
17.07.2025 11:30
Resumen
Se presenta una herramienta web orientada al análisis emocional y semántico de textos, que permite a los usuarios definir consultas personalizadas y visualizar los resultados de forma clara e intuitiva. La aplicación facilita el procesamiento configurable de textos, priorizando la experiencia de usuario, la modularidad del sistema y su capacidad de extensión hacia nuevos escenarios de análisis. El sistema se ha construido sobre una arquitectura cliente-servidor basada en el paradigma hexagonal, que favorece la separación de responsabilidades y la adaptabilidad, utilizando Python y el framework FastAPI para el backend y tecnologías web estándar para el frontend. Entre sus funcionalidades, permite la carga de archivos en formato .csv, el filtrado de textos mediante consultas específicas con umbrales de tolerancia, la ejecución de análisis emocionales y la visualización de resultados personalizados mediante filtros interactivos. A nivel técnico, incorpora modelos de análisis emocional y recuperación semántica estructurados mediante patrones de diseño como Strategy, Factory, Decorator y Facade, lo que garantiza la extensibilidad y mantenibilidad del código. Además, integra un sistema de autenticación y gestión de usuarios mediante JWT, control de acceso seguro y persistencia de datos en una base de datos relacional PostgreSQL, cumpliendo con requisitos de seguridad y trazabilidad. La herramienta ha sido diseñada siguiendo principios de escalabilidad y separación de responsabilidades (presentación, lógica de negocio y datos), y su funcionalidad ha sido verificada mediante pruebas unitarias, de integración y de usabilidad sobre casos de uso reales, lo que permite sentar las bases para su evolución futura. Este proyecto se enmarca dentro del tipo B de Trabajo de Fin de Grado, abarcando la especificación, diseño e implementación de un sistema completo, modular y extensible, cuya versatilidad lo hace aplicable tanto en contextos académicos como en entornos prácticos de procesamiento del lenguaje natural.
Se presenta una herramienta web orientada al análisis emocional y semántico de textos, que permite a los usuarios definir consultas personalizadas y visualizar los resultados de forma clara e intuitiva. La aplicación facilita el procesamiento configurable de textos, priorizando la experiencia de usuario, la modularidad del sistema y su capacidad de extensión hacia nuevos escenarios de análisis. El sistema se ha construido sobre una arquitectura cliente-servidor basada en el paradigma hexagonal, que favorece la separación de responsabilidades y la adaptabilidad, utilizando Python y el framework FastAPI para el backend y tecnologías web estándar para el frontend. Entre sus funcionalidades, permite la carga de archivos en formato .csv, el filtrado de textos mediante consultas específicas con umbrales de tolerancia, la ejecución de análisis emocionales y la visualización de resultados personalizados mediante filtros interactivos. A nivel técnico, incorpora modelos de análisis emocional y recuperación semántica estructurados mediante patrones de diseño como Strategy, Factory, Decorator y Facade, lo que garantiza la extensibilidad y mantenibilidad del código. Además, integra un sistema de autenticación y gestión de usuarios mediante JWT, control de acceso seguro y persistencia de datos en una base de datos relacional PostgreSQL, cumpliendo con requisitos de seguridad y trazabilidad. La herramienta ha sido diseñada siguiendo principios de escalabilidad y separación de responsabilidades (presentación, lógica de negocio y datos), y su funcionalidad ha sido verificada mediante pruebas unitarias, de integración y de usabilidad sobre casos de uso reales, lo que permite sentar las bases para su evolución futura. Este proyecto se enmarca dentro del tipo B de Trabajo de Fin de Grado, abarcando la especificación, diseño e implementación de un sistema completo, modular y extensible, cuya versatilidad lo hace aplicable tanto en contextos académicos como en entornos prácticos de procesamiento del lenguaje natural.
Dirección
CONDORI FERNANDEZ, OLINDA NELLY (Tutoría)
ARAGON SAENZPARDO, MARIO EZRA Cotutoría
CONDORI FERNANDEZ, OLINDA NELLY (Tutoría)
ARAGON SAENZPARDO, MARIO EZRA Cotutoría
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Gateway: Plataforma web para la planificación formativa
Autoría
S.S.P.
Grao en Ingeniería Informática (2ªed)
S.S.P.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 12:00
17.07.2025 12:00
Resumen
Este Trabajo de Fin de Grado tiene como principal aportación el desarrollo de una aplicación web que ayuda a los usuarios a planificar su formación en función de sus objetivos profesionales. La plataforma permite recibir recomendaciones personalizadas de cursos, organizar un plan formativo y hacer seguimiento del progreso individual. Además, el sistema incluye funciones clave como el registro de usuarios, la gestión del perfil personal, la visualización de itinerarios formativos y la posibilidad de guardar o marcar recursos como completados. Todo ello está orientado a ofrecer una herramienta útil para quienes desean aprender de forma autónoma, especialmente en procesos de mejora profesional.
Este Trabajo de Fin de Grado tiene como principal aportación el desarrollo de una aplicación web que ayuda a los usuarios a planificar su formación en función de sus objetivos profesionales. La plataforma permite recibir recomendaciones personalizadas de cursos, organizar un plan formativo y hacer seguimiento del progreso individual. Además, el sistema incluye funciones clave como el registro de usuarios, la gestión del perfil personal, la visualización de itinerarios formativos y la posibilidad de guardar o marcar recursos como completados. Todo ello está orientado a ofrecer una herramienta útil para quienes desean aprender de forma autónoma, especialmente en procesos de mejora profesional.
Dirección
GARCIA TAHOCES, PABLO (Tutoría)
García Cortés, Mayra Cotutoría
GARCIA TAHOCES, PABLO (Tutoría)
García Cortés, Mayra Cotutoría
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Planta de producción de alcohol alílico por hidrólisis de acetato de alilo
Autoría
A.S.B.
Grado en Ingeniería Química
A.S.B.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:30
16.07.2025 12:30
Resumen
El presente proyecto tiene como finalidad el diseño de una planta de producción 90.000 toneladas al año de alcohol alílico con una pureza del 100 %. La producción se realizará de forma continua las 24 horas del día, durante 330 días al año. La obtención del alcohol alílico se llevará a cabo mediante la hidrólisis catalítica del ace-tato de alilo. En sí, el proceso se basará en hacer reaccionar las materias primas acetato de alilo y agua en un reactor de lecho fijo, en cuyo interior se encontrará un catalizador de tipo resina ácida de intercambio iónico. Como resultado de la reacción, saldrá del reac-tor una corriente formada por alcohol alílico (producto principal), ácido acético (subpro-ducto) y las materias primas no reaccionadas. Todas las substancias químicas de la corriente anterior serán separadas usando equipos de separación tales como columnas de destilación simple y una columna de destilación extractiva. Una de las columnas de destilación simple del proceso, concretamente la si-tuada despues de la columna de destilación extractiva, será el equipo que se diseñe en detalle y el resto se dimensionarán. Además, como finalidad principal de la realización del Trabajo Fin de Grado, la alumna Ana Suárez Barreiro opta a obtener el título del grado de Ingeniería Química.
El presente proyecto tiene como finalidad el diseño de una planta de producción 90.000 toneladas al año de alcohol alílico con una pureza del 100 %. La producción se realizará de forma continua las 24 horas del día, durante 330 días al año. La obtención del alcohol alílico se llevará a cabo mediante la hidrólisis catalítica del ace-tato de alilo. En sí, el proceso se basará en hacer reaccionar las materias primas acetato de alilo y agua en un reactor de lecho fijo, en cuyo interior se encontrará un catalizador de tipo resina ácida de intercambio iónico. Como resultado de la reacción, saldrá del reac-tor una corriente formada por alcohol alílico (producto principal), ácido acético (subpro-ducto) y las materias primas no reaccionadas. Todas las substancias químicas de la corriente anterior serán separadas usando equipos de separación tales como columnas de destilación simple y una columna de destilación extractiva. Una de las columnas de destilación simple del proceso, concretamente la si-tuada despues de la columna de destilación extractiva, será el equipo que se diseñe en detalle y el resto se dimensionarán. Además, como finalidad principal de la realización del Trabajo Fin de Grado, la alumna Ana Suárez Barreiro opta a obtener el título del grado de Ingeniería Química.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
RODIL RODRIGUEZ, EVA (Tutoría)
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
González Álvarez, Julia (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
González Álvarez, Julia (Vocal)
Planta de producción de acrilonitrilo
Autoría
H.S.B.
Grado en Ingeniería Química
H.S.B.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:40
16.07.2025 10:40
Resumen
El objetivo de este TFG es el diseño de una planta de producción de 50.000 toneladas anuales de acrilonitrilo. Este compuesto tiene un gran uso a nivel industrial. Se emplea comúnmente para producir fibras sintéticas, plásticos, resinas y para la síntesis de otros químicos. Este producto se obtiene mediante la reacción de amoxidación del propileno, amoníaco y oxígeno, conocido como proceso Sohio. Los principales productos de reacción son: el acrilonitrilo, HCN, acetonitrilo, agua, dióxido de carbono y monóxido de carbono. La reacción tendrá lugar en un reactor de lecho fluidizado con un catalizador óxido de bismuto molibdeno soportado en alúmina, posteriormente, los productos de reacción pasarán por un absorbedor (empleando agua como disolvente) para recuperar la mayor cantidad de acrilonitrilo posible, y finalmente, los productos pasarán por un tren de columnas de destilación, cuyo objetivo principal es la separación y purificación a un 99,7% de pureza del acrilonitrilo.
El objetivo de este TFG es el diseño de una planta de producción de 50.000 toneladas anuales de acrilonitrilo. Este compuesto tiene un gran uso a nivel industrial. Se emplea comúnmente para producir fibras sintéticas, plásticos, resinas y para la síntesis de otros químicos. Este producto se obtiene mediante la reacción de amoxidación del propileno, amoníaco y oxígeno, conocido como proceso Sohio. Los principales productos de reacción son: el acrilonitrilo, HCN, acetonitrilo, agua, dióxido de carbono y monóxido de carbono. La reacción tendrá lugar en un reactor de lecho fluidizado con un catalizador óxido de bismuto molibdeno soportado en alúmina, posteriormente, los productos de reacción pasarán por un absorbedor (empleando agua como disolvente) para recuperar la mayor cantidad de acrilonitrilo posible, y finalmente, los productos pasarán por un tren de columnas de destilación, cuyo objetivo principal es la separación y purificación a un 99,7% de pureza del acrilonitrilo.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Aplicación móvil para el aprendizaje de educación auditiva musical
Autoría
R.T.L.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
R.T.L.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 12:30
17.07.2025 12:30
Resumen
En este trabajo se describirá el proceso de creación de una aplicación móvil para el aprendizaje de la educación auditiva musical. Se comenzará realizando un estudio preliminar donde exploraremos el potencial de la idea. Veremos quién puede estar interesa en la aplicación y por qué está interesado. Además se planteará un modelo de negocio, ya que una aplicación es muy fácil de introducirla en el mercado. Especificaremos los requisitos que determinarán la Luego dedicaremos un capítulo a la ingeniería del software, explicando el modelo de ciclo de vida, narrando la planificación que se llevó a cabo. También definiremos los casos de uso de los requisitos funcionales antes definidos. Pasamos al diseño, donde se explican muchos diseños distintos, el de la interfaz gráfica, la arquitectura y el software. Para acabar explicaremos el plan de pruebas y determinaremos el éxito o fracaso del proyecto
En este trabajo se describirá el proceso de creación de una aplicación móvil para el aprendizaje de la educación auditiva musical. Se comenzará realizando un estudio preliminar donde exploraremos el potencial de la idea. Veremos quién puede estar interesa en la aplicación y por qué está interesado. Además se planteará un modelo de negocio, ya que una aplicación es muy fácil de introducirla en el mercado. Especificaremos los requisitos que determinarán la Luego dedicaremos un capítulo a la ingeniería del software, explicando el modelo de ciclo de vida, narrando la planificación que se llevó a cabo. También definiremos los casos de uso de los requisitos funcionales antes definidos. Pasamos al diseño, donde se explican muchos diseños distintos, el de la interfaz gráfica, la arquitectura y el software. Para acabar explicaremos el plan de pruebas y determinaremos el éxito o fracaso del proyecto
Dirección
TOBAR QUINTANAR, ALEJANDRO JOSE (Tutoría)
TOBAR QUINTANAR, ALEJANDRO JOSE (Tutoría)
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Introducción al aprendizaje por refuerzo
Autoría
R.T.L.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
R.T.L.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 11:25
17.07.2025 11:25
Resumen
Este trabajo presenta una introducción al aprendizaje por refuerzo desde una perspectiva matemática, haciendo especial énfasis en su conexión con la programación dinámica. Aunque el aprendizaje por refuerzo es un campo autónomo dentro de la inteligencia artificial, muchas de sus ideas fundamentales (como la toma de decisiones secuenciales, las funciones de utilidad o las políticas óptimas) tienen su origen en la programación dinámica. Por ello, se comienza el estudio abordando la programación dinámica como nexo conceptual y formal que permite sentar las bases del aprendizaje por refuerzo. Una vez finalizada la programación dinámica, se procederá a narrar los aspectos más importantes del aprendizaje por refuerzo. Para su comprensión será esencial comprender los procesos de decisión de Markov. También se discuten temas que derivan de este paradigma, como el dilema exploración explotación o el estudio de distintos algoritmos de resolución como son Monte Carlo y el aprendizaje por diferencias temporales. Por último, se quiere ver cómo el aprendizaje por refuerzo puede resultar una herramienta muy útil en el ámbito de la optimización matemática. Para ello se abordan distintos tipos de problemas clásicos de optimización, describiendo cómo se han de reformular para que encajen dentro del marco del aprendizaje por refuerzo, lo que permite aplicar sus algoritmos a problemas complejos que no se resuelven fácilmente por métodos tradicionales.
Este trabajo presenta una introducción al aprendizaje por refuerzo desde una perspectiva matemática, haciendo especial énfasis en su conexión con la programación dinámica. Aunque el aprendizaje por refuerzo es un campo autónomo dentro de la inteligencia artificial, muchas de sus ideas fundamentales (como la toma de decisiones secuenciales, las funciones de utilidad o las políticas óptimas) tienen su origen en la programación dinámica. Por ello, se comienza el estudio abordando la programación dinámica como nexo conceptual y formal que permite sentar las bases del aprendizaje por refuerzo. Una vez finalizada la programación dinámica, se procederá a narrar los aspectos más importantes del aprendizaje por refuerzo. Para su comprensión será esencial comprender los procesos de decisión de Markov. También se discuten temas que derivan de este paradigma, como el dilema exploración explotación o el estudio de distintos algoritmos de resolución como son Monte Carlo y el aprendizaje por diferencias temporales. Por último, se quiere ver cómo el aprendizaje por refuerzo puede resultar una herramienta muy útil en el ámbito de la optimización matemática. Para ello se abordan distintos tipos de problemas clásicos de optimización, describiendo cómo se han de reformular para que encajen dentro del marco del aprendizaje por refuerzo, lo que permite aplicar sus algoritmos a problemas complejos que no se resuelven fácilmente por métodos tradicionales.
Dirección
GONZALEZ DIAZ, JULIO (Tutoría)
GONZALEZ DIAZ, JULIO (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Anotación de objetos con técnicas zero-shot
Autoría
L.T.H.
Grao en Ingeniería Informática (2ªed)
L.T.H.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
Uno de los problemas más prominentes en el área de la inteligencia artificial y, específicamente, de la visión por computador, es la necesidad de construir conjuntos de datos extensos de calidad para el entrenamiento de los modelos predictores. Obtener estos conjuntos de datos es una tarea compleja y costosa si no existen conjuntos disponibles al público que se ajusten a las necesidades específicas del modelo. Para problemas de visión por computador, esto puede conllevar la recopilación y etiquetado manual de cientos de miles de imágenes. Es por esto que la aparición de técnicas de aprendizaje zero-shot, donde no se necesitan ejemplos etiquetados para el entrenamiento del modelo de IA, resulta de especial interés para este campo. El objetivo principal de este TFG consiste en la investigación de la anotación de objetos mediante técnicas zero-shot, utilizando un detector de objetos zero-shot para generar pseudo-etiquetas sin necesidad de datos anotados manualmente. Estas pseudo-etiquetas se emplearán posteriormente para entrenar un detector convencional de manera supervisada. Mediante las pruebas realizadas, se evaluará si las pseudo-etiquetas generadas tienen una calidad suficiente en comparación con los resultados obtenidos mediante las etiquetas reales. Los resultados obtenidos evidencian que, efectivamente, las pseudo-etiquetas generadas automáticamente mediante el uso de modelos zero-shot permiten entrenar detectores supervisados con un rendimiento cercano al de modelos entrenados con etiquetas reales.
Uno de los problemas más prominentes en el área de la inteligencia artificial y, específicamente, de la visión por computador, es la necesidad de construir conjuntos de datos extensos de calidad para el entrenamiento de los modelos predictores. Obtener estos conjuntos de datos es una tarea compleja y costosa si no existen conjuntos disponibles al público que se ajusten a las necesidades específicas del modelo. Para problemas de visión por computador, esto puede conllevar la recopilación y etiquetado manual de cientos de miles de imágenes. Es por esto que la aparición de técnicas de aprendizaje zero-shot, donde no se necesitan ejemplos etiquetados para el entrenamiento del modelo de IA, resulta de especial interés para este campo. El objetivo principal de este TFG consiste en la investigación de la anotación de objetos mediante técnicas zero-shot, utilizando un detector de objetos zero-shot para generar pseudo-etiquetas sin necesidad de datos anotados manualmente. Estas pseudo-etiquetas se emplearán posteriormente para entrenar un detector convencional de manera supervisada. Mediante las pruebas realizadas, se evaluará si las pseudo-etiquetas generadas tienen una calidad suficiente en comparación con los resultados obtenidos mediante las etiquetas reales. Los resultados obtenidos evidencian que, efectivamente, las pseudo-etiquetas generadas automáticamente mediante el uso de modelos zero-shot permiten entrenar detectores supervisados con un rendimiento cercano al de modelos entrenados con etiquetas reales.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
Tribunal
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
Planta de producción de acrilonitrilo
Autoría
L.V.B.
Grado en Ingeniería Química
L.V.B.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:40
16.07.2025 10:40
Resumen
O obxectivo deste TFG é deseño dunha planta de produción de 50.000 toneladas anuais de acrilonitrilo. Este composto ten un gran uso a nivel industrial. Emprégase conunmente para producir fibras sintéticas, plásticos, resinas e para a síntese doutros químicos. Este producto obtense mediante a reacción de amoxidación do propileno, amoniaco e osíxeno, coñecido como proceso Sohio. Os principais produtos de reacción son: o acrilonitrilo, HCN, acetonitrilo, auga, dióxido de carbono e monóxido de carbono. A reacción terá lugar nun reactor de leito fluidizado cun catalizador de óxido de bismuto molibdeno soportado en alúmina. Posteriormente, os produtos de reacción pasarán por un absorbedor (empregando auga como disolvente) para recuperar a maior cantidade de acrilonitrilo posible, e finalmente, os produtos pasarán por un tren de columnas de destilación cuxo obxectivo principal é a separación e recuperación a un 99,7% de pureza do acrilonitrilo.
O obxectivo deste TFG é deseño dunha planta de produción de 50.000 toneladas anuais de acrilonitrilo. Este composto ten un gran uso a nivel industrial. Emprégase conunmente para producir fibras sintéticas, plásticos, resinas e para a síntese doutros químicos. Este producto obtense mediante a reacción de amoxidación do propileno, amoniaco e osíxeno, coñecido como proceso Sohio. Os principais produtos de reacción son: o acrilonitrilo, HCN, acetonitrilo, auga, dióxido de carbono e monóxido de carbono. A reacción terá lugar nun reactor de leito fluidizado cun catalizador de óxido de bismuto molibdeno soportado en alúmina. Posteriormente, os produtos de reacción pasarán por un absorbedor (empregando auga como disolvente) para recuperar a maior cantidade de acrilonitrilo posible, e finalmente, os produtos pasarán por un tren de columnas de destilación cuxo obxectivo principal é a separación e recuperación a un 99,7% de pureza do acrilonitrilo.
Dirección
SOTO CAMPOS, ANA MARIA (Tutoría)
SOTO CAMPOS, ANA MARIA (Tutoría)
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
MAURICIO IGLESIAS, MIGUEL (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Aplicación en Python en entorno productivo para migración y soporte entre bases de datos SQL y NoSQL.
Autoría
J.R.V.F.
Grado en Ingeniería Informática
J.R.V.F.
Grado en Ingeniería Informática
Fecha de la defensa
17.07.2025 11:30
17.07.2025 11:30
Resumen
Desarrollo de una aplicación en Python como herramienta de soporte y migración de datos entre un sistema Legacy de BBDD en SQL y un sistema nuevo en NoSQL en MongoDB. Esta herramienta permitirá la automatización de tareas repetitivas diarias sobre las bases de datos como consultas, copias de seguridad, obtención de datos de ambos sistemas sobre los mismos elementos y comparación de resultados para asegurar el correcto funcionamiento y migración de los mismos.
Desarrollo de una aplicación en Python como herramienta de soporte y migración de datos entre un sistema Legacy de BBDD en SQL y un sistema nuevo en NoSQL en MongoDB. Esta herramienta permitirá la automatización de tareas repetitivas diarias sobre las bases de datos como consultas, copias de seguridad, obtención de datos de ambos sistemas sobre los mismos elementos y comparación de resultados para asegurar el correcto funcionamiento y migración de los mismos.
Dirección
Argüello Pedreira, Francisco Santiago (Tutoría)
Argüello Pedreira, Francisco Santiago (Tutoría)
Tribunal
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
Planta de producción de cumeno a partir de benceno y propileno
Autoría
A.V.V.
Grado en Ingeniería Química
A.V.V.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 10:30
16.07.2025 10:30
Resumen
El cumeno, nombre común del isopropilbenceno, es un compuesto químico muy utilizado en la industria, ya que es un intermediario en la producción de productos de alto valor añadido, como el fenol y la acetona. También se emplea en la producción de óxido de propileno. Por estos motivos, se decidió llevar a cabo una planta industrial para la producción de cumeno a partir de la alquilación de benceno con la adición de propileno. El proceso consiste en una primera sección de acondicionamiento, donde entran el benceno y el propileno y se llevan a las condiciones adecuadas para llevar a cabo la reacción. La segunda sección es la del reactor, donde en un reactor catalítico ocurre la reacción de alquilación para obtener el producto deseado. A continuación, en la tercera sección, los productos obtenidos son separados y purificados mediante una serie de columnas de destilación. La última etapa es el almacenamiento de los productos separados. Alexandre Rey Baliña diseñará la columna de destilación Antón Varela Veiga diseñará el reactor
El cumeno, nombre común del isopropilbenceno, es un compuesto químico muy utilizado en la industria, ya que es un intermediario en la producción de productos de alto valor añadido, como el fenol y la acetona. También se emplea en la producción de óxido de propileno. Por estos motivos, se decidió llevar a cabo una planta industrial para la producción de cumeno a partir de la alquilación de benceno con la adición de propileno. El proceso consiste en una primera sección de acondicionamiento, donde entran el benceno y el propileno y se llevan a las condiciones adecuadas para llevar a cabo la reacción. La segunda sección es la del reactor, donde en un reactor catalítico ocurre la reacción de alquilación para obtener el producto deseado. A continuación, en la tercera sección, los productos obtenidos son separados y purificados mediante una serie de columnas de destilación. La última etapa es el almacenamiento de los productos separados. Alexandre Rey Baliña diseñará la columna de destilación Antón Varela Veiga diseñará el reactor
Dirección
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
FRANCO URIA, MARIA AMAYA (Tutoría)
SINEIRO TORRES, JORGE Cotutoría
Tribunal
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Omil Prieto, Francisco (Presidente/a)
Rodríguez Figueiras, Óscar (Secretario/a)
VAL DEL RIO, MARIA ANGELES (Vocal)
Planta de Producción de Hidrógeno Dorado a partir de lodos de depuradora.
Autoría
A.V.S.
Grado en Ingeniería Química
A.V.S.
Grado en Ingeniería Química
Fecha de la defensa
16.07.2025 12:45
16.07.2025 12:45
Resumen
El presente Trabajo Fin de Grado tiene como objetivo el diseño de una planta de producción de hidrógeno con captura de dióxido de carbono a partir de biometano, denominado hidrógeno dorado. El biometano se generará en la propia planta mediante la digestión anaerobia de lodos de estaciones depuradoras, EDAR, urbanas. La capacidad de producción de la planta es de 3.150 toneladas de H2, con un 99,99% de pureza, al año. De acuerdo con las normativas y manuales técnicos pertinentes, se realiza el diseño riguroso del digestor anaerobio, el reactor de reformado catalítico y la torre de absorción de dióxido de carbono. La propuesta de valor de este proyecto reside en proporcionar una alternativa para cerrar el ciclo del carbono y aprovechar residuos orgánicos como materia prima para el proceso de producción de un producto de interés, el hidrógeno en este caso.
El presente Trabajo Fin de Grado tiene como objetivo el diseño de una planta de producción de hidrógeno con captura de dióxido de carbono a partir de biometano, denominado hidrógeno dorado. El biometano se generará en la propia planta mediante la digestión anaerobia de lodos de estaciones depuradoras, EDAR, urbanas. La capacidad de producción de la planta es de 3.150 toneladas de H2, con un 99,99% de pureza, al año. De acuerdo con las normativas y manuales técnicos pertinentes, se realiza el diseño riguroso del digestor anaerobio, el reactor de reformado catalítico y la torre de absorción de dióxido de carbono. La propuesta de valor de este proyecto reside en proporcionar una alternativa para cerrar el ciclo del carbono y aprovechar residuos orgánicos como materia prima para el proceso de producción de un producto de interés, el hidrógeno en este caso.
Dirección
SANCHEZ FERNANDEZ, ADRIAN (Tutoría)
SANCHEZ FERNANDEZ, ADRIAN (Tutoría)
Tribunal
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
MOREIRA MARTINEZ, RAMON FELIPE (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
SINEIRO TORRES, JORGE (Vocal)
NIDO: Aprendizaje automático para identificación de neonatos pequeños
Autoría
P.V.T.
Grao en Ingeniería Informática (2ªed)
P.V.T.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 12:00
17.07.2025 12:00
Resumen
Este trabajo se enmarca en el proyecto de investigación COLLAGE, desarrollado en colaboración con la Universitat Pompeu Fabra y BCNatal (Barcelona), y se centra en la predicción de recién nacidos pequeños para la edad gestacional (SGA) a partir de datos clínicos, ecográficos y sociodemográficos del bebé y de la madre. El problema abordado es de alto interés en salud pública, dado que los fetos SGA presentan un mayor riesgo de complicaciones perinatales y enfermedades a largo plazo, y su detección temprana es clave para aplicar intervenciones que mejoren su salud y reduzcan desigualdades en la atención perinatal. Hemos desarrollado un flujo de preprocesado de datos, que incluyó la investigación detallada del significado y relevancia clínica de cada variable, la gestión de valores faltantes y la ingeniería de variables, obteniendo un conjunto de 791 casos y 28 variables que usamos como predictores, con validez clínica y sin valores nulos. Hemos construido y validado modelos predictivos de SGA utilizando XGBoost y Multiple Kernel Learning, optimizando sus parámetros mediante validación cruzada con k-fold y alcanzando un F1 score de 0,836 con XGBoost, demostrando su capacidad para identificar casos de SGA en un entorno clínico real. Además, con el objetivo de explorar la estructura interna del conjunto de datos e identificar posibles subgrupos, aplicamos técnicas de reducción de dimensionalidad mediante Análisis de Componentes Principales y clustering con modelos de mezcla gaussiana, identificando patrones de agrupamiento asociados al consumo de aceite durante el embarazo como factor diferenciador dentro de la cohorte. Por último, evaluamos la equidad del modelo en distintas subpoblaciones (etnia, índice de masa corporal (IMC), sexo del neonato) mediante la prueba de Mann Whitney U, identificando diferencias significativas de rendimiento según etnia e IMC y confirmando la importancia de analizar posibles sesgos poblacionales antes de aplicar el modelo en la práctica clínica. En resumen, esta memoria presenta una metodología detallada y replicable para la preparación de datos clínicos heterogéneos, la construcción de modelos de predicción de SGA y su evaluación en diferentes subgrupos poblacionales para garantizar su equidad.
Este trabajo se enmarca en el proyecto de investigación COLLAGE, desarrollado en colaboración con la Universitat Pompeu Fabra y BCNatal (Barcelona), y se centra en la predicción de recién nacidos pequeños para la edad gestacional (SGA) a partir de datos clínicos, ecográficos y sociodemográficos del bebé y de la madre. El problema abordado es de alto interés en salud pública, dado que los fetos SGA presentan un mayor riesgo de complicaciones perinatales y enfermedades a largo plazo, y su detección temprana es clave para aplicar intervenciones que mejoren su salud y reduzcan desigualdades en la atención perinatal. Hemos desarrollado un flujo de preprocesado de datos, que incluyó la investigación detallada del significado y relevancia clínica de cada variable, la gestión de valores faltantes y la ingeniería de variables, obteniendo un conjunto de 791 casos y 28 variables que usamos como predictores, con validez clínica y sin valores nulos. Hemos construido y validado modelos predictivos de SGA utilizando XGBoost y Multiple Kernel Learning, optimizando sus parámetros mediante validación cruzada con k-fold y alcanzando un F1 score de 0,836 con XGBoost, demostrando su capacidad para identificar casos de SGA en un entorno clínico real. Además, con el objetivo de explorar la estructura interna del conjunto de datos e identificar posibles subgrupos, aplicamos técnicas de reducción de dimensionalidad mediante Análisis de Componentes Principales y clustering con modelos de mezcla gaussiana, identificando patrones de agrupamiento asociados al consumo de aceite durante el embarazo como factor diferenciador dentro de la cohorte. Por último, evaluamos la equidad del modelo en distintas subpoblaciones (etnia, índice de masa corporal (IMC), sexo del neonato) mediante la prueba de Mann Whitney U, identificando diferencias significativas de rendimiento según etnia e IMC y confirmando la importancia de analizar posibles sesgos poblacionales antes de aplicar el modelo en la práctica clínica. En resumen, esta memoria presenta una metodología detallada y replicable para la preparación de datos clínicos heterogéneos, la construcción de modelos de predicción de SGA y su evaluación en diferentes subgrupos poblacionales para garantizar su equidad.
Dirección
Carreira Nouche, María José (Tutoría)
NUÑEZ GARCIA, MARTA Cotutoría
Carreira Nouche, María José (Tutoría)
NUÑEZ GARCIA, MARTA Cotutoría
Tribunal
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
Fernández Pena, Anselmo Tomás (Presidente/a)
Rodeiro Pazos, David (Secretario/a)
GARCIA TAHOCES, PABLO (Vocal)
FlashMaster: Plataforma colaborativa de estudio con IA
Autoría
A.V.G.
Grao en Ingeniería Informática (2ªed)
A.V.G.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
FlashMaster es una plataforma web de última generación que integra la repetición espaciada con la inteligencia artificial para ofrecer una experiencia de estudio colaborativo altamente eficaz. Apoyada en el algoritmo SM-2, gestiona intervalos de revisión personalizados que se adaptan al progreso de cada usuario, garantizando la retención a largo plazo de la información. Su asistente de IA genera automáticamente flashcards a partir de documentos PDF, crea resúmenes inteligentes y resuelve dudas en tiempo real mediante un sistema RAG con búsqueda semántica. Además, permite crear espacios de trabajo colaborativos con niveles de permisos configurables, compartir colecciones de estudio, chatear en directo y editar notas de forma simultánea.
FlashMaster es una plataforma web de última generación que integra la repetición espaciada con la inteligencia artificial para ofrecer una experiencia de estudio colaborativo altamente eficaz. Apoyada en el algoritmo SM-2, gestiona intervalos de revisión personalizados que se adaptan al progreso de cada usuario, garantizando la retención a largo plazo de la información. Su asistente de IA genera automáticamente flashcards a partir de documentos PDF, crea resúmenes inteligentes y resuelve dudas en tiempo real mediante un sistema RAG con búsqueda semántica. Además, permite crear espacios de trabajo colaborativos con niveles de permisos configurables, compartir colecciones de estudio, chatear en directo y editar notas de forma simultánea.
Dirección
Sánchez Vila, Eduardo Manuel (Tutoría)
Sánchez Vila, Eduardo Manuel (Tutoría)
Tribunal
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
Adaptación de una red full-resolution para la segmentación de vasos retinianos
Autoría
A.V.S.
Grao en Ingeniería Informática (2ªed)
A.V.S.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 12:00
18.07.2025 12:00
Resumen
Este trabajo aborda el desarrollo y optimización de arquitecturas de aprendizaje profundo para la segmentación automática de vasos sanguíneos en imágenes de fondo de ojo de alta resolución, con aplicación directa en el diagnóstico de patologías oculares como la retinopatía diabética, el glaucoma y la degeneración macular asociada a la edad. La investigación se estructura en tres fases principales. Primero, se evalúa la arquitectura FRNet (Full Resolution Network) como punto de partida, demostrando que, aunque el procesamiento a resolución completa mejora la segmentación de vasos finos, presenta limitaciones críticas de escalabilidad computacional que hacen inviable su uso con imágenes de 2048x2048 píxeles. Segundo, se presenta y valida VesselView, una nueva arquitectura de tipo U-Net que supera las limitaciones de FRNet mediante su adaptación a un paradigma encoder-decoder más eficiente. A través de estudios sistemáticos, se validan empíricamente sus componentes clave: la configuración óptima del bottleneck, la indispensabilidad de las skip connections y una evaluación del efecto de distintas funciones de pérdida sobre ella. Tercero, se propone SantosNet como evolución de VesselView, incorporando dos contribuciones originales: DirectionalSanLoss, una función de pérdida que optimiza la calidad topológica mediante información direccional de los vasos, y LearnableFusionBlock, un módulo de ponderación inteligente que mejora los resultados de segmentación vascular. Los experimentos, realizados sobre el dataset FIVES demuestran que SantosNet establece una mejora notable, superando significativamente tanto a FRNet como a VesselView en las métricas principales.
Este trabajo aborda el desarrollo y optimización de arquitecturas de aprendizaje profundo para la segmentación automática de vasos sanguíneos en imágenes de fondo de ojo de alta resolución, con aplicación directa en el diagnóstico de patologías oculares como la retinopatía diabética, el glaucoma y la degeneración macular asociada a la edad. La investigación se estructura en tres fases principales. Primero, se evalúa la arquitectura FRNet (Full Resolution Network) como punto de partida, demostrando que, aunque el procesamiento a resolución completa mejora la segmentación de vasos finos, presenta limitaciones críticas de escalabilidad computacional que hacen inviable su uso con imágenes de 2048x2048 píxeles. Segundo, se presenta y valida VesselView, una nueva arquitectura de tipo U-Net que supera las limitaciones de FRNet mediante su adaptación a un paradigma encoder-decoder más eficiente. A través de estudios sistemáticos, se validan empíricamente sus componentes clave: la configuración óptima del bottleneck, la indispensabilidad de las skip connections y una evaluación del efecto de distintas funciones de pérdida sobre ella. Tercero, se propone SantosNet como evolución de VesselView, incorporando dos contribuciones originales: DirectionalSanLoss, una función de pérdida que optimiza la calidad topológica mediante información direccional de los vasos, y LearnableFusionBlock, un módulo de ponderación inteligente que mejora los resultados de segmentación vascular. Los experimentos, realizados sobre el dataset FIVES demuestran que SantosNet establece una mejora notable, superando significativamente tanto a FRNet como a VesselView en las métricas principales.
Dirección
Pardo López, Xosé Manuel (Tutoría)
SANTOS MATEOS, ROI Cotutoría
Pardo López, Xosé Manuel (Tutoría)
SANTOS MATEOS, ROI Cotutoría
Tribunal
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Aplicación móvil inteligente para el monitoreo y análisis del sueño
Autoría
E.V.T.
Grao en Ingeniería Informática (2ªed)
E.V.T.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
Este Trabajo de Fin de Grado presenta una aplicación móvil que permite monitorizar el sueño, analizar su calidad y recibir recomendaciones personalizadas. Combina datos objetivos y subjetivos mediante cuestionarios y registros, integrando inteligencia artificial para generar informes, consejos y un diario conversacional. Ofrece herramientas visuales y recomendaciones orientadas a mejorar la calidad del descanso de forma individualizada.
Este Trabajo de Fin de Grado presenta una aplicación móvil que permite monitorizar el sueño, analizar su calidad y recibir recomendaciones personalizadas. Combina datos objetivos y subjetivos mediante cuestionarios y registros, integrando inteligencia artificial para generar informes, consejos y un diario conversacional. Ofrece herramientas visuales y recomendaciones orientadas a mejorar la calidad del descanso de forma individualizada.
Dirección
Sánchez Vila, Eduardo Manuel (Tutoría)
Sánchez Vila, Eduardo Manuel (Tutoría)
Tribunal
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
FLORES GONZALEZ, JULIAN CARLOS (Secretario/a)
Jeremías López, Ana (Vocal)
RetroRevive: Plataforma web para la restauración de imágenes antiguas
Autoría
T.W.R.
Grao en Ingeniería Informática (2ªed)
T.W.R.
Grao en Ingeniería Informática (2ªed)
Fecha de la defensa
18.07.2025 12:30
18.07.2025 12:30
Resumen
En el presente Trabajo de Fin de Grado se ha desarrollado una aplicación web que facilita el tratamiento de imágenes antiguas afectadas por el paso del tiempo y una mala conservación. Para reparar las zonas deterioradas de una imagen se ha implementado un método que permite detectarlas automáticamente, así como un lienzo donde se pueden definir manualmente las áreas dañadas. Se integraron técnicas de inteligencia artificial para la recuperación de color y aumento del tamaño y de la resolución, junto con filtros de reducción de ruido. Todas las operaciones se pueden aplicar de forma individual o combinadas. El sistema se ha diseñado para que los usuarios puedan visualizar en una galería los resultados de todas las restauraciones realizadas en la plataforma, incluyendo una comparativa con la imagen original, lo que exigió introducir una base de datos para el almacenamiento persistente de información. Además, se ha buscado que la interfaz sea lo más sencilla e intuitiva posible, de manera que se minimicen las operaciones y los clics necesarios tanto para obtener resultados como para navegar entre las distintas secciones de la aplicación.
En el presente Trabajo de Fin de Grado se ha desarrollado una aplicación web que facilita el tratamiento de imágenes antiguas afectadas por el paso del tiempo y una mala conservación. Para reparar las zonas deterioradas de una imagen se ha implementado un método que permite detectarlas automáticamente, así como un lienzo donde se pueden definir manualmente las áreas dañadas. Se integraron técnicas de inteligencia artificial para la recuperación de color y aumento del tamaño y de la resolución, junto con filtros de reducción de ruido. Todas las operaciones se pueden aplicar de forma individual o combinadas. El sistema se ha diseñado para que los usuarios puedan visualizar en una galería los resultados de todas las restauraciones realizadas en la plataforma, incluyendo una comparativa con la imagen original, lo que exigió introducir una base de datos para el almacenamiento persistente de información. Además, se ha buscado que la interfaz sea lo más sencilla e intuitiva posible, de manera que se minimicen las operaciones y los clics necesarios tanto para obtener resultados como para navegar entre las distintas secciones de la aplicación.
Dirección
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
Andrés Estrada, Sergio Cotutoría
García Ullán, Pablo Cotutoría
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
Andrés Estrada, Sergio Cotutoría
García Ullán, Pablo Cotutoría
Tribunal
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Blanco Heras, Dora (Presidente/a)
GAGO COUSO, FELIPE (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)