Aplicación de técnicas de minería de procesos para mellorar a predición do risco cardíaco.
Autoría
A.C.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
A.C.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 17:00
16.07.2025 17:00
Resumo
A rehabilitación cardíaca constitúe un proceso clínico estruturado que implica múltiples fases interdependentes, decisións médicas individualizadas e a participación de distintos profesionais da saúde. Esta natureza secuencial e adaptativa permite modelar o programa como un proceso de negocio, facilitando así a súa análise. Non obstante, os estudos neste contexto enfróntase a importantes limitacións inherentes ás bases de datos médicas reais: os datos adoitan ser escasos, tanto polo custo económico como polos requerimentos temporais para a súa recolección; moitos dos rexistros existentes non resultan útiles para análises específicas; e, finalmente, existe unha elevada presenza de valores ausentes, xa que non todos os pacientes son sometidos ás mesmas probas. Para abordar estas limitacións, neste traballo proponse unha arquitectura baseada nun conditional variational autoencoder (CVAE) para a síntese de rexistros clínicos realistas e coherentes coa realidade. O obxectivo principal é aumentar o tamaño e diversidade do conxunto de datos dispoñible, co fin de mellorar a capacidade dos modelos predictivos do risco cardíaco e non ter que recorrer a probas de certo perigo, como a ergometría. Os resultados amosan que a arquitectura proposta permite xerar datos sintéticos coherentes e realistas, cuxo uso incrementa a precisión dos distintos clasificadores empregados para detectar o risco, superando ao estado da arte en aproximacións de aprendizaxe profunda.
A rehabilitación cardíaca constitúe un proceso clínico estruturado que implica múltiples fases interdependentes, decisións médicas individualizadas e a participación de distintos profesionais da saúde. Esta natureza secuencial e adaptativa permite modelar o programa como un proceso de negocio, facilitando así a súa análise. Non obstante, os estudos neste contexto enfróntase a importantes limitacións inherentes ás bases de datos médicas reais: os datos adoitan ser escasos, tanto polo custo económico como polos requerimentos temporais para a súa recolección; moitos dos rexistros existentes non resultan útiles para análises específicas; e, finalmente, existe unha elevada presenza de valores ausentes, xa que non todos os pacientes son sometidos ás mesmas probas. Para abordar estas limitacións, neste traballo proponse unha arquitectura baseada nun conditional variational autoencoder (CVAE) para a síntese de rexistros clínicos realistas e coherentes coa realidade. O obxectivo principal é aumentar o tamaño e diversidade do conxunto de datos dispoñible, co fin de mellorar a capacidade dos modelos predictivos do risco cardíaco e non ter que recorrer a probas de certo perigo, como a ergometría. Os resultados amosan que a arquitectura proposta permite xerar datos sintéticos coherentes e realistas, cuxo uso incrementa a precisión dos distintos clasificadores empregados para detectar o risco, superando ao estado da arte en aproximacións de aprendizaxe profunda.
Dirección
LAMA PENIN, MANUEL (Titoría)
VIDAL AGUIAR, JUAN CARLOS Cotitoría
LAMA PENIN, MANUEL (Titoría)
VIDAL AGUIAR, JUAN CARLOS Cotitoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
Deseño e implementación dun acelerador para controis de calidade en procesos de inxesta e transformación do dato
Autoría
J.C.M.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
J.C.M.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 16:00
16.07.2025 16:00
Resumo
Este Traballo de Fin de Máster presenta o deseño e a implementación dun acelerador para a configuración automatizada de controis de calidade en procesos de inxesta e transformación de datos, dentro de arquitecturas analíticas modernas baseadas en Snowflake. A solución busca simplificar tarefas habitualmente manuais como a validación de datos en táboas intermedias ou finais, propoñendo un enfoque declarativo, no que o usuario define que controis desexa aplicar sen preocuparse pola súa implementación técnica, o que favorece a reutilización, a trazabilidade e a escalabilidade. A arquitectura baséase en compoñentes nativos de Snowflake, como streams, tasks e procedementos almacenados, para construír un sistema reactivo capaz de executar controis de forma autónoma ante calquera cambio na súa configuración. Entre os tipos de validacións soportadas atópanse controis de frescura, unicidade, nulos e consistencia. O sistema complétase cunha interface web para a definición visual de controis sen necesidade de escribir SQL, e cun panel de Power BI que facilita a súa monitorización por parte de perfís tanto técnicos como de negocio. Ambos compoñentes reforzan a súa aplicabilidade práctica e permiten a súa adopción en contextos reais sen requirir coñecementos avanzados. Como proba de concepto, simulouse un caso de uso con datos do campionato de Fórmula 1, demostrando a eficacia do sistema na detección de erros, na estruturación de resultados e na automatización de tarefas repetitivas. Aínda que o sistema está actualmente limitado a Snowflake e non foi validado en escenarios de alta concorrencia, o seu deseño modular e xeneralizable permite a súa extensión a novos tipos de control e a outros contornos organizativos.
Este Traballo de Fin de Máster presenta o deseño e a implementación dun acelerador para a configuración automatizada de controis de calidade en procesos de inxesta e transformación de datos, dentro de arquitecturas analíticas modernas baseadas en Snowflake. A solución busca simplificar tarefas habitualmente manuais como a validación de datos en táboas intermedias ou finais, propoñendo un enfoque declarativo, no que o usuario define que controis desexa aplicar sen preocuparse pola súa implementación técnica, o que favorece a reutilización, a trazabilidade e a escalabilidade. A arquitectura baséase en compoñentes nativos de Snowflake, como streams, tasks e procedementos almacenados, para construír un sistema reactivo capaz de executar controis de forma autónoma ante calquera cambio na súa configuración. Entre os tipos de validacións soportadas atópanse controis de frescura, unicidade, nulos e consistencia. O sistema complétase cunha interface web para a definición visual de controis sen necesidade de escribir SQL, e cun panel de Power BI que facilita a súa monitorización por parte de perfís tanto técnicos como de negocio. Ambos compoñentes reforzan a súa aplicabilidade práctica e permiten a súa adopción en contextos reais sen requirir coñecementos avanzados. Como proba de concepto, simulouse un caso de uso con datos do campionato de Fórmula 1, demostrando a eficacia do sistema na detección de erros, na estruturación de resultados e na automatización de tarefas repetitivas. Aínda que o sistema está actualmente limitado a Snowflake e non foi validado en escenarios de alta concorrencia, o seu deseño modular e xeneralizable permite a súa extensión a novos tipos de control e a outros contornos organizativos.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Titoría)
Graña Omil, Ángel Cotitoría
RIOS VIQUEIRA, JOSE RAMON (Titoría)
Graña Omil, Ángel Cotitoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
Sánchez Vila, Eduardo Manuel (Secretario/a)
MERA PEREZ, DAVID (Vogal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
Sánchez Vila, Eduardo Manuel (Secretario/a)
MERA PEREZ, DAVID (Vogal)
Aplicación de novos modelos de detección de anomalías en contextos Big Data
Autoría
M.F.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
M.F.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 16:30
16.07.2025 16:30
Resumo
Nesta memoria abórdase o problema da detección temperá de anomalías en contornos de ciberseguridade corporativa, onde o volume e a velocidade dos datos dificultan a aplicación de solucións tradicionais. O traballo enmárcase nun contexto realista de análise de tráfico de rede e rexistros (logs) que monitorizan o comportamento dos usuarios fronte ás aplicacións, o que permite identificar patróns sospeitosos en escenarios UEBA (User and Entity Behavior Analytics). Neste contexto, propónse e desenvólvese un modelo de Autoencoder Variacional beta (beta-VAE) cunha aproximación de inferencia tipo mean-field, orientado á detección de anomalías e capaz de modelar comportamentos complexos mediante un espazo latente probabilístico. A solución implementouse sobre unha arquitectura escalable baseada en tecnoloxías do ecosistema Big Data como Kafka, Spark e Airflow. A diferenza dos autoencoders clásicos, o VAE ofrece vantaxes na regularización do espazo latente e na cuantificación da incerteza asociada a cada reconstrución, o que mellora a interpretabilidade e explicación das anomalías detectadas. O modelo foi implementado de forma modular e flexible, facilitando o seu axuste e escalabilidade, e avaliouse usando conxuntos de datos públicos representativos do ámbito da ciberseguridade. Os resultados demostran un rendemento competitivo na detección de anomalías, superando nalgúns aspectos os enfoques clásicos e amosando un potencial claro para a súa aplicación en pipelines de procesamento streaming. Ademais, o modelo integrouse nunha infraestrutura profesional e reproducible, capaz de operar en tempo real sobre fluxos masivos de datos, o que representa unha achega significativa para a detección automática de ameazas en contornos Big Data. Finalmente, propoñense liñas de traballo futuras orientadas á aplicación en datos reais, optimización do rendemento e mellora da precisión mediante técnicas avanzadas de interpretación probabilística.
Nesta memoria abórdase o problema da detección temperá de anomalías en contornos de ciberseguridade corporativa, onde o volume e a velocidade dos datos dificultan a aplicación de solucións tradicionais. O traballo enmárcase nun contexto realista de análise de tráfico de rede e rexistros (logs) que monitorizan o comportamento dos usuarios fronte ás aplicacións, o que permite identificar patróns sospeitosos en escenarios UEBA (User and Entity Behavior Analytics). Neste contexto, propónse e desenvólvese un modelo de Autoencoder Variacional beta (beta-VAE) cunha aproximación de inferencia tipo mean-field, orientado á detección de anomalías e capaz de modelar comportamentos complexos mediante un espazo latente probabilístico. A solución implementouse sobre unha arquitectura escalable baseada en tecnoloxías do ecosistema Big Data como Kafka, Spark e Airflow. A diferenza dos autoencoders clásicos, o VAE ofrece vantaxes na regularización do espazo latente e na cuantificación da incerteza asociada a cada reconstrución, o que mellora a interpretabilidade e explicación das anomalías detectadas. O modelo foi implementado de forma modular e flexible, facilitando o seu axuste e escalabilidade, e avaliouse usando conxuntos de datos públicos representativos do ámbito da ciberseguridade. Os resultados demostran un rendemento competitivo na detección de anomalías, superando nalgúns aspectos os enfoques clásicos e amosando un potencial claro para a súa aplicación en pipelines de procesamento streaming. Ademais, o modelo integrouse nunha infraestrutura profesional e reproducible, capaz de operar en tempo real sobre fluxos masivos de datos, o que representa unha achega significativa para a detección automática de ameazas en contornos Big Data. Finalmente, propoñense liñas de traballo futuras orientadas á aplicación en datos reais, optimización do rendemento e mellora da precisión mediante técnicas avanzadas de interpretación probabilística.
Dirección
GALLEGO FONTENLA, VICTOR JOSE (Titoría)
Cereijo García, Pablo Cotitoría
GALLEGO FONTENLA, VICTOR JOSE (Titoría)
Cereijo García, Pablo Cotitoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
Caracterización das condicións oceanográficas mediante agrupamento dinámico do espectro de olas mariñas
Autoría
M.G.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
M.G.L.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 16:30
16.07.2025 16:30
Resumo
Este traballo presenta unha metodoloxía para a caracterización das condicións oceanográficas a través do agrupamento de espectros bidimensionais de oleaxe. Para iso, empregouse un modelo bayesiano non paramétrico baseado en Sistemas Lineais Dinámicos sobre procesos Gaussianos Conmutados (SLDS-GP), combinado cun Proceso de Dirichlet Xerárquico (HDP), que permite identificar automaticamente patróns na oleaxe mariña sen fixar previamente o número de grupos, adaptándose á complexidade dos datos observados. A metodoloxía foi aplicada a datos espectrais dunha boia do National Data Buoy Center (NDBC) situada na costa de Carolina do Norte (EE.UU.), correspondentes aos anos 2017 e 2018. A análise permitiu identificar doce clústeres representativos da dinámica mariña na zona, aos que se lles aplicou un procedemento de partición espectral para recoñecer os sistemas de mar presentes e clasificalos segundo o seu significado físico (mar de vento, mar de fondo ou mar de transición). Os resultados amosan que o modelo é capaz de detectar estruturas coherentes nun espazo bidimensional de frecuencia e dirección, así como captar certa dinámica de transicións entre estados, ofrecendo unha representación interpretable das condicións de oleaxe.
Este traballo presenta unha metodoloxía para a caracterización das condicións oceanográficas a través do agrupamento de espectros bidimensionais de oleaxe. Para iso, empregouse un modelo bayesiano non paramétrico baseado en Sistemas Lineais Dinámicos sobre procesos Gaussianos Conmutados (SLDS-GP), combinado cun Proceso de Dirichlet Xerárquico (HDP), que permite identificar automaticamente patróns na oleaxe mariña sen fixar previamente o número de grupos, adaptándose á complexidade dos datos observados. A metodoloxía foi aplicada a datos espectrais dunha boia do National Data Buoy Center (NDBC) situada na costa de Carolina do Norte (EE.UU.), correspondentes aos anos 2017 e 2018. A análise permitiu identificar doce clústeres representativos da dinámica mariña na zona, aos que se lles aplicou un procedemento de partición espectral para recoñecer os sistemas de mar presentes e clasificalos segundo o seu significado físico (mar de vento, mar de fondo ou mar de transición). Os resultados amosan que o modelo é capaz de detectar estruturas coherentes nun espazo bidimensional de frecuencia e dirección, así como captar certa dinámica de transicións entre estados, ofrecendo unha representación interpretable das condicións de oleaxe.
Dirección
FELIX LAMAS, PAULO MANUEL (Titoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotitoría
FELIX LAMAS, PAULO MANUEL (Titoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotitoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
Sánchez Vila, Eduardo Manuel (Secretario/a)
MERA PEREZ, DAVID (Vogal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
Sánchez Vila, Eduardo Manuel (Secretario/a)
MERA PEREZ, DAVID (Vogal)
Segmentación de Imaxes Biomédicas Baseada en Modelos Fundacionais Adaptados Sen Reentrenamento e con Estimación da Incerteza
Autoría
F.G.S.
Máster Universitario en Intelixencia Artificial
F.G.S.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.07.2025 09:30
18.07.2025 09:30
Resumo
Dúas limitacións importantes reducen a efectividade das solucións actuais baseadas en aprendizaxe para a segmentación de imaxes biomédicas. Unha delas é que as novas tarefas de segmentación adoitan requirir o adestramento ou axuste fino de novos modelos, un proceso intensivo en recursos que require coñecementos especializados en aprendizaxe automática, frecuentemente fóra do alcance de investigadores e profesionais médicos. A segunda limitación crítica é que a maioría dos métodos existentes só xeran unha única máscara de segmentación determinista, malia a considerable incerteza que adoita existir sobre que é unha segmentación correcta. Esta incerteza xorde tanto da variabilidade inherente dos datos (incerteza aleatoria) como das lagoas no coñecemento do propio modelo (incerteza epistémica). Este traballo aborda especificamente a estimación destas incertezas no proceso de segmentación. Comprendendo e cuantificando estas incertezas, podemos aumentar significativamente a explicabilidade e interpretabilidade dos modelos de segmentación, facilitando unha toma de decisións máis segura e informada en aplicacións médicas críticas. Propoñemos desenvolver un método xeralizado para analizar estes diferentes tipos de incerteza sen necesidade de reentrenar os modelos.
Dúas limitacións importantes reducen a efectividade das solucións actuais baseadas en aprendizaxe para a segmentación de imaxes biomédicas. Unha delas é que as novas tarefas de segmentación adoitan requirir o adestramento ou axuste fino de novos modelos, un proceso intensivo en recursos que require coñecementos especializados en aprendizaxe automática, frecuentemente fóra do alcance de investigadores e profesionais médicos. A segunda limitación crítica é que a maioría dos métodos existentes só xeran unha única máscara de segmentación determinista, malia a considerable incerteza que adoita existir sobre que é unha segmentación correcta. Esta incerteza xorde tanto da variabilidade inherente dos datos (incerteza aleatoria) como das lagoas no coñecemento do propio modelo (incerteza epistémica). Este traballo aborda especificamente a estimación destas incertezas no proceso de segmentación. Comprendendo e cuantificando estas incertezas, podemos aumentar significativamente a explicabilidade e interpretabilidade dos modelos de segmentación, facilitando unha toma de decisións máis segura e informada en aplicacións médicas críticas. Propoñemos desenvolver un método xeralizado para analizar estes diferentes tipos de incerteza sen necesidade de reentrenar os modelos.
Dirección
Pardo López, Xosé Manuel (Titoría)
Pardo López, Xosé Manuel (Titoría)
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vogal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vogal)
Análise preditiva sobre series temporais para a diminución de custos no aprovisionamento de materias primas na industria alimentaria
Autoría
X.I.M.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
X.I.M.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 17:00
16.07.2025 17:00
Resumo
SOSFood é unha iniciativa europea que propón utilizar a explotación masiva de datos e as tecnoloxías de Machine Learning para proporcionar unha visión global do sistema alimentario europeo, construíndo ferramentas preditivas personalizadas que apoien aos actores da cadea alimentaria na toma de decisións ben informadas. Neste traballo desenvólvese un marco de análise preditiva baseado na proposta e aplicación de modelado de series temporais para a diminución de custos no aprovisionamento de materias primas, concretamente para unha empresa grega que participa no proxecto. Úsanse modelos de predicción baseados en métodos estadísticos da familia ARIMA, e métodos baseados en deep learning da arquitecura N-BEATS, que se implementan sobre o caso de uso e realízase unha análise e comparación de resultados valorando a súa fiabilidade de predición e a posterior incorporación no sistema de apoio á decisión.
SOSFood é unha iniciativa europea que propón utilizar a explotación masiva de datos e as tecnoloxías de Machine Learning para proporcionar unha visión global do sistema alimentario europeo, construíndo ferramentas preditivas personalizadas que apoien aos actores da cadea alimentaria na toma de decisións ben informadas. Neste traballo desenvólvese un marco de análise preditiva baseado na proposta e aplicación de modelado de series temporais para a diminución de custos no aprovisionamento de materias primas, concretamente para unha empresa grega que participa no proxecto. Úsanse modelos de predicción baseados en métodos estadísticos da familia ARIMA, e métodos baseados en deep learning da arquitecura N-BEATS, que se implementan sobre o caso de uso e realízase unha análise e comparación de resultados valorando a súa fiabilidade de predición e a posterior incorporación no sistema de apoio á decisión.
Dirección
FELIX LAMAS, PAULO MANUEL (Titoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotitoría
FELIX LAMAS, PAULO MANUEL (Titoría)
RODRIGUEZ PRESEDO, JESUS MARIA Cotitoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
Sánchez Vila, Eduardo Manuel (Secretario/a)
MERA PEREZ, DAVID (Vogal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
Sánchez Vila, Eduardo Manuel (Secretario/a)
MERA PEREZ, DAVID (Vogal)
Módulo de seguimento automático para obxectos aéreos de longa distancia
Autoría
I.A.M.S.
Máster Universitario en Intelixencia Artificial
I.A.M.S.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.07.2025 10:00
18.07.2025 10:00
Resumo
Esta TFM céntrase na avaliación de diferentes métodos de seguimento integrados en MMTracking, unha biblioteca de código aberto que proporciona implementacións para rastreadores de obxectos individuais e múltiples, explorando as capacidades de cada rastreador en detalle, para identificar o mellor método para maximizar a captura de información relevante sobre o obxecto en movemento. A avaliación realizouse utilizando puntos de referencia coñecidos como MOTChallenge e OTB2015 que proporcionan diversas condicións e escenarios. Os resultados levaron a unha análise exhaustiva de cada método, mostrando cal é o método de seguimento que manexa mellor cada escenario. Ademais, este estudo contribúe á busca continua de algoritmos de seguimento ao proporcionar información e identificar áreas de mellora.
Esta TFM céntrase na avaliación de diferentes métodos de seguimento integrados en MMTracking, unha biblioteca de código aberto que proporciona implementacións para rastreadores de obxectos individuais e múltiples, explorando as capacidades de cada rastreador en detalle, para identificar o mellor método para maximizar a captura de información relevante sobre o obxecto en movemento. A avaliación realizouse utilizando puntos de referencia coñecidos como MOTChallenge e OTB2015 que proporcionan diversas condicións e escenarios. Os resultados levaron a unha análise exhaustiva de cada método, mostrando cal é o método de seguimento que manexa mellor cada escenario. Ademais, este estudo contribúe á busca continua de algoritmos de seguimento ao proporcionar información e identificar áreas de mellora.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
Blanco Freire, Lara Cotitoría
Dago Casas, Pablo Cotitoría
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
Blanco Freire, Lara Cotitoría
Dago Casas, Pablo Cotitoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vogal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vogal)
KIME: Kumite Intelligent Movement Evaluation
Autoría
H.M.C.
Máster Universitario en Intelixencia Artificial
H.M.C.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.07.2025 10:30
18.07.2025 10:30
Resumo
Este traballo aborda o reto de analizar obxectivamente combates de kárate (kumite), nos que se deben xulgar técnicas rápidas e precisas en tempo real, mediante o uso da visión por computadora e a aprendizaxe profunda, todo elo unicamente a partir de gravacións de vídeo. A arbitraxe tradicional baséase en xuíces humanos, o que introduce subxectividade, posibles nesgos e unha capacidade limitada para procesar grandes volumes de imaxes para a valoración de atletas e do seu rendemento. Para superar estas limitacións, desenvolvéronse tres compoñentes interrelacionados: En primeiro lugar, deseñouse un proceso de extracción de datos para localizar e segmentar momentos de interese en vídeos de partidos completos. Combinando a detección de cambios no marcador mediante unha CNN lixeira e a validación manual, xerouse un conxunto de datos de accións puntuables e non puntuables. En segundo lugar, creouse un fluxo de traballo para distinguir aos dous loitadores, Aka e Ao, mediante a detección dos límites do tatami, a detección de persoas, a segmentación de instancias e o filtrado baseado na cor. A continuación, aplicouse o seguimento de obxectos para reducir a carga computacional e manter a coherencia da identidade entre os fotogramas, o que deu como resultado un conxunto de datos validado para clasificación. Por último, exploráronse estratexias de aprendizaxe por transferencia para clasificar fotogramas individuais como accións puntuables ou non puntuables e determinar o karateka que obtén unha cantidade concreta de puntos. Comparáronse dous enfoques: conxelar o extractor de características dun modelo preadestrado e axustar só a súa cabeceira de clasificación, fronte realizar axuste fino das capas superiores do extractor de características e da cabeceira do modelo. A estratexia que mantén intacto o extractor de características demostrou unha maior xeneralización e un baixo índice de falsos positivos, un atributo esencial para a integración no mundo real de sistemas semiautomatizados de avaliación ou análise. En conxunto, este traballo demostra a viabilidade dunha solución non intrusiva, baseada unicamente en vídeo, para a análise de Kumite e senta as bases para un desenvolvemento máis profundo con vistas ao seu despregamento en tempo real, unha mellor capacidade de explicación e unha maior comprensión táctica.
Este traballo aborda o reto de analizar obxectivamente combates de kárate (kumite), nos que se deben xulgar técnicas rápidas e precisas en tempo real, mediante o uso da visión por computadora e a aprendizaxe profunda, todo elo unicamente a partir de gravacións de vídeo. A arbitraxe tradicional baséase en xuíces humanos, o que introduce subxectividade, posibles nesgos e unha capacidade limitada para procesar grandes volumes de imaxes para a valoración de atletas e do seu rendemento. Para superar estas limitacións, desenvolvéronse tres compoñentes interrelacionados: En primeiro lugar, deseñouse un proceso de extracción de datos para localizar e segmentar momentos de interese en vídeos de partidos completos. Combinando a detección de cambios no marcador mediante unha CNN lixeira e a validación manual, xerouse un conxunto de datos de accións puntuables e non puntuables. En segundo lugar, creouse un fluxo de traballo para distinguir aos dous loitadores, Aka e Ao, mediante a detección dos límites do tatami, a detección de persoas, a segmentación de instancias e o filtrado baseado na cor. A continuación, aplicouse o seguimento de obxectos para reducir a carga computacional e manter a coherencia da identidade entre os fotogramas, o que deu como resultado un conxunto de datos validado para clasificación. Por último, exploráronse estratexias de aprendizaxe por transferencia para clasificar fotogramas individuais como accións puntuables ou non puntuables e determinar o karateka que obtén unha cantidade concreta de puntos. Comparáronse dous enfoques: conxelar o extractor de características dun modelo preadestrado e axustar só a súa cabeceira de clasificación, fronte realizar axuste fino das capas superiores do extractor de características e da cabeceira do modelo. A estratexia que mantén intacto o extractor de características demostrou unha maior xeneralización e un baixo índice de falsos positivos, un atributo esencial para a integración no mundo real de sistemas semiautomatizados de avaliación ou análise. En conxunto, este traballo demostra a viabilidade dunha solución non intrusiva, baseada unicamente en vídeo, para a análise de Kumite e senta as bases para un desenvolvemento máis profundo con vistas ao seu despregamento en tempo real, unha mellor capacidade de explicación e unha maior comprensión táctica.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
RODRIGUEZ FERNANDEZ, ISMAEL Cotitoría
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
RODRIGUEZ FERNANDEZ, ISMAEL Cotitoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vogal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
CORRALES RAMON, JUAN ANTONIO (Secretario/a)
ALONSO MORAL, JOSE MARIA (Vogal)
Comprensión da progresión do alzhéimer mediante autoencoders variacionais
Autoría
C.M.G.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
C.M.G.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 18:00
16.07.2025 18:00
Resumo
Comprender a progresión da enfermidade de Alzheimer mediante imaxes rsfMRI continúa a ser un reto aberto na comunidade investigadora. Os Autoencoders Variacionais (VAEs) son ferramentas potentes para aprender representacións compactas de datos de neuroimaxen de alta dimensión. Neste estudo, adéstranse múltiples VAEs con imaxes de fMRI en estado de repouso procedentes de suxeitos sans e pacientes con Alzheimer, variando a dimensión do espazo latente para identificar a configuración máis eficaz. O modelo seleccionado é logo avaliado mediante clasificadores posteriores para comprobar o poder discriminativo das súas representacións latentes. A partir deste modelo, aplícase a proba de Kolmogorov Smirnov para identificar variables latentes estatisticamente significativas que diferencien os dous grupos. Modificando estas variables, xéranse mostras sintéticas que simulan transicións entre condicións clínicas, mantendo ao mesmo tempo a plausibilidade anatómica. Este método permite tanto unha análise interpretábel das características latentes relevantes como a xeración controlada de datos de neuroimaxen sintéticos, con posibles aplicacións máis aló do ámbito médico.
Comprender a progresión da enfermidade de Alzheimer mediante imaxes rsfMRI continúa a ser un reto aberto na comunidade investigadora. Os Autoencoders Variacionais (VAEs) son ferramentas potentes para aprender representacións compactas de datos de neuroimaxen de alta dimensión. Neste estudo, adéstranse múltiples VAEs con imaxes de fMRI en estado de repouso procedentes de suxeitos sans e pacientes con Alzheimer, variando a dimensión do espazo latente para identificar a configuración máis eficaz. O modelo seleccionado é logo avaliado mediante clasificadores posteriores para comprobar o poder discriminativo das súas representacións latentes. A partir deste modelo, aplícase a proba de Kolmogorov Smirnov para identificar variables latentes estatisticamente significativas que diferencien os dous grupos. Modificando estas variables, xéranse mostras sintéticas que simulan transicións entre condicións clínicas, mantendo ao mesmo tempo a plausibilidade anatómica. Este método permite tanto unha análise interpretábel das características latentes relevantes como a xeración controlada de datos de neuroimaxen sintéticos, con posibles aplicacións máis aló do ámbito médico.
Dirección
Triñanes Fernández, Joaquín Ángel (Titoría)
Veiga García, César Gabriel Cotitoría
Triñanes Fernández, Joaquín Ángel (Titoría)
Veiga García, César Gabriel Cotitoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
Optimización da Xestión de Recursos Humanos: Asignación, Viabilidade e Análise de Rendemento en Proxecto
Autoría
B.M.V.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
B.M.V.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 17:30
16.07.2025 17:30
Resumo
Este Traballo de Fin de Máster ten como obxectivo principal deseñar e implementar un sistema para a asignación eficiente de recursos humanos a proxectos empresariais, baseándose en técnicas avanzadas de análise de datos e aprendizaxe automático. O sistema aborda un problema real de planificación en entornos dinámicos, integrando múltiples variables como habilidades do persoal, carga de traballo, tempos de ejecución, e experiencia previa, para realizar recomendacións personalizadas de asignación de tarefas. Pártese de datos extraídos desde Jira, plataforma de xestión de proxectos, aplicando técnicas de limpeza, anonimización e enriquecemento semántico. O modelo de predición estructúrase en varios módulos funcionais: estimación de tempos, clasificación de habilidades, xeración de perfís técnicos de empregados e predición de candidatos óptimos. A arquitectura do sistema apoiase nunha base de datos relacional PostgreSQL e orquéstase mediante scripts automatizados despregados con Docker, con posibilidade de execución manual ou periódica. Os resultados xerados preséntanse nun ficheiro Excel con follas estructuradas para facilitar o análise por parte de xestores, incluindo filtros por tarefas, empregados e proxectos. A avaliación do sistema realizouse en colaboración cun xestor de proxectos, validando a utilidade das recomendacións nun entorno real. Nas conclusións recoñécense as limitacións do sistema, como a ausencia de variables subxectivas (motivacións, preferencias) e a necesidade de mellorar a granularidade na asignación da experiencia por habilidade. Finalmente, propoñense liñas de mellora futura, como a integración dun calendario laboral, o uso de dashboards interactivos (Power BI), a expansión do conxunto de datos pre-etiquetados, e a adopción de ferramentas avanzadas de orquestación como Apache Airflow. Este proxecto representa unha solución modular, escalable e baseada en datos para optimizar a xestión do talento humano en organizacións, cun enfoque práctico e orientado a toma de decisións estratéxicas.
Este Traballo de Fin de Máster ten como obxectivo principal deseñar e implementar un sistema para a asignación eficiente de recursos humanos a proxectos empresariais, baseándose en técnicas avanzadas de análise de datos e aprendizaxe automático. O sistema aborda un problema real de planificación en entornos dinámicos, integrando múltiples variables como habilidades do persoal, carga de traballo, tempos de ejecución, e experiencia previa, para realizar recomendacións personalizadas de asignación de tarefas. Pártese de datos extraídos desde Jira, plataforma de xestión de proxectos, aplicando técnicas de limpeza, anonimización e enriquecemento semántico. O modelo de predición estructúrase en varios módulos funcionais: estimación de tempos, clasificación de habilidades, xeración de perfís técnicos de empregados e predición de candidatos óptimos. A arquitectura do sistema apoiase nunha base de datos relacional PostgreSQL e orquéstase mediante scripts automatizados despregados con Docker, con posibilidade de execución manual ou periódica. Os resultados xerados preséntanse nun ficheiro Excel con follas estructuradas para facilitar o análise por parte de xestores, incluindo filtros por tarefas, empregados e proxectos. A avaliación do sistema realizouse en colaboración cun xestor de proxectos, validando a utilidade das recomendacións nun entorno real. Nas conclusións recoñécense as limitacións do sistema, como a ausencia de variables subxectivas (motivacións, preferencias) e a necesidade de mellorar a granularidade na asignación da experiencia por habilidade. Finalmente, propoñense liñas de mellora futura, como a integración dun calendario laboral, o uso de dashboards interactivos (Power BI), a expansión do conxunto de datos pre-etiquetados, e a adopción de ferramentas avanzadas de orquestación como Apache Airflow. Este proxecto representa unha solución modular, escalable e baseada en datos para optimizar a xestión do talento humano en organizacións, cun enfoque práctico e orientado a toma de decisións estratéxicas.
Dirección
Sánchez Vila, Eduardo Manuel (Titoría)
Ramos Macías, Óscar Cotitoría
Sánchez Vila, Eduardo Manuel (Titoría)
Ramos Macías, Óscar Cotitoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
Desenvolvemento dunha ferramenta baseada en visión por computador para a detección automática de tiros en baloncesto e a análise da posición na pista.
Autoría
A.M.R.
Máster Universitario en Intelixencia Artificial
A.M.R.
Máster Universitario en Intelixencia Artificial
Data da defensa
17.07.2025 09:30
17.07.2025 09:30
Resumo
Este traballo presenta un sistema modular de visión por computador para a detección automática de tiros en baloncesto e a análise da posición en pista a partir de gravacións cunha soa cámara. Co obxectivo de democratizar o acceso á analítica deportiva e reducir a dependencia da anotación manual, a ferramenta integra técnicas de vangarda en detección de obxectos (YOLO e RT-DETR), seguimento (ByteTrack) e mapeo de pista baseado en homografía para posicionar aos xogadores. Detecta intentos de tiro, clasifica os resultados (encestado/fallado), asigna a posesión e xera tanto vídeos anotados como conxuntos de datos estruturados. Avaliado con vídeos reais de partidos amateurs, o sistema demostra un rendemento robusto en métricas espaciais, temporais e de clasificación. Estes resultados subliñan o seu potencial como unha solución práctica e accesible para a análise automatizada de partidos de baloncesto.
Este traballo presenta un sistema modular de visión por computador para a detección automática de tiros en baloncesto e a análise da posición en pista a partir de gravacións cunha soa cámara. Co obxectivo de democratizar o acceso á analítica deportiva e reducir a dependencia da anotación manual, a ferramenta integra técnicas de vangarda en detección de obxectos (YOLO e RT-DETR), seguimento (ByteTrack) e mapeo de pista baseado en homografía para posicionar aos xogadores. Detecta intentos de tiro, clasifica os resultados (encestado/fallado), asigna a posesión e xera tanto vídeos anotados como conxuntos de datos estruturados. Avaliado con vídeos reais de partidos amateurs, o sistema demostra un rendemento robusto en métricas espaciais, temporais e de clasificación. Estes resultados subliñan o seu potencial como unha solución práctica e accesible para a análise automatizada de partidos de baloncesto.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
MALLO ANTELO, JAIME Cotitoría
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
MALLO ANTELO, JAIME Cotitoría
Tribunal
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Modelos de voz do estado da arte para o galego empregando un corpus TTS de tamaño medio
Autoría
A.M.S.
Máster Universitario en Intelixencia Artificial
A.M.S.
Máster Universitario en Intelixencia Artificial
Data da defensa
17.07.2025 10:00
17.07.2025 10:00
Resumo
A síntese de texto a voz (TTS) desempeña un papel crucial na interacción persoa-ordenador e segue sendo un tema de investigación candente nas comunidades de tecnoloxía da fala e aprendizaxe automática. Cos avances nas técnicas de aprendizaxe profunda e o aumento da potencia informática, os sistemas TTS baseados en redes neuronais profundas xurdiron como unha potente alternativa aos métodos tradicionais. Recentemente, os modelos TTS de aprendizaxe profunda de extremo a extremo produciron impresionantes resultados de son natural e alta calidade. Con todo, estender estes modelos a múltiples idiomas e falantes é un reto, especialmente para idiomas de recursos baixos a medios como o galego. No noso estudo, utilizamos un conxunto de datos aberto de TTS galego de pequeno a mediano tamaño para adestrar diferentes modelos de voz en galego. Tamén aplicamos a xeración de datos sintéticos para abordar as deficiencias identificadas no conxunto de datos orixinal. Exploramos arquitecturas de última xeración, incluíndo o adestramento desde cero e técnicas de aprendizaxe por transferencia. Os modelos resultantes valídanse e compáranse mediante avaliacións subxectivas e automáticas.
A síntese de texto a voz (TTS) desempeña un papel crucial na interacción persoa-ordenador e segue sendo un tema de investigación candente nas comunidades de tecnoloxía da fala e aprendizaxe automática. Cos avances nas técnicas de aprendizaxe profunda e o aumento da potencia informática, os sistemas TTS baseados en redes neuronais profundas xurdiron como unha potente alternativa aos métodos tradicionais. Recentemente, os modelos TTS de aprendizaxe profunda de extremo a extremo produciron impresionantes resultados de son natural e alta calidade. Con todo, estender estes modelos a múltiples idiomas e falantes é un reto, especialmente para idiomas de recursos baixos a medios como o galego. No noso estudo, utilizamos un conxunto de datos aberto de TTS galego de pequeno a mediano tamaño para adestrar diferentes modelos de voz en galego. Tamén aplicamos a xeración de datos sintéticos para abordar as deficiencias identificadas no conxunto de datos orixinal. Exploramos arquitecturas de última xeración, incluíndo o adestramento desde cero e técnicas de aprendizaxe por transferencia. Os modelos resultantes valídanse e compáranse mediante avaliacións subxectivas e automáticas.
Dirección
BUGARIN DIZ, ALBERTO JOSE (Titoría)
MAGARIÑOS IGLESIAS, MARIA DEL CARMEN Cotitoría
BUGARIN DIZ, ALBERTO JOSE (Titoría)
MAGARIÑOS IGLESIAS, MARIA DEL CARMEN Cotitoría
Tribunal
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Detección de anomalías mediante modelos de autocodificadores en contornos industriais
Autoría
F.M.S.
Máster Universitario en Intelixencia Artificial
F.M.S.
Máster Universitario en Intelixencia Artificial
Data da defensa
17.07.2025 10:30
17.07.2025 10:30
Resumo
O aumento da conectividade e a automatización nos contornos da Industria 4.0 introduciu novos retos para garantir a fiabilidade e a seguridade operativas. A detección de anomalías desempeña un papel crucial na identificación de fallos e ciberataques que poderían comprometer os sistemas de produción. Este traballo investiga o uso de modelos baseados en autocodificadores para a detección non supervisada de anomalías tanto no tráfico de rede como nos datos de sensores, recollidos dun sistema de produción de cócteles simulado. Empregase un autocodificador totalmente conectado para detectar desviacións nos fluxos de rede Modbus, mentres que se utiliza un autocodificador LSTM secuencia a secuencia para modelar patróns temporais en fluxos de sensores multivariantes. Ambos modelos adéstranse con datos normais e avalíanse en escenarios de ataque realistas, como a manipulación de rexistros Modbus e a denegación de servizo SYN Flood. Os resultados experimentais demostran que os autocodificadores poden detectar eficazmente anomalías en contornos industriais, e que os modelos baseados en LSTM ofrecen un mellor rendemento en contornos con comportamento cíclico.
O aumento da conectividade e a automatización nos contornos da Industria 4.0 introduciu novos retos para garantir a fiabilidade e a seguridade operativas. A detección de anomalías desempeña un papel crucial na identificación de fallos e ciberataques que poderían comprometer os sistemas de produción. Este traballo investiga o uso de modelos baseados en autocodificadores para a detección non supervisada de anomalías tanto no tráfico de rede como nos datos de sensores, recollidos dun sistema de produción de cócteles simulado. Empregase un autocodificador totalmente conectado para detectar desviacións nos fluxos de rede Modbus, mentres que se utiliza un autocodificador LSTM secuencia a secuencia para modelar patróns temporais en fluxos de sensores multivariantes. Ambos modelos adéstranse con datos normais e avalíanse en escenarios de ataque realistas, como a manipulación de rexistros Modbus e a denegación de servizo SYN Flood. Os resultados experimentais demostran que os autocodificadores poden detectar eficazmente anomalías en contornos industriais, e que os modelos baseados en LSTM ofrecen un mellor rendemento en contornos con comportamento cíclico.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Titoría)
Pérez Vilarelle, Laura Cotitoría
CARIÑENA AMIGO, MARIA PURIFICACION (Titoría)
Pérez Vilarelle, Laura Cotitoría
Tribunal
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Taboada González, José Ángel (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CONDORI FERNANDEZ, OLINDA NELLY (Vogal)
Scraping e análise de autoría: identificación de patróns de escritura en foros en liña mediante modelos de aprendizaxe automática
Autoría
R.R.J.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
R.R.J.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 16:00
16.07.2025 16:00
Resumo
Nun ambiente dixital caracterizado polo anonimato e o auxe das identidades falsas, a atribución de autoría emerxe como unha ferramenta esencial para inferir quen está detrás dun texto en función do seu estilo lingüístico. Este traballo aborda a atribución de autoría en foros en liña, cunha atención especial aos usuarios involucrados en discusións sobre transaccións de criptomoedas. Para este fin, recolléronse datos mediante técnicas de extracción web, seleccionando publicacións de autores previamente identificados. Os textos foron preprocesados e representados mediante n-gramas de caracteres, aplicando esquemas de vectorización como TF-IDF. Despois adestráronse e avaliáronse diferentes modelos de clasificación, que van desde enfoques tradicionais como SVM, Rocchio ou Random Forest ata modelos de linguaxe profunda como BERT. Os resultados permiten comparar o rendemento dos diferentes modelos e analizar a súa capacidade para identificar patróns estilísticos persistentes mesmo cando os usuarios operan con contas desbotables ou varios alias.
Nun ambiente dixital caracterizado polo anonimato e o auxe das identidades falsas, a atribución de autoría emerxe como unha ferramenta esencial para inferir quen está detrás dun texto en función do seu estilo lingüístico. Este traballo aborda a atribución de autoría en foros en liña, cunha atención especial aos usuarios involucrados en discusións sobre transaccións de criptomoedas. Para este fin, recolléronse datos mediante técnicas de extracción web, seleccionando publicacións de autores previamente identificados. Os textos foron preprocesados e representados mediante n-gramas de caracteres, aplicando esquemas de vectorización como TF-IDF. Despois adestráronse e avaliáronse diferentes modelos de clasificación, que van desde enfoques tradicionais como SVM, Rocchio ou Random Forest ata modelos de linguaxe profunda como BERT. Os resultados permiten comparar o rendemento dos diferentes modelos e analizar a súa capacidade para identificar patróns estilísticos persistentes mesmo cando os usuarios operan con contas desbotables ou varios alias.
Dirección
Losada Carril, David Enrique (Titoría)
Pérez Vilarelle, Laura Cotitoría
Losada Carril, David Enrique (Titoría)
Pérez Vilarelle, Laura Cotitoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
IGLESIAS RODRIGUEZ, ROBERTO (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vogal)
Desenvolvemento dun Data Operating System (Data OS) asistido por IA
Autoría
A.R.P.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
A.R.P.
Máster Universitario en Tecnoloxías de Análise de Datos Masivos: Big Data
Data da defensa
16.07.2025 17:30
16.07.2025 17:30
Resumo
Este traballo presenta a implementación dun sistema de inxesta baseado en metadatos sobre a plataforma Microsoft Fabric. O obxectivo principal foi migrar e adaptar un framework desenvolvido orixinalmente en Azure Data Factory, mantendo a súa lóxica funcional pero aproveitando as capacidades nativas do novo contorno. O sistema está deseñado para executar cargas de datos desde orixes heteroxéneas cara a un contorno analítico na nube. Todo o proceso está dirixido por metadatos definidos externamente mediante ficheiros estruturados que describen o comportamento de cada obxecto sen necesidade de modificar código. O documento inclúe unha análise detallada do framework orixinal, o proceso de migración técnica, as melloras implementadas e os resultados obtidos, así como unha proposta de seguintes pasos para continuar coa súa evolución dentro do ecosistema corporativo.
Este traballo presenta a implementación dun sistema de inxesta baseado en metadatos sobre a plataforma Microsoft Fabric. O obxectivo principal foi migrar e adaptar un framework desenvolvido orixinalmente en Azure Data Factory, mantendo a súa lóxica funcional pero aproveitando as capacidades nativas do novo contorno. O sistema está deseñado para executar cargas de datos desde orixes heteroxéneas cara a un contorno analítico na nube. Todo o proceso está dirixido por metadatos definidos externamente mediante ficheiros estruturados que describen o comportamento de cada obxecto sen necesidade de modificar código. O documento inclúe unha análise detallada do framework orixinal, o proceso de migración técnica, as melloras implementadas e os resultados obtidos, así como unha proposta de seguintes pasos para continuar coa súa evolución dentro do ecosistema corporativo.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Titoría)
Acedo Nieto, Carlos Cotitoría
Martínez Torres, María Cotitoría
RIOS VIQUEIRA, JOSE RAMON (Titoría)
Acedo Nieto, Carlos Cotitoría
Martínez Torres, María Cotitoría
Tribunal
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
Sánchez Vila, Eduardo Manuel (Secretario/a)
MERA PEREZ, DAVID (Vogal)
VIDAL AGUIAR, JUAN CARLOS (Presidente/a)
Sánchez Vila, Eduardo Manuel (Secretario/a)
MERA PEREZ, DAVID (Vogal)