Evaluación del impacto en los costes de los diversos artículos en modelos cooperativos de inventario con múltiples agentes
Autoría
E.D.G.
Máster Universitario en Técnicas Estatísticas (2ªed)
E.D.G.
Máster Universitario en Técnicas Estatísticas (2ªed)
Data da defensa
05.02.2025 10:30
05.02.2025 10:30
Resumo
O presente traballo aborda o análise de modelos de inventario deterministas no contexto da teoría de xiros cooperativos, explorando a súa aplicación a problemas de distribución de custos. Présentanse os conceptos fundamentais necesarios para o estudo, incluíndo unha introdución á teoría de xiros cooperativos, os xiros de utilidade transferible (TU) e as súas principais solucións, como o núcleo, o valor de Shapley e o valor de Owen. No marco dos modelos de inventario, analízanse diferentes configuracións do modelo EOQ (Economic Order Quantity), comezando polo modelo básico determinista e extendéndose a casos con múltiples artigos e axentes. Examinaranse dúas variantes clave: modelos con custos eximibles, que contemplan eximir a certas coalicións dos custos fixos de pedido, e modelos sen custos eximibles, que non o contemplan. Ao longo do traballo, estudarase un exemplo ilustrativo que destaca as implicacións dos modelos e as súas solucións na práctica. Ademais, analizarase como as diferentes regras de distribución de custos afectan ao reparto entre axentes ou artigos, tendo en conta tanto a equanimidade como a estabilidade do sistema.
O presente traballo aborda o análise de modelos de inventario deterministas no contexto da teoría de xiros cooperativos, explorando a súa aplicación a problemas de distribución de custos. Présentanse os conceptos fundamentais necesarios para o estudo, incluíndo unha introdución á teoría de xiros cooperativos, os xiros de utilidade transferible (TU) e as súas principais solucións, como o núcleo, o valor de Shapley e o valor de Owen. No marco dos modelos de inventario, analízanse diferentes configuracións do modelo EOQ (Economic Order Quantity), comezando polo modelo básico determinista e extendéndose a casos con múltiples artigos e axentes. Examinaranse dúas variantes clave: modelos con custos eximibles, que contemplan eximir a certas coalicións dos custos fixos de pedido, e modelos sen custos eximibles, que non o contemplan. Ao longo do traballo, estudarase un exemplo ilustrativo que destaca as implicacións dos modelos e as súas solucións na práctica. Ademais, analizarase como as diferentes regras de distribución de custos afectan ao reparto entre axentes ou artigos, tendo en conta tanto a equanimidade como a estabilidade do sistema.
Dirección
GARCIA JURADO, IGNACIO (Titoría)
GARCIA JURADO, IGNACIO (Titoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vogal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vogal)
Certificando optimalidade global en problemas grandes de estimación de parámetros en sistemas dinámicos: Resolución global do problema 3SP
Autoría
M.F.F.D.D.
Máster Universitario en Técnicas Estatísticas (2ªed)
M.F.F.D.D.
Máster Universitario en Técnicas Estatísticas (2ªed)
Data da defensa
18.06.2025 12:15
18.06.2025 12:15
Resumo
Neste traballo presentamos unha resolución cunha garantía de optimalidade global dun problema reto e de gran tamaño de estimación de parámetros en sistemas dinámicos. A proposta baseáse na metodoloxía desenvolvida no noso traballo previo, recollido no artigo Parameter estimation in ODEs: assessing the potential of local and global solvers (De Dios et al., 2025, aceptado en Optimization and Engineering), e aplícase á resolución do problema 3SP, formulado por Moles et al. (2003). Segundo a revisión realizada, non consta que este problema fora abordado previamente cunha formulación completa e unha resolución que certifique optimalidade global. A metodoloxía está baseada na formulación do problema como un modelo de programación non lineal (NLP), resolto mediante técnicas de optimización matemática implementadas en AMPL e executadas con solvers globais deterministas. Esta aproximación permite obter solucións con garantía de optimalidade global nun contexto onde tradicionalmente se empregaron métodos heurísticos. Os resultados amosan que é posible abordar problemas de gran tamaño mediante técnicas de optimización global baseadas en AMPL e solvers deterministas actuais, o que cuestiona as limitacións asumidas previamente na literatura e abre a porta á resolución de problemas aínda máis complexos.
Neste traballo presentamos unha resolución cunha garantía de optimalidade global dun problema reto e de gran tamaño de estimación de parámetros en sistemas dinámicos. A proposta baseáse na metodoloxía desenvolvida no noso traballo previo, recollido no artigo Parameter estimation in ODEs: assessing the potential of local and global solvers (De Dios et al., 2025, aceptado en Optimization and Engineering), e aplícase á resolución do problema 3SP, formulado por Moles et al. (2003). Segundo a revisión realizada, non consta que este problema fora abordado previamente cunha formulación completa e unha resolución que certifique optimalidade global. A metodoloxía está baseada na formulación do problema como un modelo de programación non lineal (NLP), resolto mediante técnicas de optimización matemática implementadas en AMPL e executadas con solvers globais deterministas. Esta aproximación permite obter solucións con garantía de optimalidade global nun contexto onde tradicionalmente se empregaron métodos heurísticos. Os resultados amosan que é posible abordar problemas de gran tamaño mediante técnicas de optimización global baseadas en AMPL e solvers deterministas actuais, o que cuestiona as limitacións asumidas previamente na literatura e abre a porta á resolución de problemas aínda máis complexos.
Dirección
GONZALEZ DIAZ, JULIO (Titoría)
GONZALEZ DIAZ, JULIO (Titoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vogal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vogal)
Valoración con modelos de volatilidade rugosa en mercados de commodities
Autoría
H.F.C.
Máster Universitario en Matemática Industrial
H.F.C.
Máster Universitario en Matemática Industrial
Data da defensa
09.07.2025 12:00
09.07.2025 12:00
Resumo
O obxectivo deste Traballo fin de Máster é investigar as aplicacións do modelo de Bergomi rugoso (rBergomi) á valoración de opcións sobre futuros en commodities (materias primas). O modelo rBergomi é un modelo de volatilidade estocástica impulsado por un movemento Browniano fraccionario. Este proceso foi amplamente estudado no contexto dos mercados de valores; non obstante, a literatura sobre a súa aplicación ao mercado de commodities é escasa. En primeiro lugar, revisamos os fundamentos matemáticos da valoración de activos financeiros e do modelo rBergomi, analizando as súas vantaxes e desvantaxes en comparación con modelos de volatilidade estocástica clásicos. A continuación, propoñemos un modelo novidoso para valorar opcións sobre futuros en commodities que implementa a dinámica do modelo rBergomi. Finalmente, presentamos un esquema numérico eficiente para a simulación do modelo e calibrámolo con datos reais do mercado do petróleo cru WTI.
O obxectivo deste Traballo fin de Máster é investigar as aplicacións do modelo de Bergomi rugoso (rBergomi) á valoración de opcións sobre futuros en commodities (materias primas). O modelo rBergomi é un modelo de volatilidade estocástica impulsado por un movemento Browniano fraccionario. Este proceso foi amplamente estudado no contexto dos mercados de valores; non obstante, a literatura sobre a súa aplicación ao mercado de commodities é escasa. En primeiro lugar, revisamos os fundamentos matemáticos da valoración de activos financeiros e do modelo rBergomi, analizando as súas vantaxes e desvantaxes en comparación con modelos de volatilidade estocástica clásicos. A continuación, propoñemos un modelo novidoso para valorar opcións sobre futuros en commodities que implementa a dinámica do modelo rBergomi. Finalmente, presentamos un esquema numérico eficiente para a simulación do modelo e calibrámolo con datos reais do mercado do petróleo cru WTI.
Dirección
Vázquez Cendón, Carlos (Titoría)
Vázquez Cendón, Carlos (Titoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vogal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vogal)
Simulación das condicións de evaporación, transferencia e condensación nun reactor.
Autoría
J.G.P.
Máster Universitario en Matemática Industrial
J.G.P.
Máster Universitario en Matemática Industrial
Data da defensa
09.07.2025 10:00
09.07.2025 10:00
Resumo
Este proxecto fin de máster céntrase na simulación dun proceso industrial innovador impulsado pola empresa Ferroglobe. O proceso lévase a cabo nun reactor que opera ao baleiro, no que se aplica un campo eléctrico para xerar calor. Este quecemento permite acadar as condicións necesarias para que os reactivos presentes no seu interior xeren un produto metalúrxico de alto valor. O produto fórmase en fase gasosa, transpórtase ao longo do reactor e condénsase na súa parte superior, onde se atopa situado un condensador. O obxectivo principal do proxecto é comprender e optimizar este proceso mediante técnicas de modelización matemática e simulación numérica. Todas as simulacións realizáronse empregando o software ANSYS Fluent, que se imparte no Máster en Matemática Industrial. Coa simulación do reactor, a empresa poderá coñecer mellor o seu funcionamento, o que facilitará a avaliación de modificacións xeométricas, a identificación de zonas con risco de condensación e o escalado do proceso, reducindo a necesidade de realizar ensaios experimentais.
Este proxecto fin de máster céntrase na simulación dun proceso industrial innovador impulsado pola empresa Ferroglobe. O proceso lévase a cabo nun reactor que opera ao baleiro, no que se aplica un campo eléctrico para xerar calor. Este quecemento permite acadar as condicións necesarias para que os reactivos presentes no seu interior xeren un produto metalúrxico de alto valor. O produto fórmase en fase gasosa, transpórtase ao longo do reactor e condénsase na súa parte superior, onde se atopa situado un condensador. O obxectivo principal do proxecto é comprender e optimizar este proceso mediante técnicas de modelización matemática e simulación numérica. Todas as simulacións realizáronse empregando o software ANSYS Fluent, que se imparte no Máster en Matemática Industrial. Coa simulación do reactor, a empresa poderá coñecer mellor o seu funcionamento, o que facilitará a avaliación de modificacións xeométricas, a identificación de zonas con risco de condensación e o escalado do proceso, reducindo a necesidade de realizar ensaios experimentais.
Dirección
GOMEZ PEDREIRA, MARIA DOLORES (Titoría)
GOMEZ PEDREIRA, MARIA DOLORES (Titoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vogal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vogal)
Estimación de filamentos
Autoría
H.G.V.
Máster Universitario en Técnicas Estatísticas (2ªed)
H.G.V.
Máster Universitario en Técnicas Estatísticas (2ªed)
Data da defensa
05.02.2025 09:30
05.02.2025 09:30
Resumo
A estimación de variedades permite abordar de xeito non linear e non paramétrico o problema de redución da dimensión ao traballar con datos nun espazo euclídeo que realmente se distribúen nunha variedade de dimensión menor (ou cerca dela), proporcionando una mellor comprensión sobre a súa estructura subxacente. No caso particular no que a variedade é unha curva, o problema denomínase estimación de filamentos. O obxectivo deste traballo é propoñer un novo estimador de filamentos e probar que acada a taxa óptima no senso minimax de converxencia en distancia de Hausdorff, salvo factor logarítmico, cando o espazo ambiente é o plano. Primeiro realízase unha presentación de conceptos, condicións de forma e estimadores empregados na estimación de conxuntos. A continuación, revísase un estimador, o chamado estimador EDT (Euclidean Distance Transform), nun modelo de estimación de filamentos con ruído aditivo. Ademais, preséntase un modelo de ruído perpendicular, nun contexto máis xeral de estimación de variedades, no que se coñece a taxa minimax. Finalmente, propónse o novo estimador, denominado estimador EDT con envoltura r-convexa, e próbase a súa taxa de converxencia. Tamén se estuda a posible selección do parámetro de forma r a partir dos datos sen afectar á taxa de converxencia. O estimador proposto aplícase a un problema de estimación do contorno de seccións de troncos de árbores en inventario forestal.
A estimación de variedades permite abordar de xeito non linear e non paramétrico o problema de redución da dimensión ao traballar con datos nun espazo euclídeo que realmente se distribúen nunha variedade de dimensión menor (ou cerca dela), proporcionando una mellor comprensión sobre a súa estructura subxacente. No caso particular no que a variedade é unha curva, o problema denomínase estimación de filamentos. O obxectivo deste traballo é propoñer un novo estimador de filamentos e probar que acada a taxa óptima no senso minimax de converxencia en distancia de Hausdorff, salvo factor logarítmico, cando o espazo ambiente é o plano. Primeiro realízase unha presentación de conceptos, condicións de forma e estimadores empregados na estimación de conxuntos. A continuación, revísase un estimador, o chamado estimador EDT (Euclidean Distance Transform), nun modelo de estimación de filamentos con ruído aditivo. Ademais, preséntase un modelo de ruído perpendicular, nun contexto máis xeral de estimación de variedades, no que se coñece a taxa minimax. Finalmente, propónse o novo estimador, denominado estimador EDT con envoltura r-convexa, e próbase a súa taxa de converxencia. Tamén se estuda a posible selección do parámetro de forma r a partir dos datos sen afectar á taxa de converxencia. O estimador proposto aplícase a un problema de estimación do contorno de seccións de troncos de árbores en inventario forestal.
Dirección
PATEIRO LOPEZ, BEATRIZ (Titoría)
RODRIGUEZ CASAL, ALBERTO Cotitoría
PATEIRO LOPEZ, BEATRIZ (Titoría)
RODRIGUEZ CASAL, ALBERTO Cotitoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vogal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vogal)
Desenvolvemento de Modelos de Clasificación Automática de Documentos Dixitais usando Transformers
Autoría
M.G.H.S.
Máster Universitario en Técnicas Estatísticas (2ªed)
M.G.H.S.
Máster Universitario en Técnicas Estatísticas (2ªed)
Data da defensa
05.02.2025 09:45
05.02.2025 09:45
Resumo
A xestión de grandes volumes de documentos representa un desafío significativo para as organizacións, xa que clasificalos e procesalos de maneira manual resulta ineficiente e supón un desaproveitamento de recursos. Este enfoque tradicional, aínda que necesario nalgúns contextos, limita a capacidade para acceder rapidamente á información e utilizala de maneira efectiva. En resposta a esta situación, existen diversas solucións tecnolóxicas que están evolucionando para facilitar a organización e o acceso eficiente aos documentos. A primeira parte deste traballo presenta o desenvolvemento dun modelo de clasificación de texto baseado en Transformer, unha arquitectura avanzada de procesamento de linguaxe natural (PNL). O modelo automatiza o proceso de clasificación de documentos, o que non só mellora a eficiencia na organización dos mesmos, senón que tamén permite o seu aproveitamento posterior de maneira máis áxil e efectiva. Este enfoque, baseado en modelos preentrenados como BERT, aproveita a súa capacidade para adaptarse a tarefas específicas, o que facilita a clasificación eficiente de grandes volumes de datos e mellora o acceso rápido e preciso á información relevante. Deste xeito, contribúese á optimización de recursos e a unha mellor xestión da información dentro da organización. Para validar a efectividade do modelo, fixéronse diversas comparacións con clasificadores tradicionais como kNN, Naïve Bayes e Random Forest, utilizando os mesmos datos de adestramento. En todos os casos, o modelo baseado en BERT demostrou unha capacidade de xeneralización superior, mostrando un desempeño notable ao clasificar documentos sobre temas que ningún dos clasificadores vira durante a etapa de adestramento e superando ás técnicas tradicionais nos conxuntos de datos analizados. Isto establece a súa vantaxe para adaptarse a novos contextos e tipos de documentos sen requirir unha reestruturación ou axuste significativo do modelo. A arquitectura de BERT permítelle comprender o contexto e significado profundo do texto, o que lle outorga flexibilidade para manexar unha ampla variedade de tarefas, mesmo cando se enfronta a datos que non se aliñan perfectamente cos exemplos usados previamente durante o seu adestramento. Esta capacidade de adaptación converte a BERT nunha solución ideal para contornas onde os datos e as necesidades cambian constantemente, permitindo así unha maior eficiencia e precisión na clasificación e recuperación de información. A segunda parte deste traballo céntrase no desenvolvemento dun modelo para a recuperación e xeración de información. Este modelo constitúe unha primeira proposta orientada a facilitar o acceso á información contida en diversas fontes, o que engade un valor considerable aos procesos operativos da organización, optimizando o uso dos datos dispoñibles para a toma de decisións. O modelo foi avaliado utilizando un conxunto de datos extraído da plataforma tecnolóxica Huggingface. Os resultados mostran que as respostas xeradas acadaron unha similitude coseno superior ao 60% con respecto ás respostas esperadas cando o contexto proporcionado tiña relación coa pregunta, o que suxire unha alta correspondencia en termos de contido. Isto valida a capacidade do modelo para xerar respostas coherentes e relevantes en escenarios onde o contexto é clave.
A xestión de grandes volumes de documentos representa un desafío significativo para as organizacións, xa que clasificalos e procesalos de maneira manual resulta ineficiente e supón un desaproveitamento de recursos. Este enfoque tradicional, aínda que necesario nalgúns contextos, limita a capacidade para acceder rapidamente á información e utilizala de maneira efectiva. En resposta a esta situación, existen diversas solucións tecnolóxicas que están evolucionando para facilitar a organización e o acceso eficiente aos documentos. A primeira parte deste traballo presenta o desenvolvemento dun modelo de clasificación de texto baseado en Transformer, unha arquitectura avanzada de procesamento de linguaxe natural (PNL). O modelo automatiza o proceso de clasificación de documentos, o que non só mellora a eficiencia na organización dos mesmos, senón que tamén permite o seu aproveitamento posterior de maneira máis áxil e efectiva. Este enfoque, baseado en modelos preentrenados como BERT, aproveita a súa capacidade para adaptarse a tarefas específicas, o que facilita a clasificación eficiente de grandes volumes de datos e mellora o acceso rápido e preciso á información relevante. Deste xeito, contribúese á optimización de recursos e a unha mellor xestión da información dentro da organización. Para validar a efectividade do modelo, fixéronse diversas comparacións con clasificadores tradicionais como kNN, Naïve Bayes e Random Forest, utilizando os mesmos datos de adestramento. En todos os casos, o modelo baseado en BERT demostrou unha capacidade de xeneralización superior, mostrando un desempeño notable ao clasificar documentos sobre temas que ningún dos clasificadores vira durante a etapa de adestramento e superando ás técnicas tradicionais nos conxuntos de datos analizados. Isto establece a súa vantaxe para adaptarse a novos contextos e tipos de documentos sen requirir unha reestruturación ou axuste significativo do modelo. A arquitectura de BERT permítelle comprender o contexto e significado profundo do texto, o que lle outorga flexibilidade para manexar unha ampla variedade de tarefas, mesmo cando se enfronta a datos que non se aliñan perfectamente cos exemplos usados previamente durante o seu adestramento. Esta capacidade de adaptación converte a BERT nunha solución ideal para contornas onde os datos e as necesidades cambian constantemente, permitindo así unha maior eficiencia e precisión na clasificación e recuperación de información. A segunda parte deste traballo céntrase no desenvolvemento dun modelo para a recuperación e xeración de información. Este modelo constitúe unha primeira proposta orientada a facilitar o acceso á información contida en diversas fontes, o que engade un valor considerable aos procesos operativos da organización, optimizando o uso dos datos dispoñibles para a toma de decisións. O modelo foi avaliado utilizando un conxunto de datos extraído da plataforma tecnolóxica Huggingface. Os resultados mostran que as respostas xeradas acadaron unha similitude coseno superior ao 60% con respecto ás respostas esperadas cando o contexto proporcionado tiña relación coa pregunta, o que suxire unha alta correspondencia en termos de contido. Isto valida a capacidade do modelo para xerar respostas coherentes e relevantes en escenarios onde o contexto é clave.
Dirección
LÓPEZ TABOADA, GUILLERMO (Titoría)
LÓPEZ TABOADA, GUILLERMO (Titoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vogal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vogal)
Construción dun indicador adiantado da taxa de paro
Autoría
L.M.G.
Máster Universitario en Técnicas Estatísticas (2ªed)
L.M.G.
Máster Universitario en Técnicas Estatísticas (2ªed)
Data da defensa
18.06.2025 10:45
18.06.2025 10:45
Resumo
A taxa de desemprego é unha variable clave para analizar a evolución do mercado laboral en España, pero publícase trimestralmente cun desfasamento de mes e medio tras o fin do trimestre en cuestión. Por iso, desde o Departamento de Planificación Estratéxica e PMO de ABANCA plantéxase a construción dun indicador adiantado da taxa de desemprego, estimado mensualmente a partir dos datos de afiliación á Seguridade Social e de paro rexistrado, dispoñibles a principios de cada mes. Para iso, mediante modelos de desagregación temporal, mensualízanse os datos de ocupados e parados usando as series mensuais das afiliacións e do paro rexistrado. A partir destas estimacións, calcúlase unha taxa de desemprego mensual que se converte logo a frecuencia trimestral, permitindo así a súa comparación co dato oficial da Enquisa de Poboación Activa (EPA). Ademais, incorpórase unha metodoloxía de corrección de estacionalidade e efectos de calendario, esencial para a análise de series temporais, xa que as series oficiais non están corrixidas do impacto destes factores. Unha vez cancelados estes efectos, é factible unha análise máis detallada e comparativas que, sen este axuste, serían inadecuadas.
A taxa de desemprego é unha variable clave para analizar a evolución do mercado laboral en España, pero publícase trimestralmente cun desfasamento de mes e medio tras o fin do trimestre en cuestión. Por iso, desde o Departamento de Planificación Estratéxica e PMO de ABANCA plantéxase a construción dun indicador adiantado da taxa de desemprego, estimado mensualmente a partir dos datos de afiliación á Seguridade Social e de paro rexistrado, dispoñibles a principios de cada mes. Para iso, mediante modelos de desagregación temporal, mensualízanse os datos de ocupados e parados usando as series mensuais das afiliacións e do paro rexistrado. A partir destas estimacións, calcúlase unha taxa de desemprego mensual que se converte logo a frecuencia trimestral, permitindo así a súa comparación co dato oficial da Enquisa de Poboación Activa (EPA). Ademais, incorpórase unha metodoloxía de corrección de estacionalidade e efectos de calendario, esencial para a análise de series temporais, xa que as series oficiais non están corrixidas do impacto destes factores. Unha vez cancelados estes efectos, é factible unha análise máis detallada e comparativas que, sen este axuste, serían inadecuadas.
Dirección
Vilar Fernández, José Antonio (Titoría)
Vilar Fernández, José Antonio (Titoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vogal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vogal)
Exploración de métodos para estimar a incerteza dos descartes de pesca mediante o formato RDBES
Autoría
J.M.M.C.
Máster Universitario en Técnicas Estatísticas (2ªed)
J.M.M.C.
Máster Universitario en Técnicas Estatísticas (2ªed)
Data da defensa
18.06.2025 11:45
18.06.2025 11:45
Resumo
Unha estimación precisa dos descartes é esencial para unha xestión eficaz das poboacións de peixes, xa que os datos de descartes forman parte da mortalidade por pesca. O incumprimento desta norma podería comprometer gravemente a sustentabilidade a longo prazo dos recursos pesqueiros. A precisión vese afectada por varios factores, desde o deseño da mostraxe ata o proceso de estimación. Os expertos en mostraxe expresaron a súa preocupación pola falta de indicadores de calidade dos datos nas estimacións de descartes, especialmente cando os datos dos métodos de mostraxe non probabilística deben utilizarse como indicadores dos datos probabilísticos. Como estudo de caso, empregamos datos do programa de observadores a bordo do IEO-CSIC para a frota de arrastre española que captura peixes demersais na Zona CIEM 7. A mostraxe segue un deseño en varias etapas, desde a selección do buque ata a recollida da mostra de descartes durante a operación de pesca. Para obter as estimacións máis precisas dos descartes, é necesario especificar correctamente os métodos sucesivos para a selección das unidades de mostraxe, así como parametrizar adecuadamente o cálculo da varianza en cada etapa de mostraxe. Para este fin, empregouse un deseño de mostraxe en dúas etapas. Na primeira etapa, as viaxes seleccionáronse mediante mostraxe aleatoria simple sen substitución, mentres que na segunda etapa, as operacións de pesca elixíronse mediante mostraxe sistemática. Adoptáronse dúas abordaxes complementarias para estimar a varianza. En primeiro lugar, empregouse a estimación clásica correspondente a SRSWOR e, no caso de SYSS, comparáronse as aproximacións obtidas mediante o método de diferenzas sucesivas e a estimación baseada na suposición de SRSWOR. En segundo lugar, implementáronse técnicas de remostraxe, en particular o método bootstrap, para avaliar a incerteza dun xeito máis flexible e robusto.
Unha estimación precisa dos descartes é esencial para unha xestión eficaz das poboacións de peixes, xa que os datos de descartes forman parte da mortalidade por pesca. O incumprimento desta norma podería comprometer gravemente a sustentabilidade a longo prazo dos recursos pesqueiros. A precisión vese afectada por varios factores, desde o deseño da mostraxe ata o proceso de estimación. Os expertos en mostraxe expresaron a súa preocupación pola falta de indicadores de calidade dos datos nas estimacións de descartes, especialmente cando os datos dos métodos de mostraxe non probabilística deben utilizarse como indicadores dos datos probabilísticos. Como estudo de caso, empregamos datos do programa de observadores a bordo do IEO-CSIC para a frota de arrastre española que captura peixes demersais na Zona CIEM 7. A mostraxe segue un deseño en varias etapas, desde a selección do buque ata a recollida da mostra de descartes durante a operación de pesca. Para obter as estimacións máis precisas dos descartes, é necesario especificar correctamente os métodos sucesivos para a selección das unidades de mostraxe, así como parametrizar adecuadamente o cálculo da varianza en cada etapa de mostraxe. Para este fin, empregouse un deseño de mostraxe en dúas etapas. Na primeira etapa, as viaxes seleccionáronse mediante mostraxe aleatoria simple sen substitución, mentres que na segunda etapa, as operacións de pesca elixíronse mediante mostraxe sistemática. Adoptáronse dúas abordaxes complementarias para estimar a varianza. En primeiro lugar, empregouse a estimación clásica correspondente a SRSWOR e, no caso de SYSS, comparáronse as aproximacións obtidas mediante o método de diferenzas sucesivas e a estimación baseada na suposición de SRSWOR. En segundo lugar, implementáronse técnicas de remostraxe, en particular o método bootstrap, para avaliar a incerteza dun xeito máis flexible e robusto.
Dirección
Mosquera Rodríguez, Manuel Alfredo (Titoría)
Mosquera Rodríguez, Manuel Alfredo (Titoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vogal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vogal)
SorterAssignmentOptimization
Autoría
A.M.A.
Máster Universitario en Técnicas Estatísticas (2ªed)
A.M.A.
Máster Universitario en Técnicas Estatísticas (2ªed)
Data da defensa
18.06.2025 09:45
18.06.2025 09:45
Resumo
Este traballo busca mellorar a eficiencia un clasificador de almacén do sector téxtil mediante a óptima asignación de tarefas aos seus traballadores. Diversas prendas son inducidas no \textit{sorter} dende o almacén, proceso onde se distinguen dous roles de traballo. Ao chegar a un destino concreto, a roupa cae na caixa que se atopa debaixo del. Tras encherse, as caixas son evacuadas por humanos, con outros dous roles de traballo posibles. O problema consistirá en decidir cantas persoas ocuparán cada un dos catro roles de traballo, buscando que a demanda, xerada polas necesidades dun conxunto de tendas, se satisfaga no menor tempo posible. Este texto describe en profundidade o problema e formula un modelo de programación linear enteira para resolvelo. Tras comprobar que este non será capaz de resolver instancias de tamaño realista, e apreciar que o número total de asignacións traballador-rol é moito menor do esperado, contrúese un simulador que recree máis fielmente o \textit{sorter} e avalíe as posibles asignacións, devolvendo a mellor delas como solución óptima.
Este traballo busca mellorar a eficiencia un clasificador de almacén do sector téxtil mediante a óptima asignación de tarefas aos seus traballadores. Diversas prendas son inducidas no \textit{sorter} dende o almacén, proceso onde se distinguen dous roles de traballo. Ao chegar a un destino concreto, a roupa cae na caixa que se atopa debaixo del. Tras encherse, as caixas son evacuadas por humanos, con outros dous roles de traballo posibles. O problema consistirá en decidir cantas persoas ocuparán cada un dos catro roles de traballo, buscando que a demanda, xerada polas necesidades dun conxunto de tendas, se satisfaga no menor tempo posible. Este texto describe en profundidade o problema e formula un modelo de programación linear enteira para resolvelo. Tras comprobar que este non será capaz de resolver instancias de tamaño realista, e apreciar que o número total de asignacións traballador-rol é moito menor do esperado, contrúese un simulador que recree máis fielmente o \textit{sorter} e avalíe as posibles asignacións, devolvendo a mellor delas como solución óptima.
Dirección
GONZALEZ DIAZ, JULIO (Titoría)
GONZALEZ DIAZ, JULIO (Titoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vogal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vogal)
Automatización do proceso de detección de fallos no Test de Forno de boias
Autoría
A.G.P.M.
Máster Universitario en Matemática Industrial
A.G.P.M.
Máster Universitario en Matemática Industrial
Data da defensa
09.07.2025 12:30
09.07.2025 12:30
Resumo
Marine Instruments é unha empresa líder no deseño e fabricación de equipos electrónicos para contornas mariñas. O seu prestixio baséase na alta fiabilidade dos seus produtos, garantida por un rigoroso proceso de produción que remata cun exhaustivo control de calidade. No caso das boias, este control inclúe un test no forno: as placas de circuíto impreso (PCB) sométense a 60 graos mentres executan un programa de proba estandarizado e rexístrase continuamente o seu consumo eléctrico. Actualmente, a validación realízase manualmente mediante a inspección visual das curvas de consumo para identificar posibles anomalías. Este traballo propón automatizar esa fase de clasificación mediante a extracción e modelización de características representativas dos fallos e o deseño dun algoritmo de detección que combina técnicas de analítica de datos e intelixencia artificial. Con isto preténdese reducir os tempos de inspección, incrementar a trazabilidade do proceso e mellorar aínda máis a fiabilidade do produto final.
Marine Instruments é unha empresa líder no deseño e fabricación de equipos electrónicos para contornas mariñas. O seu prestixio baséase na alta fiabilidade dos seus produtos, garantida por un rigoroso proceso de produción que remata cun exhaustivo control de calidade. No caso das boias, este control inclúe un test no forno: as placas de circuíto impreso (PCB) sométense a 60 graos mentres executan un programa de proba estandarizado e rexístrase continuamente o seu consumo eléctrico. Actualmente, a validación realízase manualmente mediante a inspección visual das curvas de consumo para identificar posibles anomalías. Este traballo propón automatizar esa fase de clasificación mediante a extracción e modelización de características representativas dos fallos e o deseño dun algoritmo de detección que combina técnicas de analítica de datos e intelixencia artificial. Con isto preténdese reducir os tempos de inspección, incrementar a trazabilidade do proceso e mellorar aínda máis a fiabilidade do produto final.
Dirección
VAZQUEZ CENDON, MARIA ELENA (Titoría)
VAZQUEZ CENDON, MARIA ELENA (Titoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vogal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vogal)
Comparativa de algoritmos de optimización global para estimación de parámetros en redes bioquímicas.
Autoría
A.P.R.
Máster Universitario en Matemática Industrial
A.P.R.
Máster Universitario en Matemática Industrial
Data da defensa
24.01.2025 10:00
24.01.2025 10:00
Resumo
Este estudo avalía o rendemento de varios algoritmos de optimización global para estimación de parámetros en redes bioquímicas, unha importante tarefa en Bioloxía de Computacional de Sistemas. Comparáronse métodos deterministas e estocásticos a partir dun conxunto de problemas de optimización estándar e catro problemas referentes no eido da Bioloxía de Sistemas (o conxunto de problemas BioPreDyn). O obxectivo é identificar o método máis efectivo e fiable para abordar os problemas de optimización non convexa que xorden frecuentemente nesta disciplina. O descubrimento máis importante do traballo é que, de entre as metaheurísticas comparadas, o método máis fiable á hora de abordar problemas de optimización relativos á Bioloxía de Sistemas foi o método de “enhanced Scatter Search” (eSS). Aínda que ningún algoritmo sobresaíu en todos os casos, eSS logrou a maior reducción no valor da función obxectivo de maneira consistente e demostrou ser o método máis robusto. Os métodos deterministas resultaron desaxeitados para problemas de grande escala, o cal destaca a súa limitación neste tipo de contextos. O estudo subliña a importancia da escolla axeitada dos algoritmos cos que resolver o problema de estimación de parámetros en redes bioquímicas. Ademais, enfatiza a eficacia de certas metaheurísticas ao abordar os problemas de optimización complexos que xorden na Bioloxía de Sistemas.
Este estudo avalía o rendemento de varios algoritmos de optimización global para estimación de parámetros en redes bioquímicas, unha importante tarefa en Bioloxía de Computacional de Sistemas. Comparáronse métodos deterministas e estocásticos a partir dun conxunto de problemas de optimización estándar e catro problemas referentes no eido da Bioloxía de Sistemas (o conxunto de problemas BioPreDyn). O obxectivo é identificar o método máis efectivo e fiable para abordar os problemas de optimización non convexa que xorden frecuentemente nesta disciplina. O descubrimento máis importante do traballo é que, de entre as metaheurísticas comparadas, o método máis fiable á hora de abordar problemas de optimización relativos á Bioloxía de Sistemas foi o método de “enhanced Scatter Search” (eSS). Aínda que ningún algoritmo sobresaíu en todos os casos, eSS logrou a maior reducción no valor da función obxectivo de maneira consistente e demostrou ser o método máis robusto. Os métodos deterministas resultaron desaxeitados para problemas de grande escala, o cal destaca a súa limitación neste tipo de contextos. O estudo subliña a importancia da escolla axeitada dos algoritmos cos que resolver o problema de estimación de parámetros en redes bioquímicas. Ademais, enfatiza a eficacia de certas metaheurísticas ao abordar os problemas de optimización complexos que xorden na Bioloxía de Sistemas.
Dirección
López Pouso, Óscar (Titoría)
López Pouso, Óscar (Titoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
Carretero Cerrajero, Manuel (Secretario/a)
ARREGUI ALVAREZ, IÑIGO (Vogal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
Carretero Cerrajero, Manuel (Secretario/a)
ARREGUI ALVAREZ, IÑIGO (Vogal)
Impacto do período de rebaixas na previsión de ventas do sector téxtil
Autoría
M.R.B.
Máster Universitario en Técnicas Estatísticas (2ªed)
M.R.B.
Máster Universitario en Técnicas Estatísticas (2ªed)
Data da defensa
18.06.2025 10:00
18.06.2025 10:00
Resumo
A xestión eficiente das rebaixas cobrou unha relevancia crecente na estratexia comercial do sector téxtil, onde o equilibrio entre a liquidez do stock e a rendibilidade é clave. Neste contexto, INDITEX consolidou o seu liderado non só pola súa capacidade de resposta áxil ao mercado, senón tamén polo seu dominio na xestión de inventario e fixación de prezos durante o período de rebaixas. Tradicionalmente programadas tras tempadas de alta demanda, as rebaixas permiten liberar espazo para novas coleccións, pero a súa planificación óptima presenta retos significativos. Xorde así a necesidade de anticipar o impacto que os distintos niveis de desconto poden ter sobre as vendas, especialmente nun entorno onde as marxes e a percepción do cliente son variables críticas. Este traballo aborda este desafío mediante unha análise exhaustiva de datos históricos e o desenvolvemento de modelos predictivos capaces de estimar o comportamento das vendas baixo diferentes escenarios de prezos. O principal obxectivo é proporcionar a INDITEX unha ferramenta que facilite a toma de decisións informadas sobre descontos, optimizando así o rendemento comercial durante as rebaixas e reforzando a súa posición estratéxica dentro do mercado global da moda.
A xestión eficiente das rebaixas cobrou unha relevancia crecente na estratexia comercial do sector téxtil, onde o equilibrio entre a liquidez do stock e a rendibilidade é clave. Neste contexto, INDITEX consolidou o seu liderado non só pola súa capacidade de resposta áxil ao mercado, senón tamén polo seu dominio na xestión de inventario e fixación de prezos durante o período de rebaixas. Tradicionalmente programadas tras tempadas de alta demanda, as rebaixas permiten liberar espazo para novas coleccións, pero a súa planificación óptima presenta retos significativos. Xorde así a necesidade de anticipar o impacto que os distintos niveis de desconto poden ter sobre as vendas, especialmente nun entorno onde as marxes e a percepción do cliente son variables críticas. Este traballo aborda este desafío mediante unha análise exhaustiva de datos históricos e o desenvolvemento de modelos predictivos capaces de estimar o comportamento das vendas baixo diferentes escenarios de prezos. O principal obxectivo é proporcionar a INDITEX unha ferramenta que facilite a toma de decisións informadas sobre descontos, optimizando así o rendemento comercial durante as rebaixas e reforzando a súa posición estratéxica dentro do mercado global da moda.
Dirección
AMEIJEIRAS ALONSO, JOSE (Titoría)
GINZO VILLAMAYOR, MARIA JOSE Cotitoría
AMEIJEIRAS ALONSO, JOSE (Titoría)
GINZO VILLAMAYOR, MARIA JOSE Cotitoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vogal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vogal)
Xogos estratéxicos: Xogos matriciais e a súa relación coa programación lineal
Autoría
A.R.O.
Máster Universitario en Técnicas Estatísticas (2ªed)
A.R.O.
Máster Universitario en Técnicas Estatísticas (2ªed)
Data da defensa
05.02.2025 11:30
05.02.2025 11:30
Resumo
Este Traballo Fin de Máster (TFM) explora a teoría de xogos, con énfase nos xogos estratéxicos e os xogos matriciais, e a súa relación coa programación lineal. A teoría de xogos, unha disciplina matemática que modela decisións estratéxicas entre axentes, analízase aquí desde unha perspectiva teórica e práctica, centrada nas interaccións competitivas e cooperativas. O estudo céntrase nos xogos matriciais, unha representación fundamental dos xogos estratéxicos, onde as estratexias e os pagos organízanse en forma de matriz. Mediante a programación lineal, abórdanse problemas de optimización asociados a estes xogos, como atopar estratexias mesturadas óptimas que maximicen os beneficios dos xogadores ou minimicen as súas perdas. O traballo inclúe exemplos prácticos, destacando a resolución dun xogo en forma matricial empregando o método do simplex, unha ferramenta poderosa da programación lineal. Entre os casos estudados, analízase un problema real relacionado con decisións baixo incerteza, amosando como a teoría de xogos e a programación lineal ofrecen solucións eficientes
Este Traballo Fin de Máster (TFM) explora a teoría de xogos, con énfase nos xogos estratéxicos e os xogos matriciais, e a súa relación coa programación lineal. A teoría de xogos, unha disciplina matemática que modela decisións estratéxicas entre axentes, analízase aquí desde unha perspectiva teórica e práctica, centrada nas interaccións competitivas e cooperativas. O estudo céntrase nos xogos matriciais, unha representación fundamental dos xogos estratéxicos, onde as estratexias e os pagos organízanse en forma de matriz. Mediante a programación lineal, abórdanse problemas de optimización asociados a estes xogos, como atopar estratexias mesturadas óptimas que maximicen os beneficios dos xogadores ou minimicen as súas perdas. O traballo inclúe exemplos prácticos, destacando a resolución dun xogo en forma matricial empregando o método do simplex, unha ferramenta poderosa da programación lineal. Entre os casos estudados, analízase un problema real relacionado con decisións baixo incerteza, amosando como a teoría de xogos e a programación lineal ofrecen solucións eficientes
Dirección
GARCIA JURADO, IGNACIO (Titoría)
GARCIA JURADO, IGNACIO (Titoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vogal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vogal)
Estudo econométrico dende un punto de vista social sobre a eficiencia da xestión da auga no sector público e privado
Autoría
P.S.G.
Máster Universitario en Técnicas Estatísticas (2ªed)
P.S.G.
Máster Universitario en Técnicas Estatísticas (2ªed)
Data da defensa
05.02.2025 09:00
05.02.2025 09:00
Resumo
Ao longo dos anos a elección entre unha xestión pública ou privada dos recursos hídricos foi, e segue sendo, motivo de debate en moitos países, a pesar das lexislacións particulares de cada un. Existindo argumentos a ambos lados da discusión, podemos dividilos en tres categorías fundamentais para elixir que administración ten un mellor comportamento: prezo da tarifa, calidade da auga e eficiencia da xestión. Neste traballo, faremos un resumo dalgunhas aportacións da literatura existente neste tema, facendo fincapé naquelas que basean as súas análises en España, pois serán de axuda para o noso caso particular. Ademais, centrarémonos na avaliación da eficiencia entre ambas xestións, empregando a Análise Envolvente de Datos. Así, tras unha breve descrición desta técnica e os seus principais modelos, aplicarémola ao noso caso: unha comparación da eficiencia entre estacións depuradoras de augas residuais (EDARs) segundo sexan xestionadas por entidades públicas ou pola privada Viaqua Gestión Integral De Aguas De Galicia, S.A.. Unha vez aplicados, poderemos comparar o funcionamento das EDARs en termos dunha medida de eficiencia e veremos cales das depuradoras terán un peor comportamento. Finalmente, realizando unha análise comparativa combinada coa técnica clúster de análise multivariante, poderemos agrupar as depuradoras en grupos con características similares e estudar cales delas son punto de referencia para as demais.
Ao longo dos anos a elección entre unha xestión pública ou privada dos recursos hídricos foi, e segue sendo, motivo de debate en moitos países, a pesar das lexislacións particulares de cada un. Existindo argumentos a ambos lados da discusión, podemos dividilos en tres categorías fundamentais para elixir que administración ten un mellor comportamento: prezo da tarifa, calidade da auga e eficiencia da xestión. Neste traballo, faremos un resumo dalgunhas aportacións da literatura existente neste tema, facendo fincapé naquelas que basean as súas análises en España, pois serán de axuda para o noso caso particular. Ademais, centrarémonos na avaliación da eficiencia entre ambas xestións, empregando a Análise Envolvente de Datos. Así, tras unha breve descrición desta técnica e os seus principais modelos, aplicarémola ao noso caso: unha comparación da eficiencia entre estacións depuradoras de augas residuais (EDARs) segundo sexan xestionadas por entidades públicas ou pola privada Viaqua Gestión Integral De Aguas De Galicia, S.A.. Unha vez aplicados, poderemos comparar o funcionamento das EDARs en termos dunha medida de eficiencia e veremos cales das depuradoras terán un peor comportamento. Finalmente, realizando unha análise comparativa combinada coa técnica clúster de análise multivariante, poderemos agrupar as depuradoras en grupos con características similares e estudar cales delas son punto de referencia para as demais.
Dirección
GINZO VILLAMAYOR, MARIA JOSE (Titoría)
SAAVEDRA NIEVES, ALEJANDRO Cotitoría
GINZO VILLAMAYOR, MARIA JOSE (Titoría)
SAAVEDRA NIEVES, ALEJANDRO Cotitoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vogal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vogal)