Evaluación del impacto en los costes de los diversos artículos en modelos cooperativos de inventario con múltiples agentes
Autoría
E.D.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
E.D.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.02.2025 10:30
05.02.2025 10:30
Resumen
El presente trabajo aborda el análisis de modelos de inventario deterministas en el contexto de la teoría de juegos cooperativos, explorando su aplicación a problemas de distribución de costes. Se presentan los conceptos fundamentales necesarios para el estudio, incluyendo una introducción a la teoría de juegos cooperativos, los juegos de utilidad transferible (TU) y sus principales soluciones, como el núcleo, el valor de Shapley y el valor de Owen. En el marco de los modelos de inventario, se analizan diferentes configuraciones del modelo EOQ (Economic Order Quantity), comenzando por el modelo básico determinista y extendiéndose a casos con múltiples artículos y agentes. Dos variantes clave serán examinadas: modelos con costes eximibles, que contemplan eximir a ciertas coaliciones de los costes fijos de pedido y modelos sin costes eximibles, que no lo contemplan. A lo largo del trabajo, se estudiará un ejemplo ilustrativo que destaca las implicaciones de los modelos y sus soluciones en la práctica. Además, se analizará cómo las diferentes reglas de distribución de costes afectan al reparto entre agentes o artículos, considerando tanto la ecuanimidad como la estabilidad del sistema.
El presente trabajo aborda el análisis de modelos de inventario deterministas en el contexto de la teoría de juegos cooperativos, explorando su aplicación a problemas de distribución de costes. Se presentan los conceptos fundamentales necesarios para el estudio, incluyendo una introducción a la teoría de juegos cooperativos, los juegos de utilidad transferible (TU) y sus principales soluciones, como el núcleo, el valor de Shapley y el valor de Owen. En el marco de los modelos de inventario, se analizan diferentes configuraciones del modelo EOQ (Economic Order Quantity), comenzando por el modelo básico determinista y extendiéndose a casos con múltiples artículos y agentes. Dos variantes clave serán examinadas: modelos con costes eximibles, que contemplan eximir a ciertas coaliciones de los costes fijos de pedido y modelos sin costes eximibles, que no lo contemplan. A lo largo del trabajo, se estudiará un ejemplo ilustrativo que destaca las implicaciones de los modelos y sus soluciones en la práctica. Además, se analizará cómo las diferentes reglas de distribución de costes afectan al reparto entre agentes o artículos, considerando tanto la ecuanimidad como la estabilidad del sistema.
Dirección
GARCIA JURADO, IGNACIO (Tutoría)
GARCIA JURADO, IGNACIO (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Certificando optimalidad global en problemas grandes de estimación de parámetros en sistemas dinámicos: Resolución global del problema 3SP
Autoría
M.F.F.D.D.
Máster Universitario en Técnicas Estadísticas (2ªed)
M.F.F.D.D.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
18.06.2025 12:15
18.06.2025 12:15
Resumen
Neste traballo presentamos unha resolución cunha garantía de optimalidade global dun problema reto e de gran tamaño de estimación de parámetros en sistemas dinámicos. A proposta baseáse na metodoloxía desenvolvida no noso traballo previo, recollido no artigo Parameter estimation in ODEs: assessing the potential of local and global solvers (De Dios et al., 2025, aceptado en Optimization and Engineering), e aplícase á resolución do problema 3SP, formulado por Moles et al. (2003). Segundo a revisión realizada, non consta que este problema fora abordado previamente cunha formulación completa e unha resolución que certifique optimalidade global. A metodoloxía está baseada na formulación do problema como un modelo de programación non lineal (NLP), resolto mediante técnicas de optimización matemática implementadas en AMPL e executadas con solvers globais deterministas. Esta aproximación permite obter solucións con garantía de optimalidade global nun contexto onde tradicionalmente se empregaron métodos heurísticos. Os resultados amosan que é posible abordar problemas de gran tamaño mediante técnicas de optimización global baseadas en AMPL e solvers deterministas actuais, o que cuestiona as limitacións asumidas previamente na literatura e abre a porta á resolución de problemas aínda máis complexos.
Neste traballo presentamos unha resolución cunha garantía de optimalidade global dun problema reto e de gran tamaño de estimación de parámetros en sistemas dinámicos. A proposta baseáse na metodoloxía desenvolvida no noso traballo previo, recollido no artigo Parameter estimation in ODEs: assessing the potential of local and global solvers (De Dios et al., 2025, aceptado en Optimization and Engineering), e aplícase á resolución do problema 3SP, formulado por Moles et al. (2003). Segundo a revisión realizada, non consta que este problema fora abordado previamente cunha formulación completa e unha resolución que certifique optimalidade global. A metodoloxía está baseada na formulación do problema como un modelo de programación non lineal (NLP), resolto mediante técnicas de optimización matemática implementadas en AMPL e executadas con solvers globais deterministas. Esta aproximación permite obter solucións con garantía de optimalidade global nun contexto onde tradicionalmente se empregaron métodos heurísticos. Os resultados amosan que é posible abordar problemas de gran tamaño mediante técnicas de optimización global baseadas en AMPL e solvers deterministas actuais, o que cuestiona as limitacións asumidas previamente na literatura e abre a porta á resolución de problemas aínda máis complexos.
Dirección
GONZALEZ DIAZ, JULIO (Tutoría)
GONZALEZ DIAZ, JULIO (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Valoración con modelos de volatilidad rugosa en mercados de commodities
Autoría
H.F.C.
Máster Universitario en Matemática Industrial
H.F.C.
Máster Universitario en Matemática Industrial
Fecha de la defensa
09.07.2025 12:00
09.07.2025 12:00
Resumen
El objetivo de este Proyecto fin de Máster es investigar las aplicaciones del modelo de Bergomi rugoso (rBergomi) a la valoración de opciones sobre futuros en commodities (materias primas). El modelo rBergomi es un modelo de volatilidad estocástica impulsado por un movimiento Browniano fraccionario. Este proceso ha sido estudiado ampliamente en el contexto de mercados de valores, sin embargo, la literatura sobre su aplicación al mercado de commodities es escasa. En primer lugar, revisamos los fundamentos matemáticos de la valoración de activos financieros y del modelo rBergomi, analizando sus ventajas y desventajas en comparación con modelos de volatilidad estocástica clásicos. A continuación, proponemos un modelo novedoso para valorar opciones sobre futuros en commodities que implementa la dinámica del modelo rBergomi. Finalmente, presentamos un esquema numérico eficiente para la simulación del modelo y lo calibramos con datos reales del mercado de petróleo crudo WTI.
El objetivo de este Proyecto fin de Máster es investigar las aplicaciones del modelo de Bergomi rugoso (rBergomi) a la valoración de opciones sobre futuros en commodities (materias primas). El modelo rBergomi es un modelo de volatilidad estocástica impulsado por un movimiento Browniano fraccionario. Este proceso ha sido estudiado ampliamente en el contexto de mercados de valores, sin embargo, la literatura sobre su aplicación al mercado de commodities es escasa. En primer lugar, revisamos los fundamentos matemáticos de la valoración de activos financieros y del modelo rBergomi, analizando sus ventajas y desventajas en comparación con modelos de volatilidad estocástica clásicos. A continuación, proponemos un modelo novedoso para valorar opciones sobre futuros en commodities que implementa la dinámica del modelo rBergomi. Finalmente, presentamos un esquema numérico eficiente para la simulación del modelo y lo calibramos con datos reales del mercado de petróleo crudo WTI.
Dirección
Vázquez Cendón, Carlos (Tutoría)
Vázquez Cendón, Carlos (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vocal)
Simulación de las condiciones de evaporación, transferencia y condensación en un reactor.
Autoría
J.G.P.
Máster Universitario en Matemática Industrial
J.G.P.
Máster Universitario en Matemática Industrial
Fecha de la defensa
09.07.2025 10:00
09.07.2025 10:00
Resumen
Este proyecto fin de máster se centra en la simulación de un proceso in- dustrial innovador impulsado por la empresa Ferroglobe. El proceso se lleva a cabo en un reactor operando al vacío, en el que se aplica un campo eléctrico para generar calor. Este calentamiento permite alcanzar las condiciones necesarias para que los reactivos presentes en su interior generen un producto metalúrgico de alto valor. El producto se forma en fase gaseosa, se transporta a lo largo del reactor y se condensa en su parte superior, donde se encuentra ubicado un condensador. El objetivo principal del proyecto es comprender y optimizar este proceso mediante técnicas de modelización matemática y simulación numérica. Todas las simulaciones se han llevado a cabo utilizando el software ANSYS Fluent que se imparte en el Máster en Matemática Industrial. Con la simulación del reactor, la empresa podrá conocer mejor el funcionamiento del mismo, lo que facilitará la evaluación de modificaciones geométricas, la identificación de zonas con riesgo de condensación y el escalado del proceso, reduciendo la necesidad de realizar ensayos experimentales.
Este proyecto fin de máster se centra en la simulación de un proceso in- dustrial innovador impulsado por la empresa Ferroglobe. El proceso se lleva a cabo en un reactor operando al vacío, en el que se aplica un campo eléctrico para generar calor. Este calentamiento permite alcanzar las condiciones necesarias para que los reactivos presentes en su interior generen un producto metalúrgico de alto valor. El producto se forma en fase gaseosa, se transporta a lo largo del reactor y se condensa en su parte superior, donde se encuentra ubicado un condensador. El objetivo principal del proyecto es comprender y optimizar este proceso mediante técnicas de modelización matemática y simulación numérica. Todas las simulaciones se han llevado a cabo utilizando el software ANSYS Fluent que se imparte en el Máster en Matemática Industrial. Con la simulación del reactor, la empresa podrá conocer mejor el funcionamiento del mismo, lo que facilitará la evaluación de modificaciones geométricas, la identificación de zonas con riesgo de condensación y el escalado del proceso, reduciendo la necesidad de realizar ensayos experimentales.
Dirección
GOMEZ PEDREIRA, MARIA DOLORES (Tutoría)
GOMEZ PEDREIRA, MARIA DOLORES (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vocal)
Estimación de filamentos
Autoría
H.G.V.
Máster Universitario en Técnicas Estadísticas (2ªed)
H.G.V.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.02.2025 09:30
05.02.2025 09:30
Resumen
La estimación de variedades permite abordar de modo no lineal y no paramétrico el problema de reducción de la dimensión al trabajar con datos en un espacio euclídeo que realmente se distribuyen en (o cerca de) una variedad de dimensión menor, proporcionando una mejor comprensión sobre su estructura subyacente. En el caso particular en el que la variedad es una curva, el problema se denomina estimación de filamentos. El objetivo de este trabajo es proponer un nuevo estimador de filamentos y probar que alcanza la tasa óptima en el sentido minimax de convergencia en distancia de Hausdorff, salvo factor logarítmico, cuando el espacio ambiente es el plano. Primero se realiza una presentación de conceptos, condiciones de forma y estimadores empleados en estimación de conjuntos. A continuación, se revisa un estimador, el llamado estimador EDT (Euclidean Distance Transform), en un modelo de estimación de filamentos con ruido aditivo. Además, se presenta un modelo de ruido perpendicular, en un contexto más general de estimación de variedades, en el que se conoce la tasa minimax. Finalmente, se propone el nuevo estimador, denominado estimador EDT con envoltura r-convexa, y se prueba su tasa de convergencia. También se estudia la posible selección del parámetro de forma r a partir de los datos sin afectar a la tasa de convergencia. El estimador propuesto se aplica a un problema de estimación del contorno de secciones de troncos de árboles en inventario forestal.
La estimación de variedades permite abordar de modo no lineal y no paramétrico el problema de reducción de la dimensión al trabajar con datos en un espacio euclídeo que realmente se distribuyen en (o cerca de) una variedad de dimensión menor, proporcionando una mejor comprensión sobre su estructura subyacente. En el caso particular en el que la variedad es una curva, el problema se denomina estimación de filamentos. El objetivo de este trabajo es proponer un nuevo estimador de filamentos y probar que alcanza la tasa óptima en el sentido minimax de convergencia en distancia de Hausdorff, salvo factor logarítmico, cuando el espacio ambiente es el plano. Primero se realiza una presentación de conceptos, condiciones de forma y estimadores empleados en estimación de conjuntos. A continuación, se revisa un estimador, el llamado estimador EDT (Euclidean Distance Transform), en un modelo de estimación de filamentos con ruido aditivo. Además, se presenta un modelo de ruido perpendicular, en un contexto más general de estimación de variedades, en el que se conoce la tasa minimax. Finalmente, se propone el nuevo estimador, denominado estimador EDT con envoltura r-convexa, y se prueba su tasa de convergencia. También se estudia la posible selección del parámetro de forma r a partir de los datos sin afectar a la tasa de convergencia. El estimador propuesto se aplica a un problema de estimación del contorno de secciones de troncos de árboles en inventario forestal.
Dirección
PATEIRO LOPEZ, BEATRIZ (Tutoría)
RODRIGUEZ CASAL, ALBERTO Cotutoría
PATEIRO LOPEZ, BEATRIZ (Tutoría)
RODRIGUEZ CASAL, ALBERTO Cotutoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
Desarrollo de Modelos de Clasificación Automática de Documentos Digitales usando Transformer
Autoría
M.G.H.S.
Máster Universitario en Técnicas Estadísticas (2ªed)
M.G.H.S.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.02.2025 09:45
05.02.2025 09:45
Resumen
La gestión de grandes volúmenes de documentos representa un desafío significativo para las organizaciones, ya que clasificarlos y procesarlos de manera manual resulta ineficiente y supone un desaprovechamiento de recursos. Este enfoque tradicional, aunque necesario en ciertos contextos, limita la capacidad para acceder rápidamente a la información y utilizarla de manera efectiva. En respuesta a esta situación, existen diversas soluciones tecnológicas que están evolucionando para facilitar la organización y el acceso eficiente a los documentos. La primera parte de este trabajo presenta el desarrollo de un modelo de clasificación de texto basado en Transformer, una arquitectura avanzada de procesamiento de lenguaje natural (PNL). El modelo automatiza el proceso de clasificación de documentos, lo que no solo mejora la eficiencia en la organización de los mismos, sino que también permite su aprovechamiento posterior de manera más ágil y efectiva. Este enfoque, basado en modelos preentrenados como BERT, aprovecha su capacidad para adaptarse a tareas específicas, lo que facilita la clasificación eficiente de grandes volúmenes de datos y mejora el acceso rápido y preciso a la información relevante. De este modo, se contribuye a la optimización de recursos y a una mejor gestión de la información dentro de la organización. Para validar la efectividad del modelo, se hicieron diversas comparaciones con clasificadores tradicionales como kNN, Naïve Bayes y Random Forest, utilizando los mismos datos de entrenamiento. En todos los casos, el modelo basado en BERT demostró una capacidad de generalización superior, mostrando un desempeño notable al clasificar documentos sobre temas que ninguno de los clasificadores había visto durante la etapa de entrenamiento y superando a las técnicas tradicionales en los conjuntos de datos analizados. Esto establece su ventaja para adaptarse a nuevos contextos y tipos de documentos sin requerir una reestructuración o ajuste significativo del modelo. La arquitectura de BERT le permite comprender el contexto y significado profundo del texto, lo que le otorga flexibilidad para manejar una amplia variedad de tareas, incluso cuando se enfrenta a datos que no se alinean perfectamente con los ejemplos usados previamente durante su entrenamiento. Esta capacidad de adaptación convierte a BERT en una solución ideal para entornos donde los datos y las necesidades cambian constantemente, permitiendo así una mayor eficiencia y precisión en la clasificación y recuperación de información. La segunda parte de este trabajo se centra en el desarrollo de un modelo para la recuperación y generación de información. Este modelo constituye una primera propuesta orientada a facilitar el acceso a información contenida en diversas fuentes, lo que añade un valor considerable a los procesos operativos de la organización, optimizando el uso de los datos disponibles para la toma de decisiones. El modelo ha sido evaluado utilizando un conjunto de datos extraído de la plataforma tecnológica Huggingface. Los resultados muestran que las respuestas generadas alcanzaron una similitud coseno superior al 60% con respecto a las respuestas esperadas cuando el contexto proporcionado tenía relación con la pregunta, lo que sugiere una alta correspondencia en términos de contenido. Esto valida la capacidad del modelo para generar respuestas coherentes y relevantes en escenarios donde el contexto es clave.
La gestión de grandes volúmenes de documentos representa un desafío significativo para las organizaciones, ya que clasificarlos y procesarlos de manera manual resulta ineficiente y supone un desaprovechamiento de recursos. Este enfoque tradicional, aunque necesario en ciertos contextos, limita la capacidad para acceder rápidamente a la información y utilizarla de manera efectiva. En respuesta a esta situación, existen diversas soluciones tecnológicas que están evolucionando para facilitar la organización y el acceso eficiente a los documentos. La primera parte de este trabajo presenta el desarrollo de un modelo de clasificación de texto basado en Transformer, una arquitectura avanzada de procesamiento de lenguaje natural (PNL). El modelo automatiza el proceso de clasificación de documentos, lo que no solo mejora la eficiencia en la organización de los mismos, sino que también permite su aprovechamiento posterior de manera más ágil y efectiva. Este enfoque, basado en modelos preentrenados como BERT, aprovecha su capacidad para adaptarse a tareas específicas, lo que facilita la clasificación eficiente de grandes volúmenes de datos y mejora el acceso rápido y preciso a la información relevante. De este modo, se contribuye a la optimización de recursos y a una mejor gestión de la información dentro de la organización. Para validar la efectividad del modelo, se hicieron diversas comparaciones con clasificadores tradicionales como kNN, Naïve Bayes y Random Forest, utilizando los mismos datos de entrenamiento. En todos los casos, el modelo basado en BERT demostró una capacidad de generalización superior, mostrando un desempeño notable al clasificar documentos sobre temas que ninguno de los clasificadores había visto durante la etapa de entrenamiento y superando a las técnicas tradicionales en los conjuntos de datos analizados. Esto establece su ventaja para adaptarse a nuevos contextos y tipos de documentos sin requerir una reestructuración o ajuste significativo del modelo. La arquitectura de BERT le permite comprender el contexto y significado profundo del texto, lo que le otorga flexibilidad para manejar una amplia variedad de tareas, incluso cuando se enfrenta a datos que no se alinean perfectamente con los ejemplos usados previamente durante su entrenamiento. Esta capacidad de adaptación convierte a BERT en una solución ideal para entornos donde los datos y las necesidades cambian constantemente, permitiendo así una mayor eficiencia y precisión en la clasificación y recuperación de información. La segunda parte de este trabajo se centra en el desarrollo de un modelo para la recuperación y generación de información. Este modelo constituye una primera propuesta orientada a facilitar el acceso a información contenida en diversas fuentes, lo que añade un valor considerable a los procesos operativos de la organización, optimizando el uso de los datos disponibles para la toma de decisiones. El modelo ha sido evaluado utilizando un conjunto de datos extraído de la plataforma tecnológica Huggingface. Los resultados muestran que las respuestas generadas alcanzaron una similitud coseno superior al 60% con respecto a las respuestas esperadas cuando el contexto proporcionado tenía relación con la pregunta, lo que sugiere una alta correspondencia en términos de contenido. Esto valida la capacidad del modelo para generar respuestas coherentes y relevantes en escenarios donde el contexto es clave.
Dirección
LÓPEZ TABOADA, GUILLERMO (Tutoría)
LÓPEZ TABOADA, GUILLERMO (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Construcción de un indicador adelantado de la tasa de paro
Autoría
L.M.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
L.M.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
18.06.2025 10:45
18.06.2025 10:45
Resumen
La tasa de paro es una variable clave para analizar la evolución del mercado laboral en España, pero se publica trimestralmente con un desfase de mes y medio tras el fin del trimestre en cuestión. Por ello, desde el Departamento de Planificación Estratégica y PMO de ABANCA se plantea la construcción de un indicador adelantado de la tasa de paro, estimado mensualmente a partir de los datos de afiliación a la Seguridad Social y de paro registrado, disponibles a principios de cada mes. Para ello, mediante modelos de desagregación temporal, se mensualizan los datos de ocupados y parados usando las series mensuales de las afiliaciones y del paro registrado. A partir de estas estimaciones, se calcula una tasa de paro mensual que se convierte luego a frecuencia trimestral, permitiendo así su comparación con el dato oficial de la Encuesta de Población Activa (EPA). Además, se incorpora una metodología de corrección de estacionalidad y efectos de calendario, esencial para el análisis de series temporales, ya que las series oficiales no están corregidas del impacto de estos factores. Una vez cancelados estos efectos, es factible un análisis más detallado y comparativas que, sin este ajuste, serían inadecuadas.
La tasa de paro es una variable clave para analizar la evolución del mercado laboral en España, pero se publica trimestralmente con un desfase de mes y medio tras el fin del trimestre en cuestión. Por ello, desde el Departamento de Planificación Estratégica y PMO de ABANCA se plantea la construcción de un indicador adelantado de la tasa de paro, estimado mensualmente a partir de los datos de afiliación a la Seguridad Social y de paro registrado, disponibles a principios de cada mes. Para ello, mediante modelos de desagregación temporal, se mensualizan los datos de ocupados y parados usando las series mensuales de las afiliaciones y del paro registrado. A partir de estas estimaciones, se calcula una tasa de paro mensual que se convierte luego a frecuencia trimestral, permitiendo así su comparación con el dato oficial de la Encuesta de Población Activa (EPA). Además, se incorpora una metodología de corrección de estacionalidad y efectos de calendario, esencial para el análisis de series temporales, ya que las series oficiales no están corregidas del impacto de estos factores. Una vez cancelados estos efectos, es factible un análisis más detallado y comparativas que, sin este ajuste, serían inadecuadas.
Dirección
Vilar Fernández, José Antonio (Tutoría)
Vilar Fernández, José Antonio (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Exploración de métodos para estimar la incertidumbre de los descartes pesqueros utilizando el formato RDBES
Autoría
J.M.M.C.
Máster Universitario en Técnicas Estadísticas (2ªed)
J.M.M.C.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
18.06.2025 11:45
18.06.2025 11:45
Resumen
La estimación precisa de los descartes es esencial para una gestión eficaz de las poblaciones pesqueras, ya que los datos de descartes forman parte de la mortalidad por pesca. No hacerlo podría comprometer seriamente la sostenibilidad a largo plazo de los recursos pesqueros. Su precisión se ve afectada por diversos factores, desde el diseño del muestreo hasta el proceso de estimación. Expertos en muestreo han expresado su preocupación por la escasez de indicadores de calidad de los datos en las estimaciones de descartes, especialmente cuando se deben utilizar datos de métodos de muestreo no probabilísticos como sustitutos de datos probabilísticos. Como estudio de caso, utilizamos datos del programa de observadores a bordo del IEO-CSIC de la flota de arrastre española que captura peces demersales en la zona 7 del ICES. El muestreo sigue un diseño en varias etapas, desde la selección de los buques hasta la recogida de la muestra de descartes durante la maniobra de pesca. Para obtener las estimaciones más precisas de los descartes, es necesario especificar correctamente los métodos sucesivos de selección de las unidades de muestreo, así como parametrizar adecuadamente el cálculo de la varianza en cada etapa del muestreo. Para ello, se empleó un diseño de muestreo en dos etapas. En la primera etapa, las mareas fueron seleccionadas mediante muestreo aleatorio simple sin reemplazo, mientras que en la segunda etapa, las operaciones de pesca se eligieron utilizando muestreo sistemático. Para la estimación de la varianza, se adoptaron dos enfoques complementarios. En primer lugar, se utilizó la estimación clásica correspondiente al SRSWOR y, en el caso del SYSS, se compararon las aproximaciones obtenidas mediante el método de diferencias sucesivas y la estimación basada en el supuesto de SRSWOR. En segundo lugar, se implementaron técnicas de remuestreo, particularmente el método Bootstrap, con el fin de evaluar la incertidumbre de manera más flexible y robusta.
La estimación precisa de los descartes es esencial para una gestión eficaz de las poblaciones pesqueras, ya que los datos de descartes forman parte de la mortalidad por pesca. No hacerlo podría comprometer seriamente la sostenibilidad a largo plazo de los recursos pesqueros. Su precisión se ve afectada por diversos factores, desde el diseño del muestreo hasta el proceso de estimación. Expertos en muestreo han expresado su preocupación por la escasez de indicadores de calidad de los datos en las estimaciones de descartes, especialmente cuando se deben utilizar datos de métodos de muestreo no probabilísticos como sustitutos de datos probabilísticos. Como estudio de caso, utilizamos datos del programa de observadores a bordo del IEO-CSIC de la flota de arrastre española que captura peces demersales en la zona 7 del ICES. El muestreo sigue un diseño en varias etapas, desde la selección de los buques hasta la recogida de la muestra de descartes durante la maniobra de pesca. Para obtener las estimaciones más precisas de los descartes, es necesario especificar correctamente los métodos sucesivos de selección de las unidades de muestreo, así como parametrizar adecuadamente el cálculo de la varianza en cada etapa del muestreo. Para ello, se empleó un diseño de muestreo en dos etapas. En la primera etapa, las mareas fueron seleccionadas mediante muestreo aleatorio simple sin reemplazo, mientras que en la segunda etapa, las operaciones de pesca se eligieron utilizando muestreo sistemático. Para la estimación de la varianza, se adoptaron dos enfoques complementarios. En primer lugar, se utilizó la estimación clásica correspondiente al SRSWOR y, en el caso del SYSS, se compararon las aproximaciones obtenidas mediante el método de diferencias sucesivas y la estimación basada en el supuesto de SRSWOR. En segundo lugar, se implementaron técnicas de remuestreo, particularmente el método Bootstrap, con el fin de evaluar la incertidumbre de manera más flexible y robusta.
Dirección
Mosquera Rodríguez, Manuel Alfredo (Tutoría)
Mosquera Rodríguez, Manuel Alfredo (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
SorterAssignmentOptimization
Autoría
A.M.A.
Máster Universitario en Técnicas Estadísticas (2ªed)
A.M.A.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
18.06.2025 09:45
18.06.2025 09:45
Resumen
Este trabajo busca mejorar la eficiencia de un clasificador de almacén del sector textil mediante la asignación óptima de tareas a sus trabajadores. Diversas prendas son introducidas en el sorter desde el almacén, proceso donde se distinguen dos roles de trabajo. Al llegar a un destino concreto, la ropa cae en la caja que se encuentra debajo. Tras llenarse, las cajas son evacuadas por humanos, con otros dos roles de trabajo posibles. El problema consistirá en decidir cuántas personas ocuparán cada uno de los cuatro roles de trabajo, buscando que la demanda, generada por las necesidades de un conjunto de tiendas, se satisfaga en el menor tiempo posible. Este texto describe en profundidad el problema y formula un modelo de programación lineal entera para resolverlo. Tras comprobar que este no será capaz de resolver instancias de tamaño realista, y apreciar que el número total de asignaciones trabajador-rol es mucho menor de lo esperado, se construye un simulador que recree más fielmente el sorter y evalúe las posibles asignaciones, devolviendo la mejor de ellas como solución óptima.
Este trabajo busca mejorar la eficiencia de un clasificador de almacén del sector textil mediante la asignación óptima de tareas a sus trabajadores. Diversas prendas son introducidas en el sorter desde el almacén, proceso donde se distinguen dos roles de trabajo. Al llegar a un destino concreto, la ropa cae en la caja que se encuentra debajo. Tras llenarse, las cajas son evacuadas por humanos, con otros dos roles de trabajo posibles. El problema consistirá en decidir cuántas personas ocuparán cada uno de los cuatro roles de trabajo, buscando que la demanda, generada por las necesidades de un conjunto de tiendas, se satisfaga en el menor tiempo posible. Este texto describe en profundidad el problema y formula un modelo de programación lineal entera para resolverlo. Tras comprobar que este no será capaz de resolver instancias de tamaño realista, y apreciar que el número total de asignaciones trabajador-rol es mucho menor de lo esperado, se construye un simulador que recree más fielmente el sorter y evalúe las posibles asignaciones, devolviendo la mejor de ellas como solución óptima.
Dirección
GONZALEZ DIAZ, JULIO (Tutoría)
GONZALEZ DIAZ, JULIO (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
Automatización del proceso de detección de fallos en Test de Hornos de boyas
Autoría
A.G.P.M.
Máster Universitario en Matemática Industrial
A.G.P.M.
Máster Universitario en Matemática Industrial
Fecha de la defensa
09.07.2025 12:30
09.07.2025 12:30
Resumen
Marine Instruments es una empresa líder en el diseño y la fabricación de equipos electrónicos para entornos marinos. Su prestigio se fundamenta en la alta fiabilidad de sus productos, garantizada por un riguroso proceso de producción que concluye con un exhaustivo control de calidad. En el caso de las boyas, dicho control incluye un “test” en horno: las placas de circuito impreso (PCB) se someten a 60 grados mientras ejecutan un programa de prueba estandarizado y se registra en continuo su consumo eléctrico. Actualmente, la validación se realiza de forma manual mediante la inspección visual de las curvas de consumo para identificar posibles anomalías. Este trabajo propone automatizar esa fase de clasificación mediante la extracción y modelización de rasgos característicos de los fallos y el diseño de un algoritmo de detección que combina técnicas de analítica de datos e inteligencia artificial. Con ello se persigue reducir tiempos de inspección, incrementar la trazabilidad del proceso y elevar aún más la fiabilidad del producto final.
Marine Instruments es una empresa líder en el diseño y la fabricación de equipos electrónicos para entornos marinos. Su prestigio se fundamenta en la alta fiabilidad de sus productos, garantizada por un riguroso proceso de producción que concluye con un exhaustivo control de calidad. En el caso de las boyas, dicho control incluye un “test” en horno: las placas de circuito impreso (PCB) se someten a 60 grados mientras ejecutan un programa de prueba estandarizado y se registra en continuo su consumo eléctrico. Actualmente, la validación se realiza de forma manual mediante la inspección visual de las curvas de consumo para identificar posibles anomalías. Este trabajo propone automatizar esa fase de clasificación mediante la extracción y modelización de rasgos característicos de los fallos y el diseño de un algoritmo de detección que combina técnicas de analítica de datos e inteligencia artificial. Con ello se persigue reducir tiempos de inspección, incrementar la trazabilidad del proceso y elevar aún más la fiabilidad del producto final.
Dirección
VAZQUEZ CENDON, MARIA ELENA (Tutoría)
VAZQUEZ CENDON, MARIA ELENA (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vocal)
Comparativa de algoritmos de optimización global para estimación de parámetros en redes bioquímicas.
Autoría
A.P.R.
Máster Universitario en Matemática Industrial
A.P.R.
Máster Universitario en Matemática Industrial
Fecha de la defensa
24.01.2025 10:00
24.01.2025 10:00
Resumen
Este estudio evalúa el rendimiento de varios algoritmos de optimización global para estimación de parámetros en redes bioquímicas, una importante tarea en Biología Computacional de Sistemas. Se han comparado métodos deterministas y estocásticos a partir de un conjunto de problemas de optimización estándar y cuatro problemas referentes en el ámbito de la Biología de Sistemas (el conjunto de problemas BioPreDyn). El objetivo es identidicar el método más efectivo y fiable para abordar los problemas de optimización no convexa que surgen frecuentemente en este campo. El descubrimiento más importante del trabajo es que, de entre las metaheurísticas comparadas, el método más fiable a la hora de abordar problemas de optimización relativos a la Biología de Sistemas ha sido el método de “enhanced Scatter Search” (eSS). Aunque ningún algoritmo ha sobresalido en todos los casos, eSS logró la mayor reducción en el valor de la función objetivo de manera consistente y demostró ser el método más robusto. Los métodos deterministas resultaron inadecuados para problemas de gran escala, lo que destaca su limitación en este tipo de contextos. El estudio subraya la importancia de escoger adecuadamente los algoritmos con que resolver el problema de estimación de parámetros en redes bioquímicas. Además, enfatiza la eficacia de ciertas metaheurísticas al abordar los problemas de optimización complejos que surgen en la Biología de Sistemas.
Este estudio evalúa el rendimiento de varios algoritmos de optimización global para estimación de parámetros en redes bioquímicas, una importante tarea en Biología Computacional de Sistemas. Se han comparado métodos deterministas y estocásticos a partir de un conjunto de problemas de optimización estándar y cuatro problemas referentes en el ámbito de la Biología de Sistemas (el conjunto de problemas BioPreDyn). El objetivo es identidicar el método más efectivo y fiable para abordar los problemas de optimización no convexa que surgen frecuentemente en este campo. El descubrimiento más importante del trabajo es que, de entre las metaheurísticas comparadas, el método más fiable a la hora de abordar problemas de optimización relativos a la Biología de Sistemas ha sido el método de “enhanced Scatter Search” (eSS). Aunque ningún algoritmo ha sobresalido en todos los casos, eSS logró la mayor reducción en el valor de la función objetivo de manera consistente y demostró ser el método más robusto. Los métodos deterministas resultaron inadecuados para problemas de gran escala, lo que destaca su limitación en este tipo de contextos. El estudio subraya la importancia de escoger adecuadamente los algoritmos con que resolver el problema de estimación de parámetros en redes bioquímicas. Además, enfatiza la eficacia de ciertas metaheurísticas al abordar los problemas de optimización complejos que surgen en la Biología de Sistemas.
Dirección
López Pouso, Óscar (Tutoría)
López Pouso, Óscar (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
Carretero Cerrajero, Manuel (Secretario/a)
ARREGUI ALVAREZ, IÑIGO (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
Carretero Cerrajero, Manuel (Secretario/a)
ARREGUI ALVAREZ, IÑIGO (Vocal)
Impacto del periodo de rebajas en la previsión de ventas del sector textil
Autoría
M.R.B.
Máster Universitario en Técnicas Estadísticas (2ªed)
M.R.B.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
18.06.2025 10:00
18.06.2025 10:00
Resumen
La gestión eficiente de las rebajas ha cobrado una relevancia creciente en la estrategia comercial del sector textil, donde el equilibrio entre liquidez de stock y rentabilidad es clave. En este contexto, INDITEX ha consolidado su liderazgo no solo por su capacidad de respuesta ágil al mercado, sino también por su dominio en la gestión de inventario y fijación de precios durante el periodo de rebajas. Tradicionalmente programadas tras temporadas de alta demanda, las rebajas permiten liberar espacio para nuevas colecciones, pero su planificación óptima plantea retos significativos. Surge así la necesidad de anticipar el impacto que los distintos niveles de descuento pueden tener sobre las ventas, especialmente en un entorno donde los márgenes y la percepción del cliente son variables críticas. Este trabajo aborda este desafío mediante un análisis exhaustivo de datos históricos y el desarrollo de modelos predictivos capaces de estimar el comportamiento de las ventas bajo diferentes escenarios de precios. El principal objetivo es proporcionar a INDITEX una herramienta que facilite la toma de decisiones informadas sobre descuentos, optimizando así el rendimiento comercial durante las rebajas y reforzando su posición estratégica dentro del mercado global de la moda.
La gestión eficiente de las rebajas ha cobrado una relevancia creciente en la estrategia comercial del sector textil, donde el equilibrio entre liquidez de stock y rentabilidad es clave. En este contexto, INDITEX ha consolidado su liderazgo no solo por su capacidad de respuesta ágil al mercado, sino también por su dominio en la gestión de inventario y fijación de precios durante el periodo de rebajas. Tradicionalmente programadas tras temporadas de alta demanda, las rebajas permiten liberar espacio para nuevas colecciones, pero su planificación óptima plantea retos significativos. Surge así la necesidad de anticipar el impacto que los distintos niveles de descuento pueden tener sobre las ventas, especialmente en un entorno donde los márgenes y la percepción del cliente son variables críticas. Este trabajo aborda este desafío mediante un análisis exhaustivo de datos históricos y el desarrollo de modelos predictivos capaces de estimar el comportamiento de las ventas bajo diferentes escenarios de precios. El principal objetivo es proporcionar a INDITEX una herramienta que facilite la toma de decisiones informadas sobre descuentos, optimizando así el rendimiento comercial durante las rebajas y reforzando su posición estratégica dentro del mercado global de la moda.
Dirección
AMEIJEIRAS ALONSO, JOSE (Tutoría)
GINZO VILLAMAYOR, MARIA JOSE Cotutoría
AMEIJEIRAS ALONSO, JOSE (Tutoría)
GINZO VILLAMAYOR, MARIA JOSE Cotutoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Juegos estratégicos: Juegos matriciales y su relación con la programación lineal
Autoría
A.R.O.
Máster Universitario en Técnicas Estadísticas (2ªed)
A.R.O.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.02.2025 11:30
05.02.2025 11:30
Resumen
Este Trabajo Fin de Máster (TFM) explora la teoría de juegos, con énfasis en los juegos estratégicos y los juegos matriciales, y su relación con la programación lineal. La teoría de juegos, una disciplina matemática que modela decisiones estratégicas entre agentes, se analiza aquí desde una perspectiva teórica y práctica, enfocándose en las interacciones competitivas y cooperativas. El estudio se centra en los juegos matriciales, una representación fundamental de los juegos estratégicos, donde las estrategias y los pagos se organizan en forma de matriz. Mediante programación lineal, se abordan problemas de optimización asociados a estos juegos, como encontrar estrategias mixtas óptimas que maximicen las ganancias de los jugadores o minimicen sus pérdidas. El trabajo incluye ejemplos prácticos, destacando la resolución de un juego en forma matricial utilizando el método del simplex, una herramienta poderosa de la programación lineal. Entre los casos estudiados, se analiza un problema real relacionado con decisiones bajo incertidumbre, mostrando cómo la teoría de juegos y la programación lineal ofrecen soluciones eficientes.
Este Trabajo Fin de Máster (TFM) explora la teoría de juegos, con énfasis en los juegos estratégicos y los juegos matriciales, y su relación con la programación lineal. La teoría de juegos, una disciplina matemática que modela decisiones estratégicas entre agentes, se analiza aquí desde una perspectiva teórica y práctica, enfocándose en las interacciones competitivas y cooperativas. El estudio se centra en los juegos matriciales, una representación fundamental de los juegos estratégicos, donde las estrategias y los pagos se organizan en forma de matriz. Mediante programación lineal, se abordan problemas de optimización asociados a estos juegos, como encontrar estrategias mixtas óptimas que maximicen las ganancias de los jugadores o minimicen sus pérdidas. El trabajo incluye ejemplos prácticos, destacando la resolución de un juego en forma matricial utilizando el método del simplex, una herramienta poderosa de la programación lineal. Entre los casos estudiados, se analiza un problema real relacionado con decisiones bajo incertidumbre, mostrando cómo la teoría de juegos y la programación lineal ofrecen soluciones eficientes.
Dirección
GARCIA JURADO, IGNACIO (Tutoría)
GARCIA JURADO, IGNACIO (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
Estudio econométrico desde un punto de vista social sobre la eficiencia de la gestión del agua en el sector público y privado
Autoría
P.S.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
P.S.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.02.2025 09:00
05.02.2025 09:00
Resumen
A lo largo de los años la elección entre una gestión pública y privada de los recursos hídricos fue, y sigue siendo, motivo de debate en muchos países, a pesar de las legislaciones particulares de cada uno. Existiendo argumentos a ambos lados de la discusión, podemos dividirlos en tres categorías fundamentales para elegir qué administración tiene un mejor comportamiento: precio de la tarifa, calidad del agua y eficiencia de la gestión. En este trabajo, haremos un resumen de algunas aportaciones de la literatura existente en este tema, haciendo hincapié en aquellas que basan sus análisis en España, pues serán de ayuda para nuestro caso particular. Además, nos centraremos en la evaluación de la eficiencia entre ambas gestiones, empleando el Análisis Envolvente de Datos. Así, tras una breve descripción de esta técnica y sus principales modelos, la aplicaremos a nuestro caso: una comparación de la eficiencia entre estaciones depuradoras de aguas residuales (EDARs) según sean gestionadas por entidades públicas o por la privada Viaqua Gestión Integral De Aguas De Galicia, S.A.. Una vez aplicados, podremos comparar el funcionamiento de las EDARs en términos de una medida de eficiencia y veremos cuales de las depuradoras tendrán un peor comportamiento. Finalmente, realizando un análisis comparativo combinada con la técnica clúster de análisis multivariante, podremos agrupar las depuradoras en grupos con características similares y estudiar cuales de ellas son puntos de referencia para las demás.
A lo largo de los años la elección entre una gestión pública y privada de los recursos hídricos fue, y sigue siendo, motivo de debate en muchos países, a pesar de las legislaciones particulares de cada uno. Existiendo argumentos a ambos lados de la discusión, podemos dividirlos en tres categorías fundamentales para elegir qué administración tiene un mejor comportamiento: precio de la tarifa, calidad del agua y eficiencia de la gestión. En este trabajo, haremos un resumen de algunas aportaciones de la literatura existente en este tema, haciendo hincapié en aquellas que basan sus análisis en España, pues serán de ayuda para nuestro caso particular. Además, nos centraremos en la evaluación de la eficiencia entre ambas gestiones, empleando el Análisis Envolvente de Datos. Así, tras una breve descripción de esta técnica y sus principales modelos, la aplicaremos a nuestro caso: una comparación de la eficiencia entre estaciones depuradoras de aguas residuales (EDARs) según sean gestionadas por entidades públicas o por la privada Viaqua Gestión Integral De Aguas De Galicia, S.A.. Una vez aplicados, podremos comparar el funcionamiento de las EDARs en términos de una medida de eficiencia y veremos cuales de las depuradoras tendrán un peor comportamiento. Finalmente, realizando un análisis comparativo combinada con la técnica clúster de análisis multivariante, podremos agrupar las depuradoras en grupos con características similares y estudiar cuales de ellas son puntos de referencia para las demás.
Dirección
GINZO VILLAMAYOR, MARIA JOSE (Tutoría)
SAAVEDRA NIEVES, ALEJANDRO Cotutoría
GINZO VILLAMAYOR, MARIA JOSE (Tutoría)
SAAVEDRA NIEVES, ALEJANDRO Cotutoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)