Revisión y comparación de técnicas de reducción de la dimensionalidad.
Autoría
A.A.M.
Grado en Matemáticas
A.A.M.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 11:45
16.07.2025 11:45
Resumen
Las técnicas de reducción de la dimensionalidad son procedimientos fundamentales en la estadística para simplificar conjuntos de datos perdiendo la menor cantidad de información posible. El objetivo de este trabajo es revisar en profundidad algunos de estes métodos, prestando especial atención a una de las ténicas más usadas que es el Análisis de Componentes Principales. Además, comentaremos otras técnicas no lineales más novedosas que vienen ganando popularidad en estos últimos años. Finalmente, para enfatizar la importancia de estas téncicas en la práctica, presentaremos ejemplos de aplicación con conjuntos de datos reales con el fin de ver las dificultades de interpretación y procesamiento que nos presentan.
Las técnicas de reducción de la dimensionalidad son procedimientos fundamentales en la estadística para simplificar conjuntos de datos perdiendo la menor cantidad de información posible. El objetivo de este trabajo es revisar en profundidad algunos de estes métodos, prestando especial atención a una de las ténicas más usadas que es el Análisis de Componentes Principales. Además, comentaremos otras técnicas no lineales más novedosas que vienen ganando popularidad en estos últimos años. Finalmente, para enfatizar la importancia de estas téncicas en la práctica, presentaremos ejemplos de aplicación con conjuntos de datos reales con el fin de ver las dificultades de interpretación y procesamiento que nos presentan.
Dirección
PATEIRO LOPEZ, BEATRIZ (Tutoría)
PATEIRO LOPEZ, BEATRIZ (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Contrastes de bondad de ajuste.
Autoría
E.A.A.
Grado en Matemáticas
E.A.A.
Grado en Matemáticas
Fecha de la defensa
15.07.2025 10:00
15.07.2025 10:00
Resumen
El desarrollo de este trabajo se centra en el estudio teórico y práctico del test ji − cuadrado, el cual se utiliza para contrastar cierta hipótesis sobre una muestra de datos. Se presenta, en primer lugar, el contexto histórico del test, incluyendo su origen y evolución. En el estudio teórico, se formaliza el test, con la definición de su respectivo estadístico de contraste y con los principales resultados relacionados con el mismo, incluyendo aquellos sobre la convergencia asintótica del estadístico. Se diferencian el caso en el que la hipótesis nula es simple y el caso en el que se trata de una familia paramétrica. En el ámbito práctico, se realizan simulaciones del test en sus distintos casos mediante la herramienta R, con la finalidad de analizar y caracterizar su comportamiento real. Se estudian el calibrado del test (casos en los que se cumple la hipótesis nula) y su potencia (casos en los que no se cumple la hipótesis nula). También se ponen a prueba ciertas recomendaciones prácticas mencionadas durante el grado.
El desarrollo de este trabajo se centra en el estudio teórico y práctico del test ji − cuadrado, el cual se utiliza para contrastar cierta hipótesis sobre una muestra de datos. Se presenta, en primer lugar, el contexto histórico del test, incluyendo su origen y evolución. En el estudio teórico, se formaliza el test, con la definición de su respectivo estadístico de contraste y con los principales resultados relacionados con el mismo, incluyendo aquellos sobre la convergencia asintótica del estadístico. Se diferencian el caso en el que la hipótesis nula es simple y el caso en el que se trata de una familia paramétrica. En el ámbito práctico, se realizan simulaciones del test en sus distintos casos mediante la herramienta R, con la finalidad de analizar y caracterizar su comportamiento real. Se estudian el calibrado del test (casos en los que se cumple la hipótesis nula) y su potencia (casos en los que no se cumple la hipótesis nula). También se ponen a prueba ciertas recomendaciones prácticas mencionadas durante el grado.
Dirección
RODRIGUEZ CASAL, ALBERTO (Tutoría)
Bolón Rodríguez, Diego Cotutoría
RODRIGUEZ CASAL, ALBERTO (Tutoría)
Bolón Rodríguez, Diego Cotutoría
Tribunal
Bolón Rodríguez, Diego (Tutor del alumno)
RODRIGUEZ CASAL, ALBERTO (Tutor del alumno)
Bolón Rodríguez, Diego (Tutor del alumno)
RODRIGUEZ CASAL, ALBERTO (Tutor del alumno)
Estudio teórico-computacional de la criticalidad en modelos de tipo Ising
Autoría
P.A.G.
Doble Grado en Matemáticas y en Física
P.A.G.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El presente documento aborda el modelo de Ising, ampliamente utilizado en el estudio de transiciones de fase, tanto desde una perspectiva teórica como computacional. Se introducen brevemente conceptos relacionados con fenómenos críticos, seguidos de una descripción del modelo y de algunos desarrollos y resultados teóricos conocidos en redes unidimensionales y bidimensionales con interacción entre primeros vecinos. Posteriormente, se realiza un estudio computacional, introduciendo los algoritmos de Metropolis y Wolff, demostrando la ergodicidad y el cumplimiento de la ecuación de balance detallado de ambos. Se comparan estos dos algoritmos, evidenciando que el de Wolff presenta una convergencia más rápida cerca del punto crítico. A través de un código desarrollado para este trabajo, se caracterizan las transiciones de fase en redes desde una hasta cuatro dimensiones con interacción entre primeros vecinos y se implementa el modelo en redes complejas de tipo small world, tanto unidimensionales como bidimensionales.
El presente documento aborda el modelo de Ising, ampliamente utilizado en el estudio de transiciones de fase, tanto desde una perspectiva teórica como computacional. Se introducen brevemente conceptos relacionados con fenómenos críticos, seguidos de una descripción del modelo y de algunos desarrollos y resultados teóricos conocidos en redes unidimensionales y bidimensionales con interacción entre primeros vecinos. Posteriormente, se realiza un estudio computacional, introduciendo los algoritmos de Metropolis y Wolff, demostrando la ergodicidad y el cumplimiento de la ecuación de balance detallado de ambos. Se comparan estos dos algoritmos, evidenciando que el de Wolff presenta una convergencia más rápida cerca del punto crítico. A través de un código desarrollado para este trabajo, se caracterizan las transiciones de fase en redes desde una hasta cuatro dimensiones con interacción entre primeros vecinos y se implementa el modelo en redes complejas de tipo small world, tanto unidimensionales como bidimensionales.
Dirección
MENDEZ MORALES, TRINIDAD (Tutoría)
Montes Campos, Hadrián Cotutoría
MENDEZ MORALES, TRINIDAD (Tutoría)
Montes Campos, Hadrián Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
El teorema de la aplicación de Riemann
Autoría
P.A.G.
Doble Grado en Matemáticas y en Física
P.A.G.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 16:40
16.07.2025 16:40
Resumen
El presente documento aborda el teorema de la aplicación de Riemann, un resultado esencial en el análisis complejo, que establece la existencia de aplicaciones conformes entre conjuntos simplemente conexos y el disco unidad. Para ello, se introduce el marco teórico necesario, comenzando con una breve introducción sobre el teorema, así como algunas definiciones y resultados fundamentales de las funciones holomorfas. Más adelante, se profundiza en las transformaciones de Möbius, una herramienta esencial en el desarrollo del trabajo que, junto con el lema de Schwarz, tiene un papel fundamental para caracterizar los automorfismos del disco unidad. Se cierra este desarrollo teórico con el estudio de algunas propiedades del espacio de las funciones holomorfas, proporcionando así una base para poder dar una demostración rigurosa del teorema. Finalmente, se destaca la importancia del mismo, poniendo de manifiesto algunas aplicaciones relevantes en otras ramas científicas, como pueda ser la mecánica de fluidos en la física, y se dará un algoritmo para hallar de manera estimativa la aplicación que describe el teorema.
El presente documento aborda el teorema de la aplicación de Riemann, un resultado esencial en el análisis complejo, que establece la existencia de aplicaciones conformes entre conjuntos simplemente conexos y el disco unidad. Para ello, se introduce el marco teórico necesario, comenzando con una breve introducción sobre el teorema, así como algunas definiciones y resultados fundamentales de las funciones holomorfas. Más adelante, se profundiza en las transformaciones de Möbius, una herramienta esencial en el desarrollo del trabajo que, junto con el lema de Schwarz, tiene un papel fundamental para caracterizar los automorfismos del disco unidad. Se cierra este desarrollo teórico con el estudio de algunas propiedades del espacio de las funciones holomorfas, proporcionando así una base para poder dar una demostración rigurosa del teorema. Finalmente, se destaca la importancia del mismo, poniendo de manifiesto algunas aplicaciones relevantes en otras ramas científicas, como pueda ser la mecánica de fluidos en la física, y se dará un algoritmo para hallar de manera estimativa la aplicación que describe el teorema.
Dirección
CAO LABORA, DANIEL (Tutoría)
CAO LABORA, DANIEL (Tutoría)
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Ágebras de Clifford y grupos de spin
Autoría
D.A.D.A.
Doble Grado en Matemáticas y en Física
D.A.D.A.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 10:00
16.07.2025 10:00
Resumen
El objetivo de este trabajo es ser un punto de partida para el estudio de los grupos Spin a través del formalismo de las álgebras de Clifford. Para ello, primero se definen y construyen estas álgebras a través de las álgebras tensoriales, se estudian sus propiedades principales como superálgebras, su definición en base a generadores y relaciones y su conexión con el álgebra exterior. Después, se realiza una primera clasificación de las álgebras de Clifford reales de baja dimensión haciendo uso del producto tensor Z2-graduado para luego proceder a la clasificación completa de las mismas ---en los casos real y complejo---usando varios isomorfismos probados a lo largo del texto junto con la conocida como periodicidad de Bott. Posteriormente, procedemos a definir el grupo Spin como un subgrupo de las unidades del álgebra de Clifford y, tras estudiar la acción de estas últimas sobre la totalidad del álgebra, comprobamos haciendo uso de esta acción que los grupos Spin son un revestimiento doble del grupo especial ortogonal SO(n). También estudiamos algunas propiedades adicionales de estos grupos y clasificamos algunos casos de baja dimensión.
El objetivo de este trabajo es ser un punto de partida para el estudio de los grupos Spin a través del formalismo de las álgebras de Clifford. Para ello, primero se definen y construyen estas álgebras a través de las álgebras tensoriales, se estudian sus propiedades principales como superálgebras, su definición en base a generadores y relaciones y su conexión con el álgebra exterior. Después, se realiza una primera clasificación de las álgebras de Clifford reales de baja dimensión haciendo uso del producto tensor Z2-graduado para luego proceder a la clasificación completa de las mismas ---en los casos real y complejo---usando varios isomorfismos probados a lo largo del texto junto con la conocida como periodicidad de Bott. Posteriormente, procedemos a definir el grupo Spin como un subgrupo de las unidades del álgebra de Clifford y, tras estudiar la acción de estas últimas sobre la totalidad del álgebra, comprobamos haciendo uso de esta acción que los grupos Spin son un revestimiento doble del grupo especial ortogonal SO(n). También estudiamos algunas propiedades adicionales de estos grupos y clasificamos algunos casos de baja dimensión.
Dirección
DIAZ RAMOS, JOSE CARLOS (Tutoría)
Lorenzo Naveiro, Juan Manel Cotutoría
DIAZ RAMOS, JOSE CARLOS (Tutoría)
Lorenzo Naveiro, Juan Manel Cotutoría
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Análisis del decaimiento B+ to mumutaunu desde un punto de vista teórico y experimental
Autoría
D.A.D.A.
Doble Grado en Matemáticas y en Física
D.A.D.A.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este trabajo busca ser un primer estudio, tanto desde el punto de vista teórico como el experimental, de la desintegración B+ to mumutaunu en el contexto del experimento LHCb. En primer lugar, se sigue un desarrollo teórico obtenido de fuentes bibliográficas en el que se realiza un cálculo similar, buscando comprender los mecanismos del mismo y adaptarlo a la situación de interés; el objetivo último de este análisis es obtener un primer valor numérico de referencia para el branching ratio (BR) de esta desintegración. A continuación, diseñamos un análisis con la finalidad de poder detectar un pico de señal de esta desintegración o poder establecer una cota superior para el BR; para ello, solventamos el problema de la información faltante por la imposibilidad de detección del neutrino a través de la introducción de la masa corregida y presentamos las formas de seleccionar los datos, la eliminación de fondo combinatorio a través de herramientas de machine learning y un estudio de la capacidad de diferenciar un pico de señal a través de simulaciones y ajustes, junto con herramientas estadísticas como el teorema de Wilks. Por último, presentamos los avances logrados en un primer análisis, concluyendo con el trabajo a desarrollar para una futura ampliación de este trabajo
Este trabajo busca ser un primer estudio, tanto desde el punto de vista teórico como el experimental, de la desintegración B+ to mumutaunu en el contexto del experimento LHCb. En primer lugar, se sigue un desarrollo teórico obtenido de fuentes bibliográficas en el que se realiza un cálculo similar, buscando comprender los mecanismos del mismo y adaptarlo a la situación de interés; el objetivo último de este análisis es obtener un primer valor numérico de referencia para el branching ratio (BR) de esta desintegración. A continuación, diseñamos un análisis con la finalidad de poder detectar un pico de señal de esta desintegración o poder establecer una cota superior para el BR; para ello, solventamos el problema de la información faltante por la imposibilidad de detección del neutrino a través de la introducción de la masa corregida y presentamos las formas de seleccionar los datos, la eliminación de fondo combinatorio a través de herramientas de machine learning y un estudio de la capacidad de diferenciar un pico de señal a través de simulaciones y ajustes, junto con herramientas estadísticas como el teorema de Wilks. Por último, presentamos los avances logrados en un primer análisis, concluyendo con el trabajo a desarrollar para una futura ampliación de este trabajo
Dirección
CID VIDAL, XABIER (Tutoría)
FERNANDEZ GOMEZ, MIGUEL Cotutoría
CID VIDAL, XABIER (Tutoría)
FERNANDEZ GOMEZ, MIGUEL Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Inestabilidad baroclínica y su sensibilidad a los perfiles verticales de temperatura y viento en capas atmosféricas
Autoría
A.B.V.
Doble Grado en Matemáticas y en Física
A.B.V.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este Trabajo de Fin de Grado tiene como objetivo estudiar la inestabilidad baroclínica en la atmósfera mediante un análisis teórico y simulaciones numéricas. En la parte teórica, se explicarán los factores clave que influyen en este fenómeno, como la cizalladura vertical del viento, los gradientes térmicos y la estratificación atmosférica, además del papel de la rotación planetaria y la fuerza de Coriolis. A continuación, se realizarán simulaciones numéricas para analizar el impacto de las variaciones en los perfiles de temperatura y viento en el crecimiento de las perturbaciones baroclínicas. Los resultados permitirán evaluar cómo estas condiciones atmosféricas afectan a la evolución de las ondas baroclínicas, comparando las simulaciones con las predicciones teóricas. Finalmente, se discutirá la concordancia entre teoría y simulaciones, destacando las condiciones que favorecen el desarrollo de la inestabilidad baroclínica y sus posibles aplicaciones en la predicción meteorológica.
Este Trabajo de Fin de Grado tiene como objetivo estudiar la inestabilidad baroclínica en la atmósfera mediante un análisis teórico y simulaciones numéricas. En la parte teórica, se explicarán los factores clave que influyen en este fenómeno, como la cizalladura vertical del viento, los gradientes térmicos y la estratificación atmosférica, además del papel de la rotación planetaria y la fuerza de Coriolis. A continuación, se realizarán simulaciones numéricas para analizar el impacto de las variaciones en los perfiles de temperatura y viento en el crecimiento de las perturbaciones baroclínicas. Los resultados permitirán evaluar cómo estas condiciones atmosféricas afectan a la evolución de las ondas baroclínicas, comparando las simulaciones con las predicciones teóricas. Finalmente, se discutirá la concordancia entre teoría y simulaciones, destacando las condiciones que favorecen el desarrollo de la inestabilidad baroclínica y sus posibles aplicaciones en la predicción meteorológica.
Dirección
MIGUEZ MACHO, GONZALO (Tutoría)
CRESPO OTERO, ALFREDO Cotutoría
MIGUEZ MACHO, GONZALO (Tutoría)
CRESPO OTERO, ALFREDO Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Análisis y aplicaciones del algoritmo de Dijkstra en la optimización de rutas: en búsqueda del camino más corto
Autoría
A.B.V.
Doble Grado en Matemáticas y en Física
A.B.V.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
15.07.2025 09:10
15.07.2025 09:10
Resumen
En este proyecto partimos de conceptos básicos sobre los problemas de flujo en grafos para luego ver otros más específicos que nos ayuden a conseguir nuestro objetivo principal: explicar diferentes algoritmos para resolver el problema del camino más corto. En el primer capítulo introduciremos conceptos de la teoría de grafos y explicaremos nociones importantes para los siguientes capítulos, como la definición de nodo, arco o coste. Además, introduciremos los problemas de flujo de coste mínimo junto con sus formulaciones matemáticas. Por último, analizaremos una propiedad muy importante a la hora de resolver este tipo de problemas: la unimodularidad, junto con algunas propiedades que facilitan su resolución. En el segundo capítulo nos centraremos en el problema del camino más corto, describiendo que existen diferentes tipos de algoritmos para resolverlo con especial énfasis en el algoritmo de Dijkstra. También proporcionaremos algunas implementaciones de este y otros algoritmos que pueden ayudar a resolver el problema de forma más eficiente. Además, las explicaciones irán acompañadas de ejemplos para facilitar la comprensión de los algoritmos. Finalmente, el último capítulo presenta una aplicación práctica del cálculo del camino más corto en la red ferroviaria española. Incluye una descripción detallada de la implementación en Python, los datos utilizados y una representación gráfica de las rutas obtenidas.
En este proyecto partimos de conceptos básicos sobre los problemas de flujo en grafos para luego ver otros más específicos que nos ayuden a conseguir nuestro objetivo principal: explicar diferentes algoritmos para resolver el problema del camino más corto. En el primer capítulo introduciremos conceptos de la teoría de grafos y explicaremos nociones importantes para los siguientes capítulos, como la definición de nodo, arco o coste. Además, introduciremos los problemas de flujo de coste mínimo junto con sus formulaciones matemáticas. Por último, analizaremos una propiedad muy importante a la hora de resolver este tipo de problemas: la unimodularidad, junto con algunas propiedades que facilitan su resolución. En el segundo capítulo nos centraremos en el problema del camino más corto, describiendo que existen diferentes tipos de algoritmos para resolverlo con especial énfasis en el algoritmo de Dijkstra. También proporcionaremos algunas implementaciones de este y otros algoritmos que pueden ayudar a resolver el problema de forma más eficiente. Además, las explicaciones irán acompañadas de ejemplos para facilitar la comprensión de los algoritmos. Finalmente, el último capítulo presenta una aplicación práctica del cálculo del camino más corto en la red ferroviaria española. Incluye una descripción detallada de la implementación en Python, los datos utilizados y una representación gráfica de las rutas obtenidas.
Dirección
GONZALEZ RUEDA, ANGEL MANUEL (Tutoría)
GONZALEZ RUEDA, ANGEL MANUEL (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Una revisión de problemas de horarios y aplicaciones
Autoría
S.B.G.
Grado en Matemáticas
S.B.G.
Grado en Matemáticas
Fecha de la defensa
15.07.2025 09:55
15.07.2025 09:55
Resumen
Los problemas de horarios consisten en la asignación eficiente de recursos limitados a un conjunto de tareas, teniendo en cuenta determinadas restricciones temporales y criterios de optimalidad. En el primer capítulo comenzamos detallando la notación que emplearemos a lo largo del trabajo. A continuación, en el segundo y tercer capítulo haremos una revisión de diferentes versiones en las que se pueden presentar dichos problemas, presentando en cada caso el algoritmo correspondiente para encontrar una solución óptima, junto con ciertas propiedades teóricas. En el capítulo cuatro se incluye la implementación de los algoritmos mediante código de R. Finalmente, en el quinto capítulo se recogen las conclusiones, donde se destaca la relevancia de estos problemas tanto en contextos de la vida cotidiana como en el ámbito profesional.
Los problemas de horarios consisten en la asignación eficiente de recursos limitados a un conjunto de tareas, teniendo en cuenta determinadas restricciones temporales y criterios de optimalidad. En el primer capítulo comenzamos detallando la notación que emplearemos a lo largo del trabajo. A continuación, en el segundo y tercer capítulo haremos una revisión de diferentes versiones en las que se pueden presentar dichos problemas, presentando en cada caso el algoritmo correspondiente para encontrar una solución óptima, junto con ciertas propiedades teóricas. En el capítulo cuatro se incluye la implementación de los algoritmos mediante código de R. Finalmente, en el quinto capítulo se recogen las conclusiones, donde se destaca la relevancia de estos problemas tanto en contextos de la vida cotidiana como en el ámbito profesional.
Dirección
GONZALEZ RUEDA, ANGEL MANUEL (Tutoría)
GONZALEZ RUEDA, ANGEL MANUEL (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Comparativa de tecnologías de búsqueda en bancos de prueba para el estudio de la desinformación en el ámbito de consultas de la salud
Autoría
X.C.A.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
X.C.A.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
18.07.2025 11:00
18.07.2025 11:00
Resumen
La desinformación presente en los resultados de búsquedas web sobre salud es una cuestión preocupante tanto a nivel social como científico, pues puede influir negativamente en la toma de decisiones de los/las usuarios/as y acarrear graves consecuencias para la salud. Este fenómeno, que cobró especial visibilidad con la pandemia de la COVID-19, es una de las áreas de investigación dentro del ámbito de la Recuperación de Información (RI), en torno a la cual se articula este trabajo. El proyecto tiene como objetivo central explorar cómo discernir documentos relevantes y correctos de documentos dañinos, dada una cierta intención de búsqueda. Para ello, se propone un estudio estructurado en tres líneas de investigación. En primer lugar, se lleva a cabo un análisis sistemático del desempeño de sistemas de búsqueda del estado del arte con respecto a esta tarea. En segundo lugar, se diseña, implementa y evalúa una nueva técnica basada en Modelos Grandes de Lenguaje (LLMs) para la generación de alternativas de consultas enviadas por usuarios/as, de forma que sus variantes favorezcan la recuperación de documentos relevantes y correctos, en detrimento de la recuperación de documentos dañinos. Por último, se presenta un estudio sobre la predicción de la presencia de desinformación sanitaria en los resultados de búsqueda de consultas, para lo cual se prueban técnicas procedentes de ámbitos relacionados y se diseña, implementa y evalúa un nuevo predictor basado en LLMs y específico para esta tarea. Los hallazgos del trabajo avalan el potencial de los LLMs en el campo de la RI, al lograr mejorar la eficacia de sistemas de búsqueda punteros. Además, se subsana la ausencia de literatura previa en cuanto a la predicción de desinformación en consultas, a la vez que se prueba la capacidad de los LLMs para ello, superior a la capacidad que demuestran técnicas más generales. Parte de las aportaciones de este proyecto han sido aceptadas para su publicación en la conferencia ACM SIGIR 2025.
La desinformación presente en los resultados de búsquedas web sobre salud es una cuestión preocupante tanto a nivel social como científico, pues puede influir negativamente en la toma de decisiones de los/las usuarios/as y acarrear graves consecuencias para la salud. Este fenómeno, que cobró especial visibilidad con la pandemia de la COVID-19, es una de las áreas de investigación dentro del ámbito de la Recuperación de Información (RI), en torno a la cual se articula este trabajo. El proyecto tiene como objetivo central explorar cómo discernir documentos relevantes y correctos de documentos dañinos, dada una cierta intención de búsqueda. Para ello, se propone un estudio estructurado en tres líneas de investigación. En primer lugar, se lleva a cabo un análisis sistemático del desempeño de sistemas de búsqueda del estado del arte con respecto a esta tarea. En segundo lugar, se diseña, implementa y evalúa una nueva técnica basada en Modelos Grandes de Lenguaje (LLMs) para la generación de alternativas de consultas enviadas por usuarios/as, de forma que sus variantes favorezcan la recuperación de documentos relevantes y correctos, en detrimento de la recuperación de documentos dañinos. Por último, se presenta un estudio sobre la predicción de la presencia de desinformación sanitaria en los resultados de búsqueda de consultas, para lo cual se prueban técnicas procedentes de ámbitos relacionados y se diseña, implementa y evalúa un nuevo predictor basado en LLMs y específico para esta tarea. Los hallazgos del trabajo avalan el potencial de los LLMs en el campo de la RI, al lograr mejorar la eficacia de sistemas de búsqueda punteros. Además, se subsana la ausencia de literatura previa en cuanto a la predicción de desinformación en consultas, a la vez que se prueba la capacidad de los LLMs para ello, superior a la capacidad que demuestran técnicas más generales. Parte de las aportaciones de este proyecto han sido aceptadas para su publicación en la conferencia ACM SIGIR 2025.
Dirección
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Tribunal
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
MOSQUERA GONZALEZ, ANTONIO (Presidente/a)
CORES COSTA, DANIEL (Secretario/a)
QUESADA BARRIUSO, PABLO (Vocal)
Computación Cuántica. Principios y Aplicaciones
Autoría
A.C.S.
Doble Grado en Matemáticas y en Física
A.C.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 17:20
16.07.2025 17:20
Resumen
Este trabajo estudia las bases de la Computación Cuántica de forma íntegramente matemática, abstrayéndose de los sistemas físicos reales detrás de esta idealización. En primer lugar, se estudian los fundamentos de la Mecánica Cuántica, explorando conceptos y propiedades de los espacios de Hilbert sobre el cuerpo de los números complejos. A continuación, se definen los conceptos de cúbit y p-cúbit, así como las puertas lógicas cuánticas que actúan sobre ellos. Por último, se desarrollará una serie de algoritmos importantes con aplicaciones concretas que demuestran el interés por este tipo de lógica. El objetivo del trabajo es ser una introducción, desde los conceptos trabajados en el Grado de Matemáticas, al mundo de la Computación Cuántica sin requerir conocimientos previos sobre Física, de forma que dé un acceso más sencillo al entendimiento de algoritmos cuánticos o a su desarrollo.
Este trabajo estudia las bases de la Computación Cuántica de forma íntegramente matemática, abstrayéndose de los sistemas físicos reales detrás de esta idealización. En primer lugar, se estudian los fundamentos de la Mecánica Cuántica, explorando conceptos y propiedades de los espacios de Hilbert sobre el cuerpo de los números complejos. A continuación, se definen los conceptos de cúbit y p-cúbit, así como las puertas lógicas cuánticas que actúan sobre ellos. Por último, se desarrollará una serie de algoritmos importantes con aplicaciones concretas que demuestran el interés por este tipo de lógica. El objetivo del trabajo es ser una introducción, desde los conceptos trabajados en el Grado de Matemáticas, al mundo de la Computación Cuántica sin requerir conocimientos previos sobre Física, de forma que dé un acceso más sencillo al entendimiento de algoritmos cuánticos o a su desarrollo.
Dirección
FERNANDEZ FERNANDEZ, FRANCISCO JAVIER (Tutoría)
FERNANDEZ FERNANDEZ, FRANCISCO JAVIER (Tutoría)
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Evaluación de la Temperatura Efectiva mediante Simulación Cuántica
Autoría
A.C.S.
Doble Grado en Matemáticas y en Física
A.C.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 17:00
16.07.2025 17:00
Resumen
Una línea importante de investigación en el área de la computación cuántica está dirigida a la detección y mitigación de ruido. En este trabajo, nos centraremos en los métodos de medida de la temperatura efectiva, una magnitud usada para estimar la población residual del estado excitado de un cúbit, debida a las fluctuaciones térmicas en el dispositivo. En primer lugar, se estudian los sistemas físicos de los cúbits superconductores tipo transmón y su proceso de lectura dispersiva, que son de los que se dispone en el QMIO. A partir de ellos, se desarrolla una simulación estocástica sobre la cual puedan validarse los métodos de medida. Finalmente, se estudia un método de medida de la temperatura efectiva basado en oscilaciones de Rabi e-f , validando sus hipótesis y obteniendo resultados por simulación.
Una línea importante de investigación en el área de la computación cuántica está dirigida a la detección y mitigación de ruido. En este trabajo, nos centraremos en los métodos de medida de la temperatura efectiva, una magnitud usada para estimar la población residual del estado excitado de un cúbit, debida a las fluctuaciones térmicas en el dispositivo. En primer lugar, se estudian los sistemas físicos de los cúbits superconductores tipo transmón y su proceso de lectura dispersiva, que son de los que se dispone en el QMIO. A partir de ellos, se desarrolla una simulación estocástica sobre la cual puedan validarse los métodos de medida. Finalmente, se estudia un método de medida de la temperatura efectiva basado en oscilaciones de Rabi e-f , validando sus hipótesis y obteniendo resultados por simulación.
Dirección
MAS SOLE, JAVIER (Tutoría)
Gómez Tato, Andrés Cotutoría
MAS SOLE, JAVIER (Tutoría)
Gómez Tato, Andrés Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Cuadratura de alta precisión
Autoría
J.C.S.
Grado en Matemáticas
J.C.S.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 17:30
16.07.2025 17:30
Resumen
En este trabajo abordamos el estudio de métodos numéricos para el cálculo aproximado de la integral definida a través de fórmulas de cuadratura, técnicas fundamentales cuando desconocemos el valor de la integral. Nos centramos en las fórmulas de tipo interpolatorio polinómico que aproximan el valor real a partir de la integral de un polinomio de interpolación. Estudiamos en profundidad tres métodos principales de cuadratura. Primero las fórmulas de Gauss, caracterizadas por su alta precisión empleando pocos nodos. Despois, estudiamos el método de Romberg, que combina la regla del trapecio compuesta con la extrapolación de Richardson. Y por último, el uso de correcciones extremales para las reglas de trapecio y Simpson compuestas. Para cada método exploraremos su formulación teórica, el comportamiento del error y los requisitos para la exactitud de los métodos. Además, aportaremos ejemplos y tablas que representen la variación del erro para cada método.
En este trabajo abordamos el estudio de métodos numéricos para el cálculo aproximado de la integral definida a través de fórmulas de cuadratura, técnicas fundamentales cuando desconocemos el valor de la integral. Nos centramos en las fórmulas de tipo interpolatorio polinómico que aproximan el valor real a partir de la integral de un polinomio de interpolación. Estudiamos en profundidad tres métodos principales de cuadratura. Primero las fórmulas de Gauss, caracterizadas por su alta precisión empleando pocos nodos. Despois, estudiamos el método de Romberg, que combina la regla del trapecio compuesta con la extrapolación de Richardson. Y por último, el uso de correcciones extremales para las reglas de trapecio y Simpson compuestas. Para cada método exploraremos su formulación teórica, el comportamiento del error y los requisitos para la exactitud de los métodos. Además, aportaremos ejemplos y tablas que representen la variación del erro para cada método.
Dirección
López Pouso, Óscar (Tutoría)
BARRAL RODIÑO, PATRICIA Cotutoría
López Pouso, Óscar (Tutoría)
BARRAL RODIÑO, PATRICIA Cotutoría
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
El sudoku: una aplicación de la Investigación de Operaciones
Autoría
L.D.G.
Grado en Matemáticas
L.D.G.
Grado en Matemáticas
Fecha de la defensa
15.07.2025 10:40
15.07.2025 10:40
Resumen
El presente trabajo se centra en el estudio matemático y computacional de la resolución de un sudoku, partiendo de su conexión con los cuadros latinos. Se analiza su existencia y enumeración, sentando las bases de un marco teórico sólido para comprender la estructura subyacente del sudoku. A continuación, se describe el juego en un contexto histórico y formal, estudiando sus reglas y propiedades, el número total de tableros posibles y, además, el problema del número mínimo de pistas necesarias para garantizar una solución única. También se describen las técnicas de resolución manual más empleadas, tanto básicas como avanzadas. La parte principal del trabajo explora distintas metodologías de resolución mediante programación matemática, como la programación lineal, algoritmos de retroceso, métodos evolutivos (como el algoritmo genético) y el recocido simulado, así como modelos basados en grafos. Además, se extiende el análisis a algunas variantes del sudoku. Finalmente, se presenta una evaluación comparativa de la eficiencia computacional de todas las metodologías propuestas, basada en implementaciones en el lenguaje R.
El presente trabajo se centra en el estudio matemático y computacional de la resolución de un sudoku, partiendo de su conexión con los cuadros latinos. Se analiza su existencia y enumeración, sentando las bases de un marco teórico sólido para comprender la estructura subyacente del sudoku. A continuación, se describe el juego en un contexto histórico y formal, estudiando sus reglas y propiedades, el número total de tableros posibles y, además, el problema del número mínimo de pistas necesarias para garantizar una solución única. También se describen las técnicas de resolución manual más empleadas, tanto básicas como avanzadas. La parte principal del trabajo explora distintas metodologías de resolución mediante programación matemática, como la programación lineal, algoritmos de retroceso, métodos evolutivos (como el algoritmo genético) y el recocido simulado, así como modelos basados en grafos. Además, se extiende el análisis a algunas variantes del sudoku. Finalmente, se presenta una evaluación comparativa de la eficiencia computacional de todas las metodologías propuestas, basada en implementaciones en el lenguaje R.
Dirección
SAAVEDRA NIEVES, ALEJANDRO (Tutoría)
DAVILA PENA, LAURA Cotutoría
SAAVEDRA NIEVES, ALEJANDRO (Tutoría)
DAVILA PENA, LAURA Cotutoría
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Estudio y mejora del rendimiento de modelos Octree para búsqueda de vecinos en nubes de puntos 3D
Autoría
P.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
P.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
18.07.2025 12:30
18.07.2025 12:30
Resumen
En este trabajo se presenta un enfoque para la búsqueda eficiente de vecinos en nubes de puntos 3D, en especial las obtenidas mediante tecnología LiDAR. El método propuesto consiste en un reordenamiento espacial de la nube fundamentado en las Curvas de Llenado del Espacio (SFCs), junto a implementaciones eficientes de búsqueda basadas en Octrees. Se explora cómo las SFCs de Morton y Hilbert pueden optimizar la organización de los datos tridimensionales, mejorando el rendimiento de las consultas de vecindad y la construcción de estructuras sobre la nube. Se proponen y evalúan diversas variantes del Octree, analizando su impacto en la eficiencia y escalabilidad del método propuesto. Los resultados experimentales demuestran que el reordenamiento mediante SFCs y el uso de algoritmos de búsqueda sobre Octrees especializados mejoran significativamente el acceso a datos espaciales, ofreciendo una solución robusta para aplicaciones que requieren procesamiento rápido de grandes conjuntos de puntos 3D. Una parte de este trabajo ha sido presentado en las XXXV Jornadas de Paralelismo de SARTECO.
En este trabajo se presenta un enfoque para la búsqueda eficiente de vecinos en nubes de puntos 3D, en especial las obtenidas mediante tecnología LiDAR. El método propuesto consiste en un reordenamiento espacial de la nube fundamentado en las Curvas de Llenado del Espacio (SFCs), junto a implementaciones eficientes de búsqueda basadas en Octrees. Se explora cómo las SFCs de Morton y Hilbert pueden optimizar la organización de los datos tridimensionales, mejorando el rendimiento de las consultas de vecindad y la construcción de estructuras sobre la nube. Se proponen y evalúan diversas variantes del Octree, analizando su impacto en la eficiencia y escalabilidad del método propuesto. Los resultados experimentales demuestran que el reordenamiento mediante SFCs y el uso de algoritmos de búsqueda sobre Octrees especializados mejoran significativamente el acceso a datos espaciales, ofreciendo una solución robusta para aplicaciones que requieren procesamiento rápido de grandes conjuntos de puntos 3D. Una parte de este trabajo ha sido presentado en las XXXV Jornadas de Paralelismo de SARTECO.
Dirección
Fernández Rivera, Francisco (Tutoría)
YERMO GARCIA, MIGUEL Cotutoría
Fernández Rivera, Francisco (Tutoría)
YERMO GARCIA, MIGUEL Cotutoría
Tribunal
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Pardo López, Xosé Manuel (Presidente/a)
SUAREZ GAREA, JORGE ALBERTO (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Módulos cruzados de grupos
Autoría
M.E.L.
Grado en Matemáticas
M.E.L.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 18:00
16.07.2025 18:00
Resumen
El concepto matemático de módulo cruzado fue introducido por J. H. C. Whitehead en 1949 con el objetivo de modelizar los espacios 2-tipo homotópicos. Los módulos cruzados existen para una gran variedad de estructuras algebraicas; en este trabajo se considerará exclusivamente la estructura de grupo. En este contexto, un módulo cruzado de grupos es un homomorfismo de grupos \mu: M \to N junto con una acción del grupo N sobre el grupo M por automorfismos tal que se cumplen dos condiciones fundamentales: la equivarianza de \mu y la identidad de Peiffer. Los módulos cruzados poseen diversas propiedades algebraicas y son equivalentes, en sentido categórico, a estructuras como los Cat1 -grupos, los 2-grupos estrictos y los grupos categóricos estrictos. Describir tales propiedades y equivalencias será el objetivo fundamental de este trabajo.
El concepto matemático de módulo cruzado fue introducido por J. H. C. Whitehead en 1949 con el objetivo de modelizar los espacios 2-tipo homotópicos. Los módulos cruzados existen para una gran variedad de estructuras algebraicas; en este trabajo se considerará exclusivamente la estructura de grupo. En este contexto, un módulo cruzado de grupos es un homomorfismo de grupos \mu: M \to N junto con una acción del grupo N sobre el grupo M por automorfismos tal que se cumplen dos condiciones fundamentales: la equivarianza de \mu y la identidad de Peiffer. Los módulos cruzados poseen diversas propiedades algebraicas y son equivalentes, en sentido categórico, a estructuras como los Cat1 -grupos, los 2-grupos estrictos y los grupos categóricos estrictos. Describir tales propiedades y equivalencias será el objetivo fundamental de este trabajo.
Dirección
LADRA GONZALEZ, MANUEL EULOGIO (Tutoría)
RAMOS PEREZ, BRAIS Cotutoría
LADRA GONZALEZ, MANUEL EULOGIO (Tutoría)
RAMOS PEREZ, BRAIS Cotutoría
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Diferenciación Automática mediante grafos computacionales
Autoría
L.E.G.
Grado en Matemáticas
L.E.G.
Grado en Matemáticas
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
La Diferenciación Automática es una técnica de derivación que combina las ideas de la diferenciación simbólica y de la diferenciación numérica con el objetivo de evaluar de manera exacta derivadas de una función en un punto dado. Existen dos enfoques principales para su aplicación: el método progresivo y el método retrógrado. En este trabajo, nos centraremos principalmente en el segundo, aunque también se tratará el método progresivo, pero de manera introductoria, para contextualizar este nuevo tipo de diferenciación. Se estudiará el beneficio de utilizar el enfoque retrógrado en el cálculo de gradientes de funciones que dependan de multitud de variables, la extensión del método a varias variables independientes y a diferentes grados de derivación, así como la creación del grafo computacional necesario para proporcionar un código que permita su implementación en MATLAB. Por último, se explorarán sus aplicaciones prácticas como, por ejemplo, el cálculo de gradientes en los procesos de optimización de redes neuronales.
La Diferenciación Automática es una técnica de derivación que combina las ideas de la diferenciación simbólica y de la diferenciación numérica con el objetivo de evaluar de manera exacta derivadas de una función en un punto dado. Existen dos enfoques principales para su aplicación: el método progresivo y el método retrógrado. En este trabajo, nos centraremos principalmente en el segundo, aunque también se tratará el método progresivo, pero de manera introductoria, para contextualizar este nuevo tipo de diferenciación. Se estudiará el beneficio de utilizar el enfoque retrógrado en el cálculo de gradientes de funciones que dependan de multitud de variables, la extensión del método a varias variables independientes y a diferentes grados de derivación, así como la creación del grafo computacional necesario para proporcionar un código que permita su implementación en MATLAB. Por último, se explorarán sus aplicaciones prácticas como, por ejemplo, el cálculo de gradientes en los procesos de optimización de redes neuronales.
Dirección
PENA BRAGE, FRANCISCO JOSE (Tutoría)
RODRIGUEZ GARCIA, JERONIMO Cotutoría
PENA BRAGE, FRANCISCO JOSE (Tutoría)
RODRIGUEZ GARCIA, JERONIMO Cotutoría
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Introducción a las Cadenas de Markov y sus Aplicaciones a los Juegos de Azar.
Autoría
A.F.B.
Grado en Matemáticas
A.F.B.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 12:30
16.07.2025 12:30
Resumen
Las cadenas de Markov son procesos en los que la probabilidad de los eventos futuros no depende de la historia pasada, sino que depende únicamente del momento actual. Este caso particular de cadenas es de gran utilidad para el estudio de muchos campos científicos como pueden ser la biología, la química, la física o la informática. En este trabajo se realizará un análisis sobre las cadenas de Markov y se aplicará lo estudiado a algunos juegos de azar como el Blackjack o Serpientes y Escaleras. Estos juegos, además de depender de la aleatoriedad, se ven influídos por la estrategia de los jugadores en muchas ocasiones, por lo que conocer la teoría que los sustenta puede ayudar a los jugadores a tomar mejores decisiones.
Las cadenas de Markov son procesos en los que la probabilidad de los eventos futuros no depende de la historia pasada, sino que depende únicamente del momento actual. Este caso particular de cadenas es de gran utilidad para el estudio de muchos campos científicos como pueden ser la biología, la química, la física o la informática. En este trabajo se realizará un análisis sobre las cadenas de Markov y se aplicará lo estudiado a algunos juegos de azar como el Blackjack o Serpientes y Escaleras. Estos juegos, además de depender de la aleatoriedad, se ven influídos por la estrategia de los jugadores en muchas ocasiones, por lo que conocer la teoría que los sustenta puede ayudar a los jugadores a tomar mejores decisiones.
Dirección
AMEIJEIRAS ALONSO, JOSE (Tutoría)
Bolón Rodríguez, Diego Cotutoría
AMEIJEIRAS ALONSO, JOSE (Tutoría)
Bolón Rodríguez, Diego Cotutoría
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Aspectos computacionales de los contrastes de bondad de ajuste para modelos de regresión lineales
Autoría
G.F.F.
Grado en Matemáticas
G.F.F.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 13:15
16.07.2025 13:15
Resumen
En este trabajo se realizará una introducción al modelo de regresión lineal múltiple y a los modelos de regresión paramétricos, así como a las hipótesis clásicas que se suponen sobre los mismos. Una de ellas es la hipótesis de linealidad, respectivamente la forma paramétrica considerada, del modelo; que derivará en que nos centremos en el contraste de bondad de ajuste presentado por Stute (1997), el cuál resulta de gran utilidad a la hora de verificar si un modelo especificado verifica una cierta forma paramétrica. Debido a la complejidad a la hora de estimar la distribución del estadístico propuesto para dicho contraste, se presentará una aproximación bootstrap, más concretamente un wild bootstrap sobre los residuos del modelo considerado para llevar a cabo el calibrado del test en la práctica. Más adelante, programaremos dicho contraste en R y realizaremos un estudio de simulación con el objetivo de comprobar el buen comportamiento del contraste de forma empírica; verificando que respeta el nivel de significación bajo la hipótesis nula y que muestra una buena potencia, es decir, que es capaz de rechazar la hipótesis nula cuando consideramos modelos bajo la hipótesis alternativa. Por último, presentaremos una aplicación a datos reales que nos permitirá ilustrar la utilidad del procedimiento presentado en la práctica.
En este trabajo se realizará una introducción al modelo de regresión lineal múltiple y a los modelos de regresión paramétricos, así como a las hipótesis clásicas que se suponen sobre los mismos. Una de ellas es la hipótesis de linealidad, respectivamente la forma paramétrica considerada, del modelo; que derivará en que nos centremos en el contraste de bondad de ajuste presentado por Stute (1997), el cuál resulta de gran utilidad a la hora de verificar si un modelo especificado verifica una cierta forma paramétrica. Debido a la complejidad a la hora de estimar la distribución del estadístico propuesto para dicho contraste, se presentará una aproximación bootstrap, más concretamente un wild bootstrap sobre los residuos del modelo considerado para llevar a cabo el calibrado del test en la práctica. Más adelante, programaremos dicho contraste en R y realizaremos un estudio de simulación con el objetivo de comprobar el buen comportamiento del contraste de forma empírica; verificando que respeta el nivel de significación bajo la hipótesis nula y que muestra una buena potencia, es decir, que es capaz de rechazar la hipótesis nula cuando consideramos modelos bajo la hipótesis alternativa. Por último, presentaremos una aplicación a datos reales que nos permitirá ilustrar la utilidad del procedimiento presentado en la práctica.
Dirección
CONDE AMBOAGE, MERCEDES (Tutoría)
CONDE AMBOAGE, MERCEDES (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Introducción al modelo de Black-Scholes
Autoría
M.F.P.
Grado en Matemáticas
M.F.P.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 16:00
16.07.2025 16:00
Resumen
Publicado en el año 1973, el modelo de Black-Scholes supuso un importante avance en la teoría de valoración de opciones financieras, ya que explicitaba una solución para el precio teórico de las opciones europeas. El objetivo de este trabajo es realizar una introducción a este modelo. El documento comienza explicando conceptos financieros básicos y, posteriormente, aborda los fundamentos matemáticos necesarios sobre los que se sustenta el modelo. Destacan el movimiento browniano geométrico y el Lema de Itô. A continuación, con el apoyo de estas herramientas, se deduce formalmente la ecuación diferencial de Black-Scholes para, seguidamente, presentar la fórmula explícita para opciones europeas. También se ejemplifica un caso práctico en el que se puede apreciar la utilidad de este modelo en situaciones reales. Por último, se presentan una serie de factores que limitan el modelo en escenarios reales actuales, así como se discuten posibles extensiones y modificaciones del mismo que se adapten a estas situaciones.
Publicado en el año 1973, el modelo de Black-Scholes supuso un importante avance en la teoría de valoración de opciones financieras, ya que explicitaba una solución para el precio teórico de las opciones europeas. El objetivo de este trabajo es realizar una introducción a este modelo. El documento comienza explicando conceptos financieros básicos y, posteriormente, aborda los fundamentos matemáticos necesarios sobre los que se sustenta el modelo. Destacan el movimiento browniano geométrico y el Lema de Itô. A continuación, con el apoyo de estas herramientas, se deduce formalmente la ecuación diferencial de Black-Scholes para, seguidamente, presentar la fórmula explícita para opciones europeas. También se ejemplifica un caso práctico en el que se puede apreciar la utilidad de este modelo en situaciones reales. Por último, se presentan una serie de factores que limitan el modelo en escenarios reales actuales, así como se discuten posibles extensiones y modificaciones del mismo que se adapten a estas situaciones.
Dirección
AMEIJEIRAS ALONSO, JOSE (Tutoría)
GINZO VILLAMAYOR, MARIA JOSE Cotutoría
AMEIJEIRAS ALONSO, JOSE (Tutoría)
GINZO VILLAMAYOR, MARIA JOSE Cotutoría
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Análisis estadístico de tablas de frecuencia
Autoría
X.F.S.
Grado en Matemáticas
X.F.S.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 16:45
16.07.2025 16:45
Resumen
En este trabajo se presenta una revisión de los métodos estadísticos para el análisis de tablas de frecuencias. En primer lugar, se recuerdan las distribuciones de probabilidad de las variables discretas mas relevantes y relacionadas con las tablas de frecuencias: Binomial, Multinomial, Poisson e Hipergeométrica. Después, se hace un repaso de los conceptos fundamentales de la Inferencia Estadística y su aplicación a tablas de contingencia. Más adelante se estudian las tablas de contingencia bidimensionales, empezando por las tabls $2\times2$ y siguiendo con las tablas generales $I\times J$. Se revisan los test chi-cuadrado, de razón de verosimilitudes y exacto de Fisher. Además de ejemplos ilustrativos, se emplean métodos gráficos muy visuales, como los diagramas de barras apiladas, los gráficos de cuatro campos, los diagramas de tamiz y los diagramas de mosaico. Termina el trabajo con el estudio de las tablas de contingencia multidimensionales, que implican el estudio de tablas parciales y marginales, lo que culmina con los tests de Mantel-Haenszel y de Breslow-Day-Tarone. Las Odds-Ratios se muestran como una herramienta de gran utilidad para el análisis de las formas de asociación en una tabla de contingencia. El trabajo fue acompañado de ejemplos, así como de códigos en lenguaje R para la implementación de los métodos estadísticos que se fueron considerando.
En este trabajo se presenta una revisión de los métodos estadísticos para el análisis de tablas de frecuencias. En primer lugar, se recuerdan las distribuciones de probabilidad de las variables discretas mas relevantes y relacionadas con las tablas de frecuencias: Binomial, Multinomial, Poisson e Hipergeométrica. Después, se hace un repaso de los conceptos fundamentales de la Inferencia Estadística y su aplicación a tablas de contingencia. Más adelante se estudian las tablas de contingencia bidimensionales, empezando por las tabls $2\times2$ y siguiendo con las tablas generales $I\times J$. Se revisan los test chi-cuadrado, de razón de verosimilitudes y exacto de Fisher. Además de ejemplos ilustrativos, se emplean métodos gráficos muy visuales, como los diagramas de barras apiladas, los gráficos de cuatro campos, los diagramas de tamiz y los diagramas de mosaico. Termina el trabajo con el estudio de las tablas de contingencia multidimensionales, que implican el estudio de tablas parciales y marginales, lo que culmina con los tests de Mantel-Haenszel y de Breslow-Day-Tarone. Las Odds-Ratios se muestran como una herramienta de gran utilidad para el análisis de las formas de asociación en una tabla de contingencia. El trabajo fue acompañado de ejemplos, así como de códigos en lenguaje R para la implementación de los métodos estadísticos que se fueron considerando.
Dirección
SANCHEZ SELLERO, CESAR ANDRES (Tutoría)
SANCHEZ SELLERO, CESAR ANDRES (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Análisis y comparativa en técnicas de detección e tratamiento del Concept Drift
Autoría
F.F.M.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
F.F.M.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
En este trabajo se comparan distintas técnicas para la detección y adaptación del Concept Drift, un fenómeno que se manifiesta en entornos dinámicos y no estacionarios, donde las relaciones estadísticas entre las variables del modelo cambian con el tiempo, afectando en algunos casos a su rendimiento. El objetivo principal consiste en evaluar diversos detectores de drift presentes en la Literatura, junto con el análisis de diversas técnicas de adaptación tras la detección. El estudio se desarrolla sobre un entorno experimental con datasets artificiales que simulan distintos tipos de drift, aplicados sobre un modelo de clasificación. Se analizan algoritmos clásicos de la librería RiverML, en escenarios con y sin información previa del entorno, aplicando en el primer caso una optimización de hiperparámetros mediante un método novedoso basado en Random Search. Sobre KSWIN, uno de los algoritmos evaluados, se incorpora modificación desarrollada de forma complementaria en el Trabajo Fin de Grado en Matemáticas, que introduce técnicas estadísticas como contrastes múltiples y la corrección de Benjamini Hochberg para mejorar el proceso de detección, así como un sistema de identificación del tipo de drift mediante inferencia no paramétrica, considerado innovador en la Literatura. Los resultados ponen de manifiesto las fortalezas y limitaciones tanto de los detectores como de las estrategias de adaptación analizadas. Si bien algunos algoritmos, como HDDMW, muestran un buen rendimiento general, la elección del detector más adecuado depende en gran medida del caso de uso y del tipo de drift presente. Asimismo, la adaptación basada en mini batches ofrece un desempeño sólido frente al reentrenamiento periódico. Además, la modificación propuesta sobre KSWIN mejora al resto de detectores en cuanto a equilibrio entre falsos positivos y falsos negativos durante el proceso de detección, y sienta una base sólida en el método de identificación del tipo de drift.
En este trabajo se comparan distintas técnicas para la detección y adaptación del Concept Drift, un fenómeno que se manifiesta en entornos dinámicos y no estacionarios, donde las relaciones estadísticas entre las variables del modelo cambian con el tiempo, afectando en algunos casos a su rendimiento. El objetivo principal consiste en evaluar diversos detectores de drift presentes en la Literatura, junto con el análisis de diversas técnicas de adaptación tras la detección. El estudio se desarrolla sobre un entorno experimental con datasets artificiales que simulan distintos tipos de drift, aplicados sobre un modelo de clasificación. Se analizan algoritmos clásicos de la librería RiverML, en escenarios con y sin información previa del entorno, aplicando en el primer caso una optimización de hiperparámetros mediante un método novedoso basado en Random Search. Sobre KSWIN, uno de los algoritmos evaluados, se incorpora modificación desarrollada de forma complementaria en el Trabajo Fin de Grado en Matemáticas, que introduce técnicas estadísticas como contrastes múltiples y la corrección de Benjamini Hochberg para mejorar el proceso de detección, así como un sistema de identificación del tipo de drift mediante inferencia no paramétrica, considerado innovador en la Literatura. Los resultados ponen de manifiesto las fortalezas y limitaciones tanto de los detectores como de las estrategias de adaptación analizadas. Si bien algunos algoritmos, como HDDMW, muestran un buen rendimiento general, la elección del detector más adecuado depende en gran medida del caso de uso y del tipo de drift presente. Asimismo, la adaptación basada en mini batches ofrece un desempeño sólido frente al reentrenamiento periódico. Además, la modificación propuesta sobre KSWIN mejora al resto de detectores en cuanto a equilibrio entre falsos positivos y falsos negativos durante el proceso de detección, y sienta una base sólida en el método de identificación del tipo de drift.
Dirección
MERA PEREZ, DAVID (Tutoría)
MERA PEREZ, DAVID (Tutoría)
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
Trabajo fin de grado
Autoría
C.F.S.
Doble Grado en Matemáticas y en Física
C.F.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
El seleniuro de cromo 1T CrSe2 es un material de van der Waals formado por capas covalentes fuertemente enlazadas en el plano y unidas entre sí por fuerzas débiles de van der Waals fuera de él. Estos sistemas exhiben un comportamiento intermedio entre el de electrones localizados, con momentos magnéticos bien definidos en cada núcleo atómico, y el de electrones itinerantes, deslocalizados a lo largo de bandas de conducción sin poder asignarles un momento neto a cada átomo. Para estudiar su orden magnético y sus inestabilidades electrónicas se llevaron a cabo cálculos ab initio mediante el código WIEN2k, utilizando el método FP LAPW lo y la aproximación de gradiente generalizado PBE. Primero se caracterizó la monocapa rígida 1 por 1: su estado fundamental resulta ferromagnético y su densidad de estados está dominada por orbitales t2g de Cr en el nivel de Fermi, indicio de inestabilidades electrónicas. Para capturar las ondas de densidad de carga asociadas a modos de Peierls se construyeron superceldas 2 por 2 y raiz(3) por raiz(3). La relajación de la celda 2 por 2 revela tetrámeros de Cr y un gap parcial propio de un mecanismo de Peierls unidireccional. La reconstrucción raiz(3) por raiz(3) trimeriza simultáneamente los tres orbitales t2g, abriendo pseudogaps por encima y por debajo del nivel de Fermi y dejando solo una banda plana residual. Dado que la DFT pura tiende a subestimar la interacción de Coulomb local, implementamos la corrección LDA U sobre los orbitales d de Cr. Para valores moderados de U se refuerza la apertura del pseudogap y se estabiliza aún más la fase CDW ferromagnética, mientras que un U excesivo provoca reordenaciones de subbandas que reintroducen picos de densidad de estados en EF.
El seleniuro de cromo 1T CrSe2 es un material de van der Waals formado por capas covalentes fuertemente enlazadas en el plano y unidas entre sí por fuerzas débiles de van der Waals fuera de él. Estos sistemas exhiben un comportamiento intermedio entre el de electrones localizados, con momentos magnéticos bien definidos en cada núcleo atómico, y el de electrones itinerantes, deslocalizados a lo largo de bandas de conducción sin poder asignarles un momento neto a cada átomo. Para estudiar su orden magnético y sus inestabilidades electrónicas se llevaron a cabo cálculos ab initio mediante el código WIEN2k, utilizando el método FP LAPW lo y la aproximación de gradiente generalizado PBE. Primero se caracterizó la monocapa rígida 1 por 1: su estado fundamental resulta ferromagnético y su densidad de estados está dominada por orbitales t2g de Cr en el nivel de Fermi, indicio de inestabilidades electrónicas. Para capturar las ondas de densidad de carga asociadas a modos de Peierls se construyeron superceldas 2 por 2 y raiz(3) por raiz(3). La relajación de la celda 2 por 2 revela tetrámeros de Cr y un gap parcial propio de un mecanismo de Peierls unidireccional. La reconstrucción raiz(3) por raiz(3) trimeriza simultáneamente los tres orbitales t2g, abriendo pseudogaps por encima y por debajo del nivel de Fermi y dejando solo una banda plana residual. Dado que la DFT pura tiende a subestimar la interacción de Coulomb local, implementamos la corrección LDA U sobre los orbitales d de Cr. Para valores moderados de U se refuerza la apertura del pseudogap y se estabiliza aún más la fase CDW ferromagnética, mientras que un U excesivo provoca reordenaciones de subbandas que reintroducen picos de densidad de estados en EF.
Dirección
PARDO CASTRO, VICTOR (Tutoría)
PARDO CASTRO, VICTOR (Tutoría)
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Segmentación Automática de Imágenes de Resonancia Magnética Preclínica
Autoría
A.G.A.
Doble Grado en Matemáticas y en Física
A.G.A.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El objetivo principal de este trabajo es desarrollar un sistema automatizado para la detección y segmentación de glioblastomas, un tipo agresivo de tumor cerebral, en modelos animales (ratones y ratas) mediante imágenes de resonancia magnética preclínica (RM). Para ello, se emplean técnicas de aprendizaje supervisado con el fin de segmentar automáticamente el glioblastoma y calcular su volumen de forma precisa. En el Capítulo 3 se presenta el modelo U-Net, una red neuronal convolucional especializada en tareas de segmentación médica. Este modelo se entrena utilizando imágenes de RM de ratones con segmentaciones manuales (ground truth), con el objetivo de localizar automáticamente el glioblastoma en nuevas imágenes. Se explora el impacto de diferentes configuraciones de hiperparámetros y se evalúa el rendimiento del modelo mediante métricas específicas de segmentación. El Capítulo 4 aborda el desarrollo de modelos predictivos para estimar el volumen tumoral en ratones, a partir de las mismas imágenes utilizadas en el capítulo anterior. El proceso incluye la extracción de variables radiómicas, su comparación con las obtenidas previamente por la investigadora Sara Ortega, la selección de las variables más relevantes, y el entrenamiento de modelos de regresión. Nuevamente, se analizan distintas combinaciones de hiperparámetros para estudiar su influencia sobre la calidad de las predicciones. En el Capítulo 5, se replica el procedimiento anterior, esta vez empleando imágenes de ratas. Además, se lleva a cabo un análisis sobre el impacto del aumento del tamaño muestral en el rendimiento de los modelos predictivos, entrenando los algoritmos con distintas cantidades de datos. Finalmente, se consideró la posibilidad de construir un modelo para predecir la supervivencia de los animales a partir de las imágenes. Sin embargo, un análisis preliminar reveló que los datos disponibles eran insuficientes para obtener predicciones fiables, por lo que esta posibilidad se planteó como futura línea de investigación.
El objetivo principal de este trabajo es desarrollar un sistema automatizado para la detección y segmentación de glioblastomas, un tipo agresivo de tumor cerebral, en modelos animales (ratones y ratas) mediante imágenes de resonancia magnética preclínica (RM). Para ello, se emplean técnicas de aprendizaje supervisado con el fin de segmentar automáticamente el glioblastoma y calcular su volumen de forma precisa. En el Capítulo 3 se presenta el modelo U-Net, una red neuronal convolucional especializada en tareas de segmentación médica. Este modelo se entrena utilizando imágenes de RM de ratones con segmentaciones manuales (ground truth), con el objetivo de localizar automáticamente el glioblastoma en nuevas imágenes. Se explora el impacto de diferentes configuraciones de hiperparámetros y se evalúa el rendimiento del modelo mediante métricas específicas de segmentación. El Capítulo 4 aborda el desarrollo de modelos predictivos para estimar el volumen tumoral en ratones, a partir de las mismas imágenes utilizadas en el capítulo anterior. El proceso incluye la extracción de variables radiómicas, su comparación con las obtenidas previamente por la investigadora Sara Ortega, la selección de las variables más relevantes, y el entrenamiento de modelos de regresión. Nuevamente, se analizan distintas combinaciones de hiperparámetros para estudiar su influencia sobre la calidad de las predicciones. En el Capítulo 5, se replica el procedimiento anterior, esta vez empleando imágenes de ratas. Además, se lleva a cabo un análisis sobre el impacto del aumento del tamaño muestral en el rendimiento de los modelos predictivos, entrenando los algoritmos con distintas cantidades de datos. Finalmente, se consideró la posibilidad de construir un modelo para predecir la supervivencia de los animales a partir de las imágenes. Sin embargo, un análisis preliminar reveló que los datos disponibles eran insuficientes para obtener predicciones fiables, por lo que esta posibilidad se planteó como futura línea de investigación.
Dirección
IGLESIAS REY, RAMON (Tutoría)
IGLESIAS REY, RAMON (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Ecuaciones de las aguas poco profundas: soluciones analíticas y numéricas
Autoría
M.G.C.
Grado en Matemáticas
M.G.C.
Grado en Matemáticas
Fecha de la defensa
17.07.2025 10:40
17.07.2025 10:40
Resumen
Las ecuaciones de las aguas poco profundas tienen una importante presencia en hidráulica y en las ciencias medioambientales. Tener un modelo matemático sencillo que describa la realidad con precisión trae consigo grandes beneficios. Siguiendo esta motivación, este trabajo está dedicado a introducir las ecuaciones de las aguas poco profundas y su resolución, abordada tanto desde el punto de vista analítico como numérico. Se empieza estudiando las propiedades matemáticas del correspondiente sistema de leyes de conservación hiperbólicas para después obtener algunas soluciones particulares y finalmente abordar el diseño y validación de métodos numéricos para su resolución. El código Matlab desarrollado está basado en esquemas de volúmenes finitos de primer orden y permite resolver de modo aproximado el problema de Riemann clásico.
Las ecuaciones de las aguas poco profundas tienen una importante presencia en hidráulica y en las ciencias medioambientales. Tener un modelo matemático sencillo que describa la realidad con precisión trae consigo grandes beneficios. Siguiendo esta motivación, este trabajo está dedicado a introducir las ecuaciones de las aguas poco profundas y su resolución, abordada tanto desde el punto de vista analítico como numérico. Se empieza estudiando las propiedades matemáticas del correspondiente sistema de leyes de conservación hiperbólicas para después obtener algunas soluciones particulares y finalmente abordar el diseño y validación de métodos numéricos para su resolución. El código Matlab desarrollado está basado en esquemas de volúmenes finitos de primer orden y permite resolver de modo aproximado el problema de Riemann clásico.
Dirección
VAZQUEZ CENDON, MARIA ELENA (Tutoría)
BUSTO ULLOA, SARAY Cotutoría
VAZQUEZ CENDON, MARIA ELENA (Tutoría)
BUSTO ULLOA, SARAY Cotutoría
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Introducción a las superficies minerales
Autoría
J.G.G.
Grado en Matemáticas
J.G.G.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 10:45
16.07.2025 10:45
Resumen
La investigación de la teoría de superficies minimales, aún plenamente vigente, comenzó en el siglo XVIII con valiosas contribuciones de ilustres matemáticos como L. Euler o J. Lagrange. Iniciamos este trabajo recogiendo los primeros acercamientos y definiciones, a veces desde distintas perspectivas -como la física, la geométrica o la analítica- de las superficies minimales. Uno de los avances más significativos en esta materia sucedió entre 1861 y 1864 con la incorporación del Análisis Complejo al estudio de las superficies minimales, culminando en lo que hoy conocemos como Representación de Weierstrass-Enneper, que también tratamos en este texto. Por último, pasamos a estudiar una de las principales herramientas en el contexto de la teoría de superficies: el Principio del máximo. Este resultado permite comparar y distinguir superficies a través del análisis de sus respectivas curvaturas medias.
La investigación de la teoría de superficies minimales, aún plenamente vigente, comenzó en el siglo XVIII con valiosas contribuciones de ilustres matemáticos como L. Euler o J. Lagrange. Iniciamos este trabajo recogiendo los primeros acercamientos y definiciones, a veces desde distintas perspectivas -como la física, la geométrica o la analítica- de las superficies minimales. Uno de los avances más significativos en esta materia sucedió entre 1861 y 1864 con la incorporación del Análisis Complejo al estudio de las superficies minimales, culminando en lo que hoy conocemos como Representación de Weierstrass-Enneper, que también tratamos en este texto. Por último, pasamos a estudiar una de las principales herramientas en el contexto de la teoría de superficies: el Principio del máximo. Este resultado permite comparar y distinguir superficies a través del análisis de sus respectivas curvaturas medias.
Dirección
SANMARTIN LOPEZ, VICTOR (Tutoría)
SANMARTIN LOPEZ, VICTOR (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Que facer cunha mostra e un ordenador? Aplicando a metodoloxía bootstrap ao cálculo de intervalos de confianza
Autoría
C.G.G.
Grado en Matemáticas
C.G.G.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 09:15
16.07.2025 09:15
Resumen
Na Estatística, un dos obxectivos principais é estimar o valor dun parámetro que caracteriza unha poboación. Así mesmo, interesa estudar as propiedades desas estimacións como, por exemplo, a incerteza asociada ao estimador. Iso é o que pretende o método jackknife, sobre o cal xurdiu o método bootstrap como unha versión mellorada. O bootstrap uniforme, que é a versión máis sinxela, resulta útil nun contexto onde a distribución poboacional é totalmente descoñecida e só dispoñemos da mostra. Con todo, cando se coñecen certas propiedades da distribución subxacente, poden empregarse outras variantes con mellores resultados que o uniforme. Neste traballo expóñense os distintos procedementos bootstrap así como os algoritmos asociados en combinación co método Monte Carlo. Actualmente, as aplicacións do bootstrap son moi numerosas. Unha das máis relevantes é a construción de intervalos de confianza para distintos parámetros. Neste traballo compáranse, segundo o seu erro de cobertura, o método baseado na Normal asintótica e tres variantes do bootstrap: o método percentil básico, o percentil-t e o percentil-t simetrizado. Estes tres procedementos, cuxa construción se fundamenta no método pivotal, diferéncianse na definición do pivote empregado, destacando que o pivote estudentizado en valor absoluto usado no percentil-t simetrizado, proporciona intervalos de confianza máis precisos.
Na Estatística, un dos obxectivos principais é estimar o valor dun parámetro que caracteriza unha poboación. Así mesmo, interesa estudar as propiedades desas estimacións como, por exemplo, a incerteza asociada ao estimador. Iso é o que pretende o método jackknife, sobre o cal xurdiu o método bootstrap como unha versión mellorada. O bootstrap uniforme, que é a versión máis sinxela, resulta útil nun contexto onde a distribución poboacional é totalmente descoñecida e só dispoñemos da mostra. Con todo, cando se coñecen certas propiedades da distribución subxacente, poden empregarse outras variantes con mellores resultados que o uniforme. Neste traballo expóñense os distintos procedementos bootstrap así como os algoritmos asociados en combinación co método Monte Carlo. Actualmente, as aplicacións do bootstrap son moi numerosas. Unha das máis relevantes é a construción de intervalos de confianza para distintos parámetros. Neste traballo compáranse, segundo o seu erro de cobertura, o método baseado na Normal asintótica e tres variantes do bootstrap: o método percentil básico, o percentil-t e o percentil-t simetrizado. Estes tres procedementos, cuxa construción se fundamenta no método pivotal, diferéncianse na definición do pivote empregado, destacando que o pivote estudentizado en valor absoluto usado no percentil-t simetrizado, proporciona intervalos de confianza máis precisos.
Dirección
BORRAJO GARCIA, MARIA ISABEL (Tutoría)
BORRAJO GARCIA, MARIA ISABEL (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
El Modelo de Regresión Lineal Funcional
Autoría
L.G.R.
Grado en Matemáticas
L.G.R.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 10:00
16.07.2025 10:00
Resumen
El análisis de datos funcionales es la rama de la estadística que tiene por objeto el estudio de funciones como objetos probabilísticos, expandiendo la visión tradicional ocupada únicamente con escalares o vectores. El objetivo de este trabajo es proporcionar una introducción a la estadística de los datos funcionales, estableciendo sus bases teóricas y prestando especial atención al análisis de la regresión. Se formulan dos modelos de regresión lineal funcional, según el carácter escalar o funcional de la respuesta, y se presentan distintas técnicas de estimación y contraste de significación aplicables a cada uno de los modelos.
El análisis de datos funcionales es la rama de la estadística que tiene por objeto el estudio de funciones como objetos probabilísticos, expandiendo la visión tradicional ocupada únicamente con escalares o vectores. El objetivo de este trabajo es proporcionar una introducción a la estadística de los datos funcionales, estableciendo sus bases teóricas y prestando especial atención al análisis de la regresión. Se formulan dos modelos de regresión lineal funcional, según el carácter escalar o funcional de la respuesta, y se presentan distintas técnicas de estimación y contraste de significación aplicables a cada uno de los modelos.
Dirección
GONZALEZ MANTEIGA, WENCESLAO (Tutoría)
GONZALEZ MANTEIGA, WENCESLAO (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Los problemas de bancarrota
Autoría
H.G.S.
Grado en Matemáticas
H.G.S.
Grado en Matemáticas
Fecha de la defensa
15.07.2025 11:25
15.07.2025 11:25
Resumen
La motivación de este trabajo se basa en un problema concreto y muy importante que hubo que resolver hace unos años y que dejó al mundo paralizado: la crisis de la COVID. La distribución inicial de las mascarillas es fundamental para limitar la expansión del virus, por lo que los distintos estados tuvieron que afrontar un problema de reparto por su territorio de un bien escaso. En este trabajo se estudia el problema de bancarrota, un modelo clásico que puede estudiarse por sí mismo o dentro de la teoría de juegos, y que representa situaciones en las que un conjunto de agentes reclama más de lo que hay disponible de un recurso limitado. Este tipo de problemas surge en numerosos contextos sociales y económicos, donde es necesario repartir un bien escaso entre diferentes partes interesadas, como la geopolítica, la economía empresarial, la gestión de bienes públicos... El objetivo principal del trabajo es realizar una revisión bibliográfica de las distintas soluciones propuestas para este tipo de situaciones, estudiando sus propiedades matemáticas, su justificación conceptual y sus aplicaciones potenciales, ya sea utilizando modelos existentes de teoría de juegos o creando modelos específicos. Se analizan reglas como la división proporcional, la solución del Talmud, el valor de Shapley, las reglas de prioridad o las reglas geométricas, entre otras, comparando sus comportamientos en términos de equidad, consistencia y eficiencia, y todo ello aplicado al caso práctico.
La motivación de este trabajo se basa en un problema concreto y muy importante que hubo que resolver hace unos años y que dejó al mundo paralizado: la crisis de la COVID. La distribución inicial de las mascarillas es fundamental para limitar la expansión del virus, por lo que los distintos estados tuvieron que afrontar un problema de reparto por su territorio de un bien escaso. En este trabajo se estudia el problema de bancarrota, un modelo clásico que puede estudiarse por sí mismo o dentro de la teoría de juegos, y que representa situaciones en las que un conjunto de agentes reclama más de lo que hay disponible de un recurso limitado. Este tipo de problemas surge en numerosos contextos sociales y económicos, donde es necesario repartir un bien escaso entre diferentes partes interesadas, como la geopolítica, la economía empresarial, la gestión de bienes públicos... El objetivo principal del trabajo es realizar una revisión bibliográfica de las distintas soluciones propuestas para este tipo de situaciones, estudiando sus propiedades matemáticas, su justificación conceptual y sus aplicaciones potenciales, ya sea utilizando modelos existentes de teoría de juegos o creando modelos específicos. Se analizan reglas como la división proporcional, la solución del Talmud, el valor de Shapley, las reglas de prioridad o las reglas geométricas, entre otras, comparando sus comportamientos en términos de equidad, consistencia y eficiencia, y todo ello aplicado al caso práctico.
Dirección
SAAVEDRA NIEVES, ALEJANDRO (Tutoría)
SAAVEDRA NIEVES, ALEJANDRO (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Atajos a la adiabaticidad en sistemas cuánticos simples
Autoría
J.G.C.
Doble Grado en Matemáticas y en Física
J.G.C.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Dado un sistema cuántico en el que queremos modificar algún parámetro de control sin que exista un cambio en su nivel de energía el teorema adiabático nos permite hacerlo. A cambio, la velocidad a la que se realiza este cambio ha de ser lo suficientemente pequeña. Esto conlleva una mayor vulnerabilidad del sistema a efectos como el ruido o la decoherencia que hacen que el sistema pierda sus propiedades cuánticas. Con el objetivo de solventar esta dificultad se diseñan los métodos conocidos como atajos a la adiabaticidad que nos permiten acelerar el tiempo de preparación del sistema sin tener que depender del teorema adiabático. En particular, en este trabajo nos centraremos en el método conocido como Counterdiabatic Driving(CD) basado en introducir un término adicional en el hamiltoniano que evite las transiciones entre autoestados instantáneos. Primero, motivaremos y daremos el enunciado preciso del teorema adiabático. Luego, introduciremos el formalismo del CD y lo aplicaremos a varios sistemas simples. Finalmente, se dará una breve introducción a otros atajos a la adiabaticidad y sus limitaciones.
Dado un sistema cuántico en el que queremos modificar algún parámetro de control sin que exista un cambio en su nivel de energía el teorema adiabático nos permite hacerlo. A cambio, la velocidad a la que se realiza este cambio ha de ser lo suficientemente pequeña. Esto conlleva una mayor vulnerabilidad del sistema a efectos como el ruido o la decoherencia que hacen que el sistema pierda sus propiedades cuánticas. Con el objetivo de solventar esta dificultad se diseñan los métodos conocidos como atajos a la adiabaticidad que nos permiten acelerar el tiempo de preparación del sistema sin tener que depender del teorema adiabático. En particular, en este trabajo nos centraremos en el método conocido como Counterdiabatic Driving(CD) basado en introducir un término adicional en el hamiltoniano que evite las transiciones entre autoestados instantáneos. Primero, motivaremos y daremos el enunciado preciso del teorema adiabático. Luego, introduciremos el formalismo del CD y lo aplicaremos a varios sistemas simples. Finalmente, se dará una breve introducción a otros atajos a la adiabaticidad y sus limitaciones.
Dirección
Vázquez Ramallo, Alfonso (Tutoría)
Vázquez Ramallo, Alfonso (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Modelos de visión-lenguaje robustos a objetos pequeños
Autoría
N.G.S.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
N.G.S.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 11:00
17.07.2025 11:00
Resumen
Este trabajo se centra en la optimización de modelos de visión-lenguaje (VLMs) aplicados a tareas de pregunta/respuesta visual (VQA) sobre vídeos con objetos pequeños, un escenario que plantea importantes retos computacionales debido al elevado número de tokens visuales irrelevantes que se generan. Para abordar este problema, se propone un método basado en la integración de un detector que identifica regiones visuales relevantes en los fotogramass del vídeo, lo que permite filtrar los tokens visuales asociados al fondo generados por el módulo de visión (ViT) antes de ser procesados por el modelo de lenguaje (LLM). Los resultados experimentales muestran que este filtrado permite eliminar una gran proporción de tokens visuales, lo que conlleva una notable reducción de la complejidad computacional del modelo de lenguaje y, en consecuencia, una disminución en la complejidad total del sistema, sin comprometer el rendimiento. Asimismo, se observa una mejora en el tiempo de ejecución del LLM, lo que contribuye a una mayor eficiencia en el procesamiento textual. Sin embargo, el impacto sobre el tiempo total de inferencia está condicionado por el ViT, que sigue representando el principal cuello de botella debido al procesamiento de imágenes en alta resolución, así como por el coste computacional adicional del detector utilizado. Este trabajo valida el uso de técnicas de filtrado como una estrategia eficaz para mejorar la eficiencia de los VLMs y abre nuevas líneas de investigación dirigidas a optimizar también el procesamiento visual, así como a explorar detectores más ligeros.
Este trabajo se centra en la optimización de modelos de visión-lenguaje (VLMs) aplicados a tareas de pregunta/respuesta visual (VQA) sobre vídeos con objetos pequeños, un escenario que plantea importantes retos computacionales debido al elevado número de tokens visuales irrelevantes que se generan. Para abordar este problema, se propone un método basado en la integración de un detector que identifica regiones visuales relevantes en los fotogramass del vídeo, lo que permite filtrar los tokens visuales asociados al fondo generados por el módulo de visión (ViT) antes de ser procesados por el modelo de lenguaje (LLM). Los resultados experimentales muestran que este filtrado permite eliminar una gran proporción de tokens visuales, lo que conlleva una notable reducción de la complejidad computacional del modelo de lenguaje y, en consecuencia, una disminución en la complejidad total del sistema, sin comprometer el rendimiento. Asimismo, se observa una mejora en el tiempo de ejecución del LLM, lo que contribuye a una mayor eficiencia en el procesamiento textual. Sin embargo, el impacto sobre el tiempo total de inferencia está condicionado por el ViT, que sigue representando el principal cuello de botella debido al procesamiento de imágenes en alta resolución, así como por el coste computacional adicional del detector utilizado. Este trabajo valida el uso de técnicas de filtrado como una estrategia eficaz para mejorar la eficiencia de los VLMs y abre nuevas líneas de investigación dirigidas a optimizar también el procesamiento visual, así como a explorar detectores más ligeros.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
Optimización combinatoria y algoritmos heurísticos
Autoría
D.G.G.
Grado en Matemáticas
D.G.G.
Grado en Matemáticas
Fecha de la defensa
15.07.2025 12:10
15.07.2025 12:10
Resumen
El trabajo principalmente consistirá en el análisis exhaustivo de problemas de optimización combinatoria, en particular, de tres de ellos: problema de flujo en redes, problema de la mochila y el problema del viajante de comercio. A este último le acompañará una simulación práctica aplicada a la realidad, de modo que se analizará la eficiencia de sus principales heurísticos.
El trabajo principalmente consistirá en el análisis exhaustivo de problemas de optimización combinatoria, en particular, de tres de ellos: problema de flujo en redes, problema de la mochila y el problema del viajante de comercio. A este último le acompañará una simulación práctica aplicada a la realidad, de modo que se analizará la eficiencia de sus principales heurísticos.
Dirección
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Una revisión de algoritmos de diferencias finitas en modelos parabólicos
Autoría
Y.G.G.
Grado en Matemáticas
Y.G.G.
Grado en Matemáticas
Fecha de la defensa
15.07.2025 10:30
15.07.2025 10:30
Resumen
En este trabajo presentaremos diferentes algoritmos empleando el método de diferencias finitas para resolver ecuaciones en derivadas parciales (EDPs) parabólicas. Estos métodos estarán orientados para simular una aplicación en transferencia de biocalor. Se comenzará con la formalización del modelo parabólico, para posteriormente centrarse en un caso específico de gran relevancia en bioingeniería: la ecuación de Pennes. Se presentará el método de diferencias finitas como herramienta de discretización, junto a formulaciones en coordenadas alternativas. Acto seguido, se desarrollarán y analizarán cuatro algoritmos clásicos: los métodos explícito, implícito, Crank-Nicolson y el método de líneas. Para cada uno se detallará su formulación, análisis numérico, implementación en MATLAB y validación frente a soluciones conocidas. Finalmente, se aplicará el modelo a un caso real de tejido mamario con quiste, validando los resultados obtenidos y discutiendo su utilidad práctica.
En este trabajo presentaremos diferentes algoritmos empleando el método de diferencias finitas para resolver ecuaciones en derivadas parciales (EDPs) parabólicas. Estos métodos estarán orientados para simular una aplicación en transferencia de biocalor. Se comenzará con la formalización del modelo parabólico, para posteriormente centrarse en un caso específico de gran relevancia en bioingeniería: la ecuación de Pennes. Se presentará el método de diferencias finitas como herramienta de discretización, junto a formulaciones en coordenadas alternativas. Acto seguido, se desarrollarán y analizarán cuatro algoritmos clásicos: los métodos explícito, implícito, Crank-Nicolson y el método de líneas. Para cada uno se detallará su formulación, análisis numérico, implementación en MATLAB y validación frente a soluciones conocidas. Finalmente, se aplicará el modelo a un caso real de tejido mamario con quiste, validando los resultados obtenidos y discutiendo su utilidad práctica.
Dirección
QUINTELA ESTEVEZ, PEREGRINA (Tutoría)
QUINTELA ESTEVEZ, PEREGRINA (Tutoría)
Tribunal
QUINTELA ESTEVEZ, PEREGRINA (Tutor del alumno)
QUINTELA ESTEVEZ, PEREGRINA (Tutor del alumno)
Centros nilpotentes en sistemas polinomiales.
Autoría
A.I.V.
Grado en Matemáticas
A.I.V.
Grado en Matemáticas
Fecha de la defensa
17.07.2025 11:20
17.07.2025 11:20
Resumen
En este trabajo de fin de grao, enmarcado en el área de conocimiento del Análisis Matemático, se aborda el problema abierto de la caracterización de centros globales en sistemas dinámicos polinomiales. Tras una recopilación de resultados básicos del análisis cualitativo de ecuaciones diferenciales se introduce el concepto de centro local y global, clasificándolos en función do su sistema linealizado. Dado que el problema es muy amplio, el estudio se centró en la búsqueda de centros nilpotentes en sistemas homogéneos de grado 5 que presentasen ciertas propiedades de simetría. También se consideraron sistemas hamiltonianos. Comprobar el carácter global de los centros requiere conocer el comportamiento de las órbitas en el infinito del plano euclídeo. Para afrontarlo se recurre a la compactificación de Poincaré, que proyecta el campo definido en R2 en una esfera y permite identificar los puntos en el infinito con la línea del ecuador. Finalmente, para comprender la estructura local de algunas singularidades, se utilizaron las denominadas transformaciones blow up, que expanden el punto singular a lo largo de una recta y facilitan su estudio.
En este trabajo de fin de grao, enmarcado en el área de conocimiento del Análisis Matemático, se aborda el problema abierto de la caracterización de centros globales en sistemas dinámicos polinomiales. Tras una recopilación de resultados básicos del análisis cualitativo de ecuaciones diferenciales se introduce el concepto de centro local y global, clasificándolos en función do su sistema linealizado. Dado que el problema es muy amplio, el estudio se centró en la búsqueda de centros nilpotentes en sistemas homogéneos de grado 5 que presentasen ciertas propiedades de simetría. También se consideraron sistemas hamiltonianos. Comprobar el carácter global de los centros requiere conocer el comportamiento de las órbitas en el infinito del plano euclídeo. Para afrontarlo se recurre a la compactificación de Poincaré, que proyecta el campo definido en R2 en una esfera y permite identificar los puntos en el infinito con la línea del ecuador. Finalmente, para comprender la estructura local de algunas singularidades, se utilizaron las denominadas transformaciones blow up, que expanden el punto singular a lo largo de una recta y facilitan su estudio.
Dirección
OTERO ESPINAR, MARIA VICTORIA (Tutoría)
Diz Pita, Érika Cotutoría
OTERO ESPINAR, MARIA VICTORIA (Tutoría)
Diz Pita, Érika Cotutoría
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Introduction to time series models
Autoría
I.L.C.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
I.L.C.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 09:10
17.07.2025 09:10
Resumen
El estudio de series de tiempo constituye una herramienta fundamental en el análisis de datos que evolucionan a lo largo del tiempo, permitiendo modelar y predecir fenómenos en campos como la economía, la meteorología, la ingeniería o las ciencias sociales. Este Trabajo Fin de Grado aborda el análisis de series de tiempo desde una perspectiva estadística clásica, considerando que las series observadas son realizaciones de procesos estocásticos. Se presentan en detalle los modelos autorregresivos (AR), de medias móviles (MA), mixtos (ARMA), integrados (ARIMA) y estacionales (SARIMA), explicando su formulación matemática, los métodos de estimación de sus parámetros y las técnicas de predicción asociadas. Asimismo, se propone una metodología para el análisis de series de tiempo, la cual será empleada en el análisis de dos series de tiempo reales. Además, se incluye un estudio de simulación para ilustrar y evaluar los procesos de estimación y predicción de los modelos.
El estudio de series de tiempo constituye una herramienta fundamental en el análisis de datos que evolucionan a lo largo del tiempo, permitiendo modelar y predecir fenómenos en campos como la economía, la meteorología, la ingeniería o las ciencias sociales. Este Trabajo Fin de Grado aborda el análisis de series de tiempo desde una perspectiva estadística clásica, considerando que las series observadas son realizaciones de procesos estocásticos. Se presentan en detalle los modelos autorregresivos (AR), de medias móviles (MA), mixtos (ARMA), integrados (ARIMA) y estacionales (SARIMA), explicando su formulación matemática, los métodos de estimación de sus parámetros y las técnicas de predicción asociadas. Asimismo, se propone una metodología para el análisis de series de tiempo, la cual será empleada en el análisis de dos series de tiempo reales. Además, se incluye un estudio de simulación para ilustrar y evaluar los procesos de estimación y predicción de los modelos.
Dirección
CRUJEIRAS CASAIS, ROSA MARÍA (Tutoría)
CRUJEIRAS CASAIS, ROSA MARÍA (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Teoría de sub y sobre soluciones aplicada a las ecuaciones diferenciales ordinarias.
Autoría
A.L.R.
Grado en Matemáticas
A.L.R.
Grado en Matemáticas
Fecha de la defensa
15.07.2025 16:00
15.07.2025 16:00
Resumen
El método de sub y sobresoluciones ha sido objeto de estudio desde la última década del siglo XIX, debido a su eficacia en el análisis de ecuaciones diferenciales no lineales. Este enfoque permite establecer la existencia de soluciones sin necesidad de resolver explícitamente el problema. En este trabajo se presenta, en primer lugar, la aplicación del método de sub y sobresoluciones a ecuaciones diferenciales ordinarias de segundo orden con condiciones de periodicidad. Se demuestran distintos resultados de existencia de solución, que, además, garantizan que dicha solución o soluciones están entre la sub y sobresolución. Posteriormente, se expone el método monótono, una técnica constructiva basada en funciones de Green y en la elección adecuada de un par de sub y sobresoluciones. A diferencia del caso anterior, este método se aplica a ecuaciones diferenciales ordinarias de orden arbitrario y bajo condiciones de contorno generales, no necesariamente periódicas. El procedimiento genera sucesiones monótonas, dadas como las únicas soluciones de correspondientes problemas lineales asociados, que convergen hacia las soluciones extremales localizadas entre la sub y la sobresolución, del problema no lineal estudiado.
El método de sub y sobresoluciones ha sido objeto de estudio desde la última década del siglo XIX, debido a su eficacia en el análisis de ecuaciones diferenciales no lineales. Este enfoque permite establecer la existencia de soluciones sin necesidad de resolver explícitamente el problema. En este trabajo se presenta, en primer lugar, la aplicación del método de sub y sobresoluciones a ecuaciones diferenciales ordinarias de segundo orden con condiciones de periodicidad. Se demuestran distintos resultados de existencia de solución, que, además, garantizan que dicha solución o soluciones están entre la sub y sobresolución. Posteriormente, se expone el método monótono, una técnica constructiva basada en funciones de Green y en la elección adecuada de un par de sub y sobresoluciones. A diferencia del caso anterior, este método se aplica a ecuaciones diferenciales ordinarias de orden arbitrario y bajo condiciones de contorno generales, no necesariamente periódicas. El procedimiento genera sucesiones monótonas, dadas como las únicas soluciones de correspondientes problemas lineales asociados, que convergen hacia las soluciones extremales localizadas entre la sub y la sobresolución, del problema no lineal estudiado.
Dirección
CABADA FERNANDEZ, ALBERTO (Tutoría)
CABADA FERNANDEZ, ALBERTO (Tutoría)
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Explotación de Grandes Modelos de Linguaxe para Anotación Automática de Credibilidade
Autoría
P.L.P.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
P.L.P.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 11:30
17.07.2025 11:30
Resumen
Este trabajo fin de grado se centra en la aplicación de modelos de lenguaje de última generación, como GPT-4 y LlaMa 3, al etiquetado de documentos relacionados con temas de salud en el contexto del proyecto TREC. El objetivo principal es evaluar la posibilidad de sustituir las anotaciones realizadas por expertos humanos por etiquetas generadas con LLMs. El área de estudio de la Recuperación de la Información requiere de conjuntos de datos etiquetados de gran tamaño, que son llevados a cabo por etiquetadores humanos expertos, lo que tiene un alto coste en tiempo y dinero. Si se comprueba que estas etiquetaciones humanas pueden ser sustituidas por unas generadas automáticamente, supondría un gran avance en la generación de datasets de alta calidad. En el presente trabajo se llevará a cabo el etiquetado de los mismos documentos web que fueron etiquetados por humanos; esto nos sirve para analizar discrepancias entre las etiquetas humanas y las generadas por los modelos. También se estudió el efecto que tienen las instrucciones indicadas al modelo de lenguaje sobre la precisión del etiquetado. Basamos nuestra metodología en una publicación llevada a cabo por investigadores de Micorsoft, en la que se lleva a cabo un etiquetado de la relevancia de cada documento. Los resultados obtenidos en thomas2024 fueron muy satisfactorios y se implementaron en Bing por su mejora en tiempo, coste y calidad comparado con etiquetadores. de crowdsourcing. Nuestros resultados suponen un avance respecto a esta publicación anterior, ya que llevamos a cabo un etiquetado de características más complejas como la correctitud médica y la credibilidad. Los resultados obtenidos en nuestro trabajo resultaron en algunos casos muy similares a los de Paul Thomas et al, por lo que los consideramos suficientemente positivos como para sustituir las etiquetas humanas.
Este trabajo fin de grado se centra en la aplicación de modelos de lenguaje de última generación, como GPT-4 y LlaMa 3, al etiquetado de documentos relacionados con temas de salud en el contexto del proyecto TREC. El objetivo principal es evaluar la posibilidad de sustituir las anotaciones realizadas por expertos humanos por etiquetas generadas con LLMs. El área de estudio de la Recuperación de la Información requiere de conjuntos de datos etiquetados de gran tamaño, que son llevados a cabo por etiquetadores humanos expertos, lo que tiene un alto coste en tiempo y dinero. Si se comprueba que estas etiquetaciones humanas pueden ser sustituidas por unas generadas automáticamente, supondría un gran avance en la generación de datasets de alta calidad. En el presente trabajo se llevará a cabo el etiquetado de los mismos documentos web que fueron etiquetados por humanos; esto nos sirve para analizar discrepancias entre las etiquetas humanas y las generadas por los modelos. También se estudió el efecto que tienen las instrucciones indicadas al modelo de lenguaje sobre la precisión del etiquetado. Basamos nuestra metodología en una publicación llevada a cabo por investigadores de Micorsoft, en la que se lleva a cabo un etiquetado de la relevancia de cada documento. Los resultados obtenidos en thomas2024 fueron muy satisfactorios y se implementaron en Bing por su mejora en tiempo, coste y calidad comparado con etiquetadores. de crowdsourcing. Nuestros resultados suponen un avance respecto a esta publicación anterior, ya que llevamos a cabo un etiquetado de características más complejas como la correctitud médica y la credibilidad. Los resultados obtenidos en nuestro trabajo resultaron en algunos casos muy similares a los de Paul Thomas et al, por lo que los consideramos suficientemente positivos como para sustituir las etiquetas humanas.
Dirección
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
LOPEZ FANDIÑO, JAVIER (Secretario/a)
VIDAL AGUIAR, JUAN CARLOS (Vocal)
El problema de comparación de poblaciones: qué hacer cuando no podemos aplicar el test t
Autoría
A.L.P.
Grado en Matemáticas
A.L.P.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 10:45
16.07.2025 10:45
Resumen
El problema de comparación de poblaciones se encuadra dentro de la Inferencia Estadística y tiene como finalidad detectar diferencias entre distintos grupos. Este trabajo comienza con una introducción a la problemática de este, seguida de un capítulo dedicado a la presentación de conceptos básicos de la Estadística que van a ser necesarios para la correcta comprensión de todo el documento, entre los cuales cabe destacar los contrastes de hipótesis. A continuación, se explica detalladamente el problema de comparación de poblaciones, donde se trabaja con la comparación de medias, de varianzas y de funciones de distribución. Por un lado, se distinguirá si se estudian dos o más de dos poblaciones y por otro, se diferenciará entre métodos paramétricos, que asumen la hipótesis de normalidad y entre los que se encuentra el test t, de los no-paramétricos, que no suponen condición alguna sobre las poblaciones de interés. También se incluyen dos pruebas para comprobar la hipótesis de normalidad: la de Lilliefors y la de Shapiro-Wilk; así como pruebas para contrastar la igualdad de varianzas como la de Levene. Finalmente, se emplean las herramientas teóricas detalladas con anterioridad para analizar una base de datos sobre incendios forestales ocurridos en Galicia en el año 2006 a través del programa R.
El problema de comparación de poblaciones se encuadra dentro de la Inferencia Estadística y tiene como finalidad detectar diferencias entre distintos grupos. Este trabajo comienza con una introducción a la problemática de este, seguida de un capítulo dedicado a la presentación de conceptos básicos de la Estadística que van a ser necesarios para la correcta comprensión de todo el documento, entre los cuales cabe destacar los contrastes de hipótesis. A continuación, se explica detalladamente el problema de comparación de poblaciones, donde se trabaja con la comparación de medias, de varianzas y de funciones de distribución. Por un lado, se distinguirá si se estudian dos o más de dos poblaciones y por otro, se diferenciará entre métodos paramétricos, que asumen la hipótesis de normalidad y entre los que se encuentra el test t, de los no-paramétricos, que no suponen condición alguna sobre las poblaciones de interés. También se incluyen dos pruebas para comprobar la hipótesis de normalidad: la de Lilliefors y la de Shapiro-Wilk; así como pruebas para contrastar la igualdad de varianzas como la de Levene. Finalmente, se emplean las herramientas teóricas detalladas con anterioridad para analizar una base de datos sobre incendios forestales ocurridos en Galicia en el año 2006 a través del programa R.
Dirección
BORRAJO GARCIA, MARIA ISABEL (Tutoría)
BORRAJO GARCIA, MARIA ISABEL (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Teoría de Sylow y grupos de orden bajo
Autoría
I.M.H.
Grado en Matemáticas
I.M.H.
Grado en Matemáticas
Fecha de la defensa
15.07.2025 12:00
15.07.2025 12:00
Resumen
El objetivo de este trabajo es estudiar los grupos finitos de orden menor o igual que 30, agrupándolos en distintas categorías según su estructura en factores primos, empleando fundamentalmente técnicas como la Teoría de Sylow. También introduciremos nuevas herramientas para completar nuestro estudio como el producto semidirecto. Normalmente, el análisis de los diferentes grupos se hará para el caso general y luego para los órdenes concretos, pero, si la tarea es complicada en el caso general, el estudio se centrará solamente en el caso concreto, del que se procurará llevar a cabo un profundo estudio.
El objetivo de este trabajo es estudiar los grupos finitos de orden menor o igual que 30, agrupándolos en distintas categorías según su estructura en factores primos, empleando fundamentalmente técnicas como la Teoría de Sylow. También introduciremos nuevas herramientas para completar nuestro estudio como el producto semidirecto. Normalmente, el análisis de los diferentes grupos se hará para el caso general y luego para los órdenes concretos, pero, si la tarea es complicada en el caso general, el estudio se centrará solamente en el caso concreto, del que se procurará llevar a cabo un profundo estudio.
Dirección
FERNANDEZ RODRIGUEZ, ROSA Mª (Tutoría)
COSTOYA RAMOS, MARIA CRISTINA Cotutoría
FERNANDEZ RODRIGUEZ, ROSA Mª (Tutoría)
COSTOYA RAMOS, MARIA CRISTINA Cotutoría
Tribunal
COSTOYA RAMOS, MARIA CRISTINA (Tutor del alumno)
FERNANDEZ RODRIGUEZ, ROSA Mª (Tutor del alumno)
COSTOYA RAMOS, MARIA CRISTINA (Tutor del alumno)
FERNANDEZ RODRIGUEZ, ROSA Mª (Tutor del alumno)
Trabajo Fin de Grado
Autoría
D.M.M.
Grado en Matemáticas
D.M.M.
Grado en Matemáticas
Fecha de la defensa
15.07.2025 16:40
15.07.2025 16:40
Resumen
Un trabajo de investigación centrado en las curvas algebraicas se puede entender como el primer paso a dar para adentrarse en el contexto de las variedades. El enfoque geométrico desde el que se examinan constituye una importante motivación de ciertos fundamentos y teoremas del Álgebra conmutativa. Mediante el conocimiento obtenido en cursos elementales de teoría de anillos y de teoría de números, se pueden establecer desde cero las bases de la Geometría algebraica. Una vez expuestas las nociones de variedades afines y proyectivas, es habitual introducir el concepto de punto singular. La idea clave para su estudio es preguntarse qué anillos nos dan información local de las curvas y, avanzando en el sentido de la cuestión anterior, si sería posible llegar a ejemplos de curvas sencillas que preserven las propiedades de otras más complejas.
Un trabajo de investigación centrado en las curvas algebraicas se puede entender como el primer paso a dar para adentrarse en el contexto de las variedades. El enfoque geométrico desde el que se examinan constituye una importante motivación de ciertos fundamentos y teoremas del Álgebra conmutativa. Mediante el conocimiento obtenido en cursos elementales de teoría de anillos y de teoría de números, se pueden establecer desde cero las bases de la Geometría algebraica. Una vez expuestas las nociones de variedades afines y proyectivas, es habitual introducir el concepto de punto singular. La idea clave para su estudio es preguntarse qué anillos nos dan información local de las curvas y, avanzando en el sentido de la cuestión anterior, si sería posible llegar a ejemplos de curvas sencillas que preserven las propiedades de otras más complejas.
Dirección
ALONSO TARRIO, LEOVIGILDO (Tutoría)
ALVITE PAZO, RAUL Cotutoría
ALONSO TARRIO, LEOVIGILDO (Tutoría)
ALVITE PAZO, RAUL Cotutoría
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Análisis Funcional de G.D. Lugovaia y S.N. Sherstniov. Ejercicios resueltos.
Autoría
M.O.P.
Grado en Matemáticas
M.O.P.
Grado en Matemáticas
Fecha de la defensa
15.07.2025 17:20
15.07.2025 17:20
Resumen
En este Trabajo Fin de Grado presentaremos los conceptos básicos de la teoría de las C*-álgebras de la mano de Galina Dmítrievna Lugovaia y Anatoli Nikoláievich Sherstniov, así como resolveremos los ejercicios propuestos por estos. Empezaremos introduciendo las álgebras de Banach, estudiando sus propiedades tanto algebraicas como topológicas y culminando con la Representación de Gelfand, que las relaciona con los espacios de funciones continuas. Seguidamente, estudiaremos el caso particular de las C*-álgebras, de gran interés en el área del análisis funcional. Analizaremos su estructura y conceptos más importantes: elementos positivos, identidades aproximadas, morfismos, estados...
En este Trabajo Fin de Grado presentaremos los conceptos básicos de la teoría de las C*-álgebras de la mano de Galina Dmítrievna Lugovaia y Anatoli Nikoláievich Sherstniov, así como resolveremos los ejercicios propuestos por estos. Empezaremos introduciendo las álgebras de Banach, estudiando sus propiedades tanto algebraicas como topológicas y culminando con la Representación de Gelfand, que las relaciona con los espacios de funciones continuas. Seguidamente, estudiaremos el caso particular de las C*-álgebras, de gran interés en el área del análisis funcional. Analizaremos su estructura y conceptos más importantes: elementos positivos, identidades aproximadas, morfismos, estados...
Dirección
LOSADA RODRIGUEZ, JORGE (Tutoría)
LOSADA RODRIGUEZ, JORGE (Tutoría)
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Especificación de Modelos en el Análisis de Supervivencia
Autoría
A.A.P.B.
Grado en Matemáticas
A.A.P.B.
Grado en Matemáticas
Fecha de la defensa
17.07.2025 09:55
17.07.2025 09:55
Resumen
Este trabajo hace un repaso de algunos contrastes de especificación basados en la función de distribución y en la función de densidad para muestras de datos completos y muestras de datos con censura aleatoria por la derecha. Se explica lo que es un contraste de especificación y cuáles son sus elementos. Se propone un estimador no paramétrico de la función de distribución para muestras de datos completos, se estudian sus propiedades y se plantean contrastes sobre la distribución utilizando distintas distancias. Se comenta la estimación no paramétrica de la función de densidad para muestras de datos completos y algunos contrastes sobre la misma. Se introduce el campo del Análisis de la Supervivencia, parándose en las funciones más importantes para estudiar tiempos de vida y en los modelos paramétricos más comunes; así como el fenómeno de la censura, haciendo hincapié en la censura aleatoria por la derecha. Se propone una estimación no paramétrica de la función de distribución para el caso de datos con censura aleatoria por la derecha y se comenta cómo se puede obtener una estimación paramétrica; además, se sugiere una adaptación de los contrastes vistos para datos completos. Se proporciona una estimación no paramétrica de la función de densidad para datos con censura aleatoria por la derecha y un contraste basado en ella. Se estudia una estimación no paramétrica y continua de la función de distribución para datos con censura aleatoria por la derecha y un contraste utilizándola.
Este trabajo hace un repaso de algunos contrastes de especificación basados en la función de distribución y en la función de densidad para muestras de datos completos y muestras de datos con censura aleatoria por la derecha. Se explica lo que es un contraste de especificación y cuáles son sus elementos. Se propone un estimador no paramétrico de la función de distribución para muestras de datos completos, se estudian sus propiedades y se plantean contrastes sobre la distribución utilizando distintas distancias. Se comenta la estimación no paramétrica de la función de densidad para muestras de datos completos y algunos contrastes sobre la misma. Se introduce el campo del Análisis de la Supervivencia, parándose en las funciones más importantes para estudiar tiempos de vida y en los modelos paramétricos más comunes; así como el fenómeno de la censura, haciendo hincapié en la censura aleatoria por la derecha. Se propone una estimación no paramétrica de la función de distribución para el caso de datos con censura aleatoria por la derecha y se comenta cómo se puede obtener una estimación paramétrica; además, se sugiere una adaptación de los contrastes vistos para datos completos. Se proporciona una estimación no paramétrica de la función de densidad para datos con censura aleatoria por la derecha y un contraste basado en ella. Se estudia una estimación no paramétrica y continua de la función de distribución para datos con censura aleatoria por la derecha y un contraste utilizándola.
Dirección
GONZALEZ MANTEIGA, WENCESLAO (Tutoría)
VIDAL GARCIA, MARIA Cotutoría
GONZALEZ MANTEIGA, WENCESLAO (Tutoría)
VIDAL GARCIA, MARIA Cotutoría
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Árboles de clasificación y optimización
Autoría
I.Q.R.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
I.Q.R.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 10:40
17.07.2025 10:40
Resumen
En este trabajo se estudian los árboles de clasificación, una técnica ampliamente utilizada en aprendizaje automático por su simplicidad, capacidad predictiva y facilidad de interpretación. En particular, se analizan distintas estrategias para su construcción, con especial atención a los métodos basados en optimización matemática. Se consideran tres enfoques representativos: Random Forests (RF), como modelo heurístico basado en el ensamblado de árboles; Optimal Classification Trees (OCT), que plantea el problema como una optimización lineal entera mixta; y Optimal Randomized Classification Trees (ORCT), que utiliza una formulación continua que mejora la escalabilidad manteniendo la interpretabilidad. El trabajo comienza con una revisión de los fundamentos de la clasificación estadística y los métodos basados en árboles de decisión. A continuación, se describen en detalle los modelos de optimización que permiten construir árboles óptimos. Finalmente, se realiza un estudio empírico comparativo utilizando cinco conjuntos de datos de distinta complejidad, evaluando cada modelo según precisión, tiempo de entrenamiento, interpretabilidad y viabilidad práctica. Los resultados muestran que RF ofrece un alto rendimiento con bajo coste computacional, mientras que ORCT logra un equilibrio entre exactitud y escalabilidad. En cambio, OCT, aunque teóricamente atractivo, presenta limitaciones computacionales que restringen su uso a problemas de menor escala.
En este trabajo se estudian los árboles de clasificación, una técnica ampliamente utilizada en aprendizaje automático por su simplicidad, capacidad predictiva y facilidad de interpretación. En particular, se analizan distintas estrategias para su construcción, con especial atención a los métodos basados en optimización matemática. Se consideran tres enfoques representativos: Random Forests (RF), como modelo heurístico basado en el ensamblado de árboles; Optimal Classification Trees (OCT), que plantea el problema como una optimización lineal entera mixta; y Optimal Randomized Classification Trees (ORCT), que utiliza una formulación continua que mejora la escalabilidad manteniendo la interpretabilidad. El trabajo comienza con una revisión de los fundamentos de la clasificación estadística y los métodos basados en árboles de decisión. A continuación, se describen en detalle los modelos de optimización que permiten construir árboles óptimos. Finalmente, se realiza un estudio empírico comparativo utilizando cinco conjuntos de datos de distinta complejidad, evaluando cada modelo según precisión, tiempo de entrenamiento, interpretabilidad y viabilidad práctica. Los resultados muestran que RF ofrece un alto rendimiento con bajo coste computacional, mientras que ORCT logra un equilibrio entre exactitud y escalabilidad. En cambio, OCT, aunque teóricamente atractivo, presenta limitaciones computacionales que restringen su uso a problemas de menor escala.
Dirección
GONZALEZ DIAZ, JULIO (Tutoría)
GONZALEZ DIAZ, JULIO (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Tecnologías de Análisis Automático de Textos para la Estimación de Rasgos de Personalidad
Autoría
I.Q.R.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
I.Q.R.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 10:15
17.07.2025 10:15
Resumen
Este trabajo se enmarca en el campo del Text-based Personality Computing (TPC), que busca estimar rasgos de personalidad a partir de textos escritos por usuarios/as mediante técnicas de procesamiento del lenguaje natural (PLN). Tradicionalmente, los rasgos de personalidad se miden con cuestionarios, pero estos métodos tienen limitaciones como la subjetividad de las respuestas o la dificultad para aplicarlos a gran escala. Gracias a los avances en el PLN, hoy en día es posible analizar textos y predecir ciertos rasgos sin necesidad de encuestas. En este trabajo se ha utilizado un conjunto de datos de Reddit con información sobre los rasgos de personalidad de sus usuarios/as y se han aplicado técnicas modernas para comparar sus textos con los ítems del cuestionario NEO-FFI. A través de este proceso, se han estimado las puntuaciones Big-5, se han evaluado los resultados obtenidos y se han derivado los rasgos MBTI a partir de estos resultados. El enfoque propuesto ofrece una alternativa sencilla, escalable e interpretable para el análisis automático de personalidad.
Este trabajo se enmarca en el campo del Text-based Personality Computing (TPC), que busca estimar rasgos de personalidad a partir de textos escritos por usuarios/as mediante técnicas de procesamiento del lenguaje natural (PLN). Tradicionalmente, los rasgos de personalidad se miden con cuestionarios, pero estos métodos tienen limitaciones como la subjetividad de las respuestas o la dificultad para aplicarlos a gran escala. Gracias a los avances en el PLN, hoy en día es posible analizar textos y predecir ciertos rasgos sin necesidad de encuestas. En este trabajo se ha utilizado un conjunto de datos de Reddit con información sobre los rasgos de personalidad de sus usuarios/as y se han aplicado técnicas modernas para comparar sus textos con los ítems del cuestionario NEO-FFI. A través de este proceso, se han estimado las puntuaciones Big-5, se han evaluado los resultados obtenidos y se han derivado los rasgos MBTI a partir de estos resultados. El enfoque propuesto ofrece una alternativa sencilla, escalable e interpretable para el análisis automático de personalidad.
Dirección
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Losada Carril, David Enrique (Tutoría)
FERNANDEZ PICHEL, MARCOS Cotutoría
Tribunal
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
CATALA BOLOS, ALEJANDRO (Presidente/a)
Triñanes Fernández, Joaquín Ángel (Secretario/a)
GONZALEZ DIAZ, JULIO (Vocal)
Algoritmo de Computación Cuántica para Optimización
Autoría
P.R.P.
Grado en Matemáticas
P.R.P.
Grado en Matemáticas
Fecha de la defensa
15.07.2025 12:00
15.07.2025 12:00
Resumen
En el área de la computación cuántica, existe un gran interés en el aprovechamiento de las propiedades cuánticas para resolver problemas de optimización por su ventaja potencial ante los métodos clásicos. En este trabajo se introducen los fundamentos de la computación cuántica tanto los elementos básicos (el cúbit y el p-cúbit) como las puertas cuánticas y el proceso de medida. A continuación, se formulan problemas de optimización mediante hamiltonianos y se describen los modelos QUBO e Ising. Se explora la computación adiabática (teorema adiabático) y se introduce el Quantum Approximate Optimization Algorithm (QAOA). Se detalla la arquitectura híbrida clásico-cuántica del Variational Quantum Eigensolver (VQE), sus métodos de optimización variacional y sus aplicaciones prácticas. Finalmente, se compara el rendimiento de la computación clásica frente a la cuántica a través de las clases de complejidad, se discute la ventaja cuántica y se exploran futuras líneas de investigación matemática en este ámbito.
En el área de la computación cuántica, existe un gran interés en el aprovechamiento de las propiedades cuánticas para resolver problemas de optimización por su ventaja potencial ante los métodos clásicos. En este trabajo se introducen los fundamentos de la computación cuántica tanto los elementos básicos (el cúbit y el p-cúbit) como las puertas cuánticas y el proceso de medida. A continuación, se formulan problemas de optimización mediante hamiltonianos y se describen los modelos QUBO e Ising. Se explora la computación adiabática (teorema adiabático) y se introduce el Quantum Approximate Optimization Algorithm (QAOA). Se detalla la arquitectura híbrida clásico-cuántica del Variational Quantum Eigensolver (VQE), sus métodos de optimización variacional y sus aplicaciones prácticas. Finalmente, se compara el rendimiento de la computación clásica frente a la cuántica a través de las clases de complejidad, se discute la ventaja cuántica y se exploran futuras líneas de investigación matemática en este ámbito.
Dirección
PENA BRAGE, FRANCISCO JOSE (Tutoría)
PENA BRAGE, FRANCISCO JOSE (Tutoría)
Tribunal
PENA BRAGE, FRANCISCO JOSE (Tutor del alumno)
PENA BRAGE, FRANCISCO JOSE (Tutor del alumno)
Control óptimo de sistemas discretos y ecuaciones diferenciales ordinarias
Autoría
D.R.C.
Grado en Matemáticas
D.R.C.
Grado en Matemáticas
Fecha de la defensa
15.07.2025 18:00
15.07.2025 18:00
Resumen
En este trabajo se estudiarán los problemas de control óptimo sin restricciones, tanto en el caso discreto como en el continuo. Lo primero que se buscará en estos problemas será, proporcionar métodos que permitan calcular el gradiente del funcional coste, $\tilde J$, en el caso discreto. Estos se particularizarán en el caso donde el problema sea evolutivo, aprovechando esta estructura para reducir el coste computacional. En el caso continuo se considerarán problemas donde el estado venga dado por una EDO. La forma en la que se abordarán estos problemas consistirá en: discretizar el problema de manera que entre en el marco de las secciones anteriores, o calcular las derivadas direccionales de $\tilde J$, mediante métodos que se proporcionarán en este trabajo, permitiendo así calcular el gradiente al aproximar el espacio de control por uno de dimensión finita. Los métodos del caso discreto se usarán para resolver problemas de estimación de parámetros, mientras que los del caso continuo resolverán un problema relacionado con el movimiemento de un sistema carro-péndulo.
En este trabajo se estudiarán los problemas de control óptimo sin restricciones, tanto en el caso discreto como en el continuo. Lo primero que se buscará en estos problemas será, proporcionar métodos que permitan calcular el gradiente del funcional coste, $\tilde J$, en el caso discreto. Estos se particularizarán en el caso donde el problema sea evolutivo, aprovechando esta estructura para reducir el coste computacional. En el caso continuo se considerarán problemas donde el estado venga dado por una EDO. La forma en la que se abordarán estos problemas consistirá en: discretizar el problema de manera que entre en el marco de las secciones anteriores, o calcular las derivadas direccionales de $\tilde J$, mediante métodos que se proporcionarán en este trabajo, permitiendo así calcular el gradiente al aproximar el espacio de control por uno de dimensión finita. Los métodos del caso discreto se usarán para resolver problemas de estimación de parámetros, mientras que los del caso continuo resolverán un problema relacionado con el movimiemento de un sistema carro-péndulo.
Dirección
RODRIGUEZ GARCIA, JERONIMO (Tutoría)
RODRIGUEZ GARCIA, JERONIMO (Tutoría)
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Análisis topológico de datos y sistemas dinámicos
Autoría
R.R.L.D.L.V.
Grado en Matemáticas
R.R.L.D.L.V.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 11:30
16.07.2025 11:30
Resumen
En este trabajo veremos los principales conceptos del análisis de datos topológico: estudiaremos varias teorías de homología y veremos la idea de persistencia. Además nos introduciremos en los sistemas dinámicos y estudiaremos en profundidad la entropía. Finalmente, analizaremos la conjetura se Shub, que relaciona la entropía de un sistema con el radio espectral entre grupos de homología y buscaremos una versión de ese resultado usando la homología persistente.
En este trabajo veremos los principales conceptos del análisis de datos topológico: estudiaremos varias teorías de homología y veremos la idea de persistencia. Además nos introduciremos en los sistemas dinámicos y estudiaremos en profundidad la entropía. Finalmente, analizaremos la conjetura se Shub, que relaciona la entropía de un sistema con el radio espectral entre grupos de homología y buscaremos una versión de ese resultado usando la homología persistente.
Dirección
Álvarez López, Jesús Antonio (Tutoría)
Meniño Cotón, Carlos Cotutoría
Álvarez López, Jesús Antonio (Tutoría)
Meniño Cotón, Carlos Cotutoría
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Bases de Schauder en espacios de Banach
Autoría
I.R.R.
Grado en Matemáticas
I.R.R.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 16:00
16.07.2025 16:00
Resumen
Estudiaremos los conceptos básicos de las bases de Schauder, circunscritas en el ámbito del Análisis Funcional. Veremos algunas de sus propiedades, tipos y utilidades en la caracterización de atributos de los espacios, centrándonos sobre todo en la reflexividad y en la estructura interna de los espacios, dando especial importancia a los espacios de sucesiones como $c_0$ y los $\ell_p$, destacando en especial a $\ell_1$ entre estos últimos. También daremos algunas notas relacionadas con la existencia y unicidad de bases de Schauder e intentaremos mostrar como estas bases son una extensión natural de las bases de Hamel en espacios finitos y una generalización de las bases de Hilbert a espacios de Banach más genéricos.
Estudiaremos los conceptos básicos de las bases de Schauder, circunscritas en el ámbito del Análisis Funcional. Veremos algunas de sus propiedades, tipos y utilidades en la caracterización de atributos de los espacios, centrándonos sobre todo en la reflexividad y en la estructura interna de los espacios, dando especial importancia a los espacios de sucesiones como $c_0$ y los $\ell_p$, destacando en especial a $\ell_1$ entre estos últimos. También daremos algunas notas relacionadas con la existencia y unicidad de bases de Schauder e intentaremos mostrar como estas bases son una extensión natural de las bases de Hamel en espacios finitos y una generalización de las bases de Hilbert a espacios de Banach más genéricos.
Dirección
LOSADA RODRIGUEZ, JORGE (Tutoría)
LOSADA RODRIGUEZ, JORGE (Tutoría)
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Propagación de rayos cósmicos de muy altas energías en el Universo
Autoría
A.R.S.
Doble Grado en Matemáticas y en Física
A.R.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Los rayos cósmicos de muy altas energías (UHECRs) son las partículas más energéticas detectadas hasta la fecha en el Universo, alcanzando energías del orden del exaelectronvoltio (EeV). Su estudio resulta fundamental para explorar la física más allá del modelo estándar, analizar la estructura del campo magnético galáctico y abordar cuestiones relevantes en el ámbito de la cosmología. En la actualidad, existen múltiples líneas de investigación centradas en la comprensión de estos eventos, y observatorios como el Observatorio Pierre Auger o el Telescope Array se dedican a la detección de este tipo de partículas extragalácticas. Este trabajo estudia la propagación de estos rayos cósmicos dentro de la Galaxia, con el objetivo de analizar cómo influye el campo magnético galáctico en dicha propagación y cómo podrían identificarse las fuentes de las que provienen. Para ello, se utiliza el marco de simulación astrofísica CRPropa, que permite realizar simulaciones a través de su interfaz en Python. De este modo, se llevan a cabo simulaciones de la retropropagación de los UHECRs detectados por el Observatorio Pierre Auger, obteniendo tanto su dirección de llegada a la frontera galáctica como la deflexión experimentada durante su trayectoria. El estudio se centra en realizar simulaciones variando las componentes del campo magnético empleadas dentro del modelo JF12 [1, 2], considerando tanto la presencia de turbulencia aleatoria a pequeña escala como su ausencia, así como el tipo de partícula que se propaga.
Los rayos cósmicos de muy altas energías (UHECRs) son las partículas más energéticas detectadas hasta la fecha en el Universo, alcanzando energías del orden del exaelectronvoltio (EeV). Su estudio resulta fundamental para explorar la física más allá del modelo estándar, analizar la estructura del campo magnético galáctico y abordar cuestiones relevantes en el ámbito de la cosmología. En la actualidad, existen múltiples líneas de investigación centradas en la comprensión de estos eventos, y observatorios como el Observatorio Pierre Auger o el Telescope Array se dedican a la detección de este tipo de partículas extragalácticas. Este trabajo estudia la propagación de estos rayos cósmicos dentro de la Galaxia, con el objetivo de analizar cómo influye el campo magnético galáctico en dicha propagación y cómo podrían identificarse las fuentes de las que provienen. Para ello, se utiliza el marco de simulación astrofísica CRPropa, que permite realizar simulaciones a través de su interfaz en Python. De este modo, se llevan a cabo simulaciones de la retropropagación de los UHECRs detectados por el Observatorio Pierre Auger, obteniendo tanto su dirección de llegada a la frontera galáctica como la deflexión experimentada durante su trayectoria. El estudio se centra en realizar simulaciones variando las componentes del campo magnético empleadas dentro del modelo JF12 [1, 2], considerando tanto la presencia de turbulencia aleatoria a pequeña escala como su ausencia, así como el tipo de partícula que se propaga.
Dirección
ALVAREZ MUÑIZ, JAIME (Tutoría)
ALVAREZ MUÑIZ, JAIME (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Variedades con estructura de producto deformado
Autoría
A.R.S.
Doble Grado en Matemáticas y en Física
A.R.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 12:15
16.07.2025 12:15
Resumen
Las variedades pseudo-Riemannianas con estructura local de producto han desempeñado un papel fundamental en la resolución de una amplia gama de problemas geométricos y físicos. En particular, este tipo de variedades constituye una de las técnicas más utilizadas para la construcción de métricas Riemannianas de Einstein y forma la estructura subyacente de la mayoría de los espaciotiempos relativistas. El objetivo de este trabajo es realizar un estudio sistemático de las variedades con estructura local de producto deformado centrado en el análisis de sus propiedades de curvatura.
Las variedades pseudo-Riemannianas con estructura local de producto han desempeñado un papel fundamental en la resolución de una amplia gama de problemas geométricos y físicos. En particular, este tipo de variedades constituye una de las técnicas más utilizadas para la construcción de métricas Riemannianas de Einstein y forma la estructura subyacente de la mayoría de los espaciotiempos relativistas. El objetivo de este trabajo es realizar un estudio sistemático de las variedades con estructura local de producto deformado centrado en el análisis de sus propiedades de curvatura.
Dirección
GARCIA RIO, EDUARDO (Tutoría)
CAEIRO OLIVEIRA, SANDRO Cotutoría
GARCIA RIO, EDUARDO (Tutoría)
CAEIRO OLIVEIRA, SANDRO Cotutoría
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Dinámica compleja y el conjunto de Mandelbrot
Autoría
D.S.C.
Grado en Matemáticas
D.S.C.
Grado en Matemáticas
Fecha de la defensa
17.07.2025 12:00
17.07.2025 12:00
Resumen
En los años sesenta, gracias al auge de los ordenadores, que permitían visualizar gráficamente conjuntos, y la labor del matemático polaco Benoît Mandelbrot se popularizaron un tipo de conjuntos muy especiales: los fractales. En este trabajo nos proponemos definir el conjunto de Mandelbrot uno de los tantos fractales que estudió este matemático, así como analizar alguna de sus propiedades más importantes. Para ello, estudiaremos en profundidad la dinámica de la familia de funciones cuadtráticas.
En los años sesenta, gracias al auge de los ordenadores, que permitían visualizar gráficamente conjuntos, y la labor del matemático polaco Benoît Mandelbrot se popularizaron un tipo de conjuntos muy especiales: los fractales. En este trabajo nos proponemos definir el conjunto de Mandelbrot uno de los tantos fractales que estudió este matemático, así como analizar alguna de sus propiedades más importantes. Para ello, estudiaremos en profundidad la dinámica de la familia de funciones cuadtráticas.
Dirección
BUEDO FERNANDEZ, SEBASTIAN (Tutoría)
CAO LABORA, DANIEL Cotutoría
BUEDO FERNANDEZ, SEBASTIAN (Tutoría)
CAO LABORA, DANIEL Cotutoría
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Resolución de sistemas de ecuaciones lineales con matrices complejas no hermitianas
Autoría
A.S.M.
Grado en Matemáticas
A.S.M.
Grado en Matemáticas
Fecha de la defensa
16.07.2025 12:00
16.07.2025 12:00
Resumen
El objetivo de este trabajo es dar a conocer un método iterativo denominado método de Gradiente Conjugado Ortogonal para resolver sistemas de ecuaciones lineales con matrices complejas, simétricas y no hermitianas. Dado que el método pertenece a los llamados métodos de Krylov, en el trabajo se introducirán estos métodos en el caso de matrices reales para luego extender alguno de ellos al caso de matrices complejas. Se introducirán primero los métodos de Gradiente Conjugado y Gradiente Biconjugado para, por último, presentar el método de Gradiente Conjugado Ortogonal. Se describirán algoritmos para implementar los distintos métodos y se presentarán algunos ejemplos prácticos con matrices obtenidas de Matrix Market.
El objetivo de este trabajo es dar a conocer un método iterativo denominado método de Gradiente Conjugado Ortogonal para resolver sistemas de ecuaciones lineales con matrices complejas, simétricas y no hermitianas. Dado que el método pertenece a los llamados métodos de Krylov, en el trabajo se introducirán estos métodos en el caso de matrices reales para luego extender alguno de ellos al caso de matrices complejas. Se introducirán primero los métodos de Gradiente Conjugado y Gradiente Biconjugado para, por último, presentar el método de Gradiente Conjugado Ortogonal. Se describirán algoritmos para implementar los distintos métodos y se presentarán algunos ejemplos prácticos con matrices obtenidas de Matrix Market.
Dirección
SALGADO RODRIGUEZ, MARIA DEL PILAR (Tutoría)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Tutoría)
Tribunal
SALGADO RODRIGUEZ, MARIA DEL PILAR (Tutor del alumno)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Tutor del alumno)
Introducción al aprendizaje por refuerzo
Autoría
R.T.L.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
R.T.L.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 11:25
17.07.2025 11:25
Resumen
Este trabajo presenta una introducción al aprendizaje por refuerzo desde una perspectiva matemática, haciendo especial énfasis en su conexión con la programación dinámica. Aunque el aprendizaje por refuerzo es un campo autónomo dentro de la inteligencia artificial, muchas de sus ideas fundamentales (como la toma de decisiones secuenciales, las funciones de utilidad o las políticas óptimas) tienen su origen en la programación dinámica. Por ello, se comienza el estudio abordando la programación dinámica como nexo conceptual y formal que permite sentar las bases del aprendizaje por refuerzo. Una vez finalizada la programación dinámica, se procederá a narrar los aspectos más importantes del aprendizaje por refuerzo. Para su comprensión será esencial comprender los procesos de decisión de Markov. También se discuten temas que derivan de este paradigma, como el dilema exploración explotación o el estudio de distintos algoritmos de resolución como son Monte Carlo y el aprendizaje por diferencias temporales. Por último, se quiere ver cómo el aprendizaje por refuerzo puede resultar una herramienta muy útil en el ámbito de la optimización matemática. Para ello se abordan distintos tipos de problemas clásicos de optimización, describiendo cómo se han de reformular para que encajen dentro del marco del aprendizaje por refuerzo, lo que permite aplicar sus algoritmos a problemas complejos que no se resuelven fácilmente por métodos tradicionales.
Este trabajo presenta una introducción al aprendizaje por refuerzo desde una perspectiva matemática, haciendo especial énfasis en su conexión con la programación dinámica. Aunque el aprendizaje por refuerzo es un campo autónomo dentro de la inteligencia artificial, muchas de sus ideas fundamentales (como la toma de decisiones secuenciales, las funciones de utilidad o las políticas óptimas) tienen su origen en la programación dinámica. Por ello, se comienza el estudio abordando la programación dinámica como nexo conceptual y formal que permite sentar las bases del aprendizaje por refuerzo. Una vez finalizada la programación dinámica, se procederá a narrar los aspectos más importantes del aprendizaje por refuerzo. Para su comprensión será esencial comprender los procesos de decisión de Markov. También se discuten temas que derivan de este paradigma, como el dilema exploración explotación o el estudio de distintos algoritmos de resolución como son Monte Carlo y el aprendizaje por diferencias temporales. Por último, se quiere ver cómo el aprendizaje por refuerzo puede resultar una herramienta muy útil en el ámbito de la optimización matemática. Para ello se abordan distintos tipos de problemas clásicos de optimización, describiendo cómo se han de reformular para que encajen dentro del marco del aprendizaje por refuerzo, lo que permite aplicar sus algoritmos a problemas complejos que no se resuelven fácilmente por métodos tradicionales.
Dirección
GONZALEZ DIAZ, JULIO (Tutoría)
GONZALEZ DIAZ, JULIO (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Aplicación móvil para el aprendizaje de educación auditiva musical
Autoría
R.T.L.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
R.T.L.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
17.07.2025 12:30
17.07.2025 12:30
Resumen
En este trabajo se describirá el proceso de creación de una aplicación móvil para el aprendizaje de la educación auditiva musical. Se comenzará realizando un estudio preliminar donde exploraremos el potencial de la idea. Veremos quién puede estar interesa en la aplicación y por qué está interesado. Además se planteará un modelo de negocio, ya que una aplicación es muy fácil de introducirla en el mercado. Especificaremos los requisitos que determinarán la Luego dedicaremos un capítulo a la ingeniería del software, explicando el modelo de ciclo de vida, narrando la planificación que se llevó a cabo. También definiremos los casos de uso de los requisitos funcionales antes definidos. Pasamos al diseño, donde se explican muchos diseños distintos, el de la interfaz gráfica, la arquitectura y el software. Para acabar explicaremos el plan de pruebas y determinaremos el éxito o fracaso del proyecto
En este trabajo se describirá el proceso de creación de una aplicación móvil para el aprendizaje de la educación auditiva musical. Se comenzará realizando un estudio preliminar donde exploraremos el potencial de la idea. Veremos quién puede estar interesa en la aplicación y por qué está interesado. Además se planteará un modelo de negocio, ya que una aplicación es muy fácil de introducirla en el mercado. Especificaremos los requisitos que determinarán la Luego dedicaremos un capítulo a la ingeniería del software, explicando el modelo de ciclo de vida, narrando la planificación que se llevó a cabo. También definiremos los casos de uso de los requisitos funcionales antes definidos. Pasamos al diseño, donde se explican muchos diseños distintos, el de la interfaz gráfica, la arquitectura y el software. Para acabar explicaremos el plan de pruebas y determinaremos el éxito o fracaso del proyecto
Dirección
TOBAR QUINTANAR, ALEJANDRO JOSE (Tutoría)
TOBAR QUINTANAR, ALEJANDRO JOSE (Tutoría)
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
Carreira Nouche, María José (Vocal)
De la teoría de Galois a la teoría de cuerpos de clase
Autoría
L.V.M.
Grado en Matemáticas
L.V.M.
Grado en Matemáticas
Fecha de la defensa
17.07.2025 12:30
17.07.2025 12:30
Resumen
El objetivo de este TFG es justificar la introducción de la teoría de cuepos de clase partiendo de la teoría de Galois y usando la motivación inicial de Artin y de otros matemáticos de comienzos del siglo XX. El trabajo se iniciará con un repaso de algunos resultados de teoría de Galois y de teoría algebraica de números previos al desarrollo de la teoría de cuerpos de clase, como el teorema de Kronecker--Weber. A continuación, partiendo de los resultados de Weber, Hilbert y Artin, se formularán los resultados fundacionales de la teoría de cuerpos de clase. El resto del trabajo se dedicará a trabajar sus implicaciones, centrándonos especialmente en las conexiones con la teoría de Galois.
El objetivo de este TFG es justificar la introducción de la teoría de cuepos de clase partiendo de la teoría de Galois y usando la motivación inicial de Artin y de otros matemáticos de comienzos del siglo XX. El trabajo se iniciará con un repaso de algunos resultados de teoría de Galois y de teoría algebraica de números previos al desarrollo de la teoría de cuerpos de clase, como el teorema de Kronecker--Weber. A continuación, partiendo de los resultados de Weber, Hilbert y Artin, se formularán los resultados fundacionales de la teoría de cuerpos de clase. El resto del trabajo se dedicará a trabajar sus implicaciones, centrándonos especialmente en las conexiones con la teoría de Galois.
Dirección
RIVERO SALGADO, OSCAR (Tutoría)
RIVERO SALGADO, OSCAR (Tutoría)
Tribunal
RIVERO SALGADO, OSCAR (Tutor del alumno)
RIVERO SALGADO, OSCAR (Tutor del alumno)
Transformaciones conformes: una introducción
Autoría
Y.X.X.C.
Grado en Matemáticas
Y.X.X.C.
Grado en Matemáticas
Fecha de la defensa
17.07.2025 17:00
17.07.2025 17:00
Resumen
En este trabajo realizamos un estudio introductorio de las transformaciones conformes en el contexto del análisis complejo, con especial énfasis en las transformaciones de Möbius. Dado que estas aplicaciones nacen de la teoría de funciones holomorfas, dedicamos la primera parte de la memoria a repasar las herramientas básicas del análisis complejo. A continuación, introducimos el concepto general de transformación conforme y demostramos que toda función holomorfa inyectiva es una transformación conforme, ilustrándolo con ejemplos. Sobre esta base, el trabajo se centra en las transformaciones de Möbius, el único automorfismo conforme del plano complejo ampliado. Presentamos su representación matricial, estudiamos sus invariantes (puntos, circunferencias, razón doble y simetría) y clasificamos según el número de puntos fijos (elípticos, hiperbólicos, parabólicos, loxodrómicas). Finalmente, desarrollamos en Maple un conjunto de procedimientos que permiten facilitar la comprensión intuitiva de estos conceptos.
En este trabajo realizamos un estudio introductorio de las transformaciones conformes en el contexto del análisis complejo, con especial énfasis en las transformaciones de Möbius. Dado que estas aplicaciones nacen de la teoría de funciones holomorfas, dedicamos la primera parte de la memoria a repasar las herramientas básicas del análisis complejo. A continuación, introducimos el concepto general de transformación conforme y demostramos que toda función holomorfa inyectiva es una transformación conforme, ilustrándolo con ejemplos. Sobre esta base, el trabajo se centra en las transformaciones de Möbius, el único automorfismo conforme del plano complejo ampliado. Presentamos su representación matricial, estudiamos sus invariantes (puntos, circunferencias, razón doble y simetría) y clasificamos según el número de puntos fijos (elípticos, hiperbólicos, parabólicos, loxodrómicas). Finalmente, desarrollamos en Maple un conjunto de procedimientos que permiten facilitar la comprensión intuitiva de estos conceptos.
Dirección
TRINCHET SORIA, ROSA Mª (Tutoría)
TRINCHET SORIA, ROSA Mª (Tutoría)
Tribunal
TRINCHET SORIA, ROSA Mª (Tutor del alumno)
TRINCHET SORIA, ROSA Mª (Tutor del alumno)