La Fundamentación de las Matemáticas y la Teoría de Conjuntos: Una revisión
Autoría
L.A.C.
Grado en Matemáticas
L.A.C.
Grado en Matemáticas
Fecha de la defensa
13.02.2025 16:30
13.02.2025 16:30
Resumen
El objetivo de este trabajo consiste en presentar, de manera clara y sencilla, la evolución de las matemáticas con un enfoque en la lógica desde sus inicios en la Antigua Grecia hasta los siglos XIX y XX. Se definirán los conceptos básicos necesarios y se estudiará el desarrollo de la Teoría de Conjuntos, que engloba conceptos fundamentales como el Axioma de la Elección, la Hipótesis del Continuo y la Axiomatización de Zermelo-Fraenkel. Además, se analizará la relación entre estas y su impacto en las matemáticas modernas.
El objetivo de este trabajo consiste en presentar, de manera clara y sencilla, la evolución de las matemáticas con un enfoque en la lógica desde sus inicios en la Antigua Grecia hasta los siglos XIX y XX. Se definirán los conceptos básicos necesarios y se estudiará el desarrollo de la Teoría de Conjuntos, que engloba conceptos fundamentales como el Axioma de la Elección, la Hipótesis del Continuo y la Axiomatización de Zermelo-Fraenkel. Además, se analizará la relación entre estas y su impacto en las matemáticas modernas.
Dirección
ALONSO TARRIO, LEOVIGILDO (Tutoría)
ALONSO TARRIO, LEOVIGILDO (Tutoría)
Tribunal
ALONSO TARRIO, LEOVIGILDO (Tutor del alumno)
ALONSO TARRIO, LEOVIGILDO (Tutor del alumno)
Curvas sobre el espacio de Lorentz-Minkowski
Autoría
F.A.D.
Grado en Matemáticas
F.A.D.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 10:00
02.07.2025 10:00
Resumen
El objetivo de este trabajo es analizar los resultados básicos de la teoría local de curvas en el espacio de Lorentz-Minkowski tridimensional. La distinta causalidad de las curvas consideradas implica diferencias en la construcción de las funciones curvatura asociadas. Una vez obtenidas las versiones correspondientes del triedro de Frenet, así como la curvatura y la torsión de la curva, buscamos obtener un Teorema Fundamental que garantice la existencia y la unicidad de curvas con curvatura y torsión prefijadas. A diferencia de la situación euclidiana, mientras que los resultados de existencia tienen una correspondencia natural, la unicidad está lejos de cumplirse si no se imponen condiciones adicionales sobre la causalidad de la curva.
El objetivo de este trabajo es analizar los resultados básicos de la teoría local de curvas en el espacio de Lorentz-Minkowski tridimensional. La distinta causalidad de las curvas consideradas implica diferencias en la construcción de las funciones curvatura asociadas. Una vez obtenidas las versiones correspondientes del triedro de Frenet, así como la curvatura y la torsión de la curva, buscamos obtener un Teorema Fundamental que garantice la existencia y la unicidad de curvas con curvatura y torsión prefijadas. A diferencia de la situación euclidiana, mientras que los resultados de existencia tienen una correspondencia natural, la unicidad está lejos de cumplirse si no se imponen condiciones adicionales sobre la causalidad de la curva.
Dirección
GARCIA RIO, EDUARDO (Tutoría)
Vázquez Abal, María Elena Cotutoría
GARCIA RIO, EDUARDO (Tutoría)
Vázquez Abal, María Elena Cotutoría
Tribunal
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
Ecuaciones Diofánticas en las Olimpiadas Matemáticas
Autoría
M.A.R.
Grado en Matemáticas
M.A.R.
Grado en Matemáticas
Fecha de la defensa
12.02.2025 19:45
12.02.2025 19:45
Resumen
El objetivo principal de este trabajo será explorar y analizar diferentes métodos de resolución de las ecuaciones diofánticas en los problemas de olimpiada matemática. Se pretende comprender como estas ecuaciones, que requieren solución entera, pueden aplicarse en problemas competitivos y de que manera los conceptos teóricos se traducen en técnicas para su resolución. De este modo, el trabajo está divido en tres capítulos. El primero de ellos trata sobre la historia de estos problemas, el siguiente sobre diferentes tipos de ecuaciones diofánticas y su resolución. Por último, una antología de los diferentes problemas que nos podemos encontrar en las olimpiadas locales, nacionales e internacionales.
El objetivo principal de este trabajo será explorar y analizar diferentes métodos de resolución de las ecuaciones diofánticas en los problemas de olimpiada matemática. Se pretende comprender como estas ecuaciones, que requieren solución entera, pueden aplicarse en problemas competitivos y de que manera los conceptos teóricos se traducen en técnicas para su resolución. De este modo, el trabajo está divido en tres capítulos. El primero de ellos trata sobre la historia de estos problemas, el siguiente sobre diferentes tipos de ecuaciones diofánticas y su resolución. Por último, una antología de los diferentes problemas que nos podemos encontrar en las olimpiadas locales, nacionales e internacionales.
Dirección
GAGO COUSO, FELIPE (Tutoría)
RIVERO SALGADO, OSCAR Cotutoría
GAGO COUSO, FELIPE (Tutoría)
RIVERO SALGADO, OSCAR Cotutoría
Tribunal
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
Simetría de soluciones a problemas elípticos sobredeterminados valores de frontera.
Autoría
I.A.V.
Grado en Matemáticas
I.A.V.
Grado en Matemáticas
Fecha de la defensa
13.02.2025 12:00
13.02.2025 12:00
Resumen
En este trabajo expondremos algunos de los aspectos fundamentales de los artículos de investigación que constituyeron el inicio del estudio de las ecuaciones en derivadas parciales elípticas con condiciones de frontera sobredeterminadas, esto es, donde se imponen simultáneamente condiciones Dirichlet y Neumann. En primer lugar analizaremos el Teorema de Serrin, así como su demostración basada en encontrar simetrías empleando el método del plano móvil junto con los principios del máximo. Así mismo desarrollaremos también una demostración alternativa prupuesta por Weinberger, que emplea métodos analíticos más clásicos para aportar una demostración más compacta. Por último propondremos ejemplos de casos físicos en los que aparecen ecuaciones en derivadas parciales elípticas con condiciones de frontera sobredeterminadas, con el objetivo de mostrar la utilidad e importancia de los estudios realizados en este campo.
En este trabajo expondremos algunos de los aspectos fundamentales de los artículos de investigación que constituyeron el inicio del estudio de las ecuaciones en derivadas parciales elípticas con condiciones de frontera sobredeterminadas, esto es, donde se imponen simultáneamente condiciones Dirichlet y Neumann. En primer lugar analizaremos el Teorema de Serrin, así como su demostración basada en encontrar simetrías empleando el método del plano móvil junto con los principios del máximo. Así mismo desarrollaremos también una demostración alternativa prupuesta por Weinberger, que emplea métodos analíticos más clásicos para aportar una demostración más compacta. Por último propondremos ejemplos de casos físicos en los que aparecen ecuaciones en derivadas parciales elípticas con condiciones de frontera sobredeterminadas, con el objetivo de mostrar la utilidad e importancia de los estudios realizados en este campo.
Dirección
DOMINGUEZ VAZQUEZ, MIGUEL (Tutoría)
DOMINGUEZ VAZQUEZ, MIGUEL (Tutoría)
Tribunal
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
Una introducción al análisis de datos circulares
Autoría
S.A.L.
Grado en Matemáticas
S.A.L.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 09:15
03.07.2025 09:15
Resumen
Los datos circulares son observaciones que se identifican como puntos o vectores sobre la circunferencia de círculo unidad. En este trabajo de Fin de Grado consideraremos herramientas clásicas para el análisis descriptivo de muestras de datos circulares, introduciremos algunos modelos destacados de distribución y presentaremos algunos procedimientos inferenciales para este tipo de observaciones, entre ellos contrastes (uniformidad, bondad de ajuste) y estimaciones. Los distintos instrumentos estadísticos serán ilustrados con datos simulados y reales, empleando el software R. El trabajo se organiza en tres capítulos diferenciados. En el primero de ellos, expondremos medidas descriptivas para muestras circulares (medidas de posición, de dispersión y representaciones gráficas); en el segundo, explicaremos las distribuciones circulares más prominentes y los métodos de los que dimanan; y en el último capítulo, nos centraremos en conocer y manejar los útiles que la estadística inferencial pone a nuestra disposición.
Los datos circulares son observaciones que se identifican como puntos o vectores sobre la circunferencia de círculo unidad. En este trabajo de Fin de Grado consideraremos herramientas clásicas para el análisis descriptivo de muestras de datos circulares, introduciremos algunos modelos destacados de distribución y presentaremos algunos procedimientos inferenciales para este tipo de observaciones, entre ellos contrastes (uniformidad, bondad de ajuste) y estimaciones. Los distintos instrumentos estadísticos serán ilustrados con datos simulados y reales, empleando el software R. El trabajo se organiza en tres capítulos diferenciados. En el primero de ellos, expondremos medidas descriptivas para muestras circulares (medidas de posición, de dispersión y representaciones gráficas); en el segundo, explicaremos las distribuciones circulares más prominentes y los métodos de los que dimanan; y en el último capítulo, nos centraremos en conocer y manejar los útiles que la estadística inferencial pone a nuestra disposición.
Dirección
CRUJEIRAS CASAIS, ROSA MARÍA (Tutoría)
CRUJEIRAS CASAIS, ROSA MARÍA (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Modelización matemática de la dosificación óptima en la administración de fármacos
Autoría
I.A.O.
Grado en Matemáticas
I.A.O.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 10:30
02.07.2025 10:30
Resumen
Este trabajo desarrolla un modelo farmacocinético/farmacodinámico (PK/PD) con el fin de optimizar la administración de fármacos en tratamientos de quimioterapia. El objetivo es encontrar una distribución de dosis que minimice el volumen del tumor, manteniendo constante la cantidad total de fármaco administrado. Se considera un modelo basado en ecuaciones diferenciales, utilizando una versión modificada del modelo Gompertz, que posteriormente se implementa en MATLAB. Para el modelo propuesto, se contrastan los resultados numéricos con las soluciones exactas y se reproducen resultados de la literatura. A continuación, se presenta el problema de optimización, con restricciones clínicas, vinculado al modelo descrito. Los resultados teóricos indican que la solución óptima consiste en administrar un mayor número de dosis de forma equitativa, siempre que se cumplan las restricciones impuestas. Los resultados bibliográficos reproducidos coinciden con las predicciones del modelo, lo que valida su implementación. Se concluye que existen estrategias de tratamiento más eficaces que las utilizadas normalmente, y se subraya la importancia de seguir avanzando hacia aplicaciones clínicas más realistas, destacando el potencial de las herramientas matemáticas en la planificación terapéutica personalizada.
Este trabajo desarrolla un modelo farmacocinético/farmacodinámico (PK/PD) con el fin de optimizar la administración de fármacos en tratamientos de quimioterapia. El objetivo es encontrar una distribución de dosis que minimice el volumen del tumor, manteniendo constante la cantidad total de fármaco administrado. Se considera un modelo basado en ecuaciones diferenciales, utilizando una versión modificada del modelo Gompertz, que posteriormente se implementa en MATLAB. Para el modelo propuesto, se contrastan los resultados numéricos con las soluciones exactas y se reproducen resultados de la literatura. A continuación, se presenta el problema de optimización, con restricciones clínicas, vinculado al modelo descrito. Los resultados teóricos indican que la solución óptima consiste en administrar un mayor número de dosis de forma equitativa, siempre que se cumplan las restricciones impuestas. Los resultados bibliográficos reproducidos coinciden con las predicciones del modelo, lo que valida su implementación. Se concluye que existen estrategias de tratamiento más eficaces que las utilizadas normalmente, y se subraya la importancia de seguir avanzando hacia aplicaciones clínicas más realistas, destacando el potencial de las herramientas matemáticas en la planificación terapéutica personalizada.
Dirección
QUINTELA ESTEVEZ, PEREGRINA (Tutoría)
QUINTELA ESTEVEZ, PEREGRINA (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Aplicación de las EDOs a modelos biológicos
Autoría
C.B.M.
Grado en Matemáticas
C.B.M.
Grado en Matemáticas
Fecha de la defensa
13.02.2025 12:30
13.02.2025 12:30
Resumen
Las ecuaciones diferenciales ordinarias (EDOs) son una herramienta fundamental para modelar procesos dinámicos en diversas disciplinas. Este trabajo se centra en la aplicación de las EDOs a modelos biológicos, en particular aquellos relacionados con la propagación de enfermedades infecciosas. Se analiza en detalle el modelo SIR y sus extensiones, como los modelos SEIR y SIRS, con el objetivo de comprender la dinámica epidemiológica y la estabilidad de los estados estacionarios. Además, se presenta un estudio específico sobre la propagación del VIH. El análisis incluye soluciones analíticas y numéricas, y también la evaluación del impacto de diferentes estrategias de control y erradicación. Los resultados obtenidos subrayan la importancia del número de reproducción básico R0 y de las intervenciones como la vacunación para mitigar la propagación de enfermedades.
Las ecuaciones diferenciales ordinarias (EDOs) son una herramienta fundamental para modelar procesos dinámicos en diversas disciplinas. Este trabajo se centra en la aplicación de las EDOs a modelos biológicos, en particular aquellos relacionados con la propagación de enfermedades infecciosas. Se analiza en detalle el modelo SIR y sus extensiones, como los modelos SEIR y SIRS, con el objetivo de comprender la dinámica epidemiológica y la estabilidad de los estados estacionarios. Además, se presenta un estudio específico sobre la propagación del VIH. El análisis incluye soluciones analíticas y numéricas, y también la evaluación del impacto de diferentes estrategias de control y erradicación. Los resultados obtenidos subrayan la importancia del número de reproducción básico R0 y de las intervenciones como la vacunación para mitigar la propagación de enfermedades.
Dirección
Rodríguez López, Jorge (Tutoría)
Rodríguez López, Jorge (Tutoría)
Tribunal
Rodríguez López, Jorge (Tutor del alumno)
Rodríguez López, Jorge (Tutor del alumno)
Teorema de punto fijo de Brouwer
Autoría
A.B.M.
Grado en Matemáticas
A.B.M.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 10:00
02.07.2025 10:00
Resumen
Este trabajo estudia el teorema de punto fijo de Brouwer y su impacto en diversas áreas de las matemáticas. Se presenta la formulación clásica y varios resultados y formulaciones históricas equivalentes, haciendo hincapié en el teorema de no-retracción. Además, se incluye una construcción del grado de Brouwer, empleado en una demostración directa del teorema. A lo largo de la segunda parte, se estudian aplicaciones a las ecuaciones diferenciales, como el método de tiro y la existencia de soluciones periódicas. Finalmente, se abordan dos generalizaciones del teorema de punto fijo de Brouwer: el teorema de Kakutani y el teorema de Schauder, así como su uso en el contexto de la teoría de juegos y de la resolución de ecuaciones diferenciales, respectivamente.
Este trabajo estudia el teorema de punto fijo de Brouwer y su impacto en diversas áreas de las matemáticas. Se presenta la formulación clásica y varios resultados y formulaciones históricas equivalentes, haciendo hincapié en el teorema de no-retracción. Además, se incluye una construcción del grado de Brouwer, empleado en una demostración directa del teorema. A lo largo de la segunda parte, se estudian aplicaciones a las ecuaciones diferenciales, como el método de tiro y la existencia de soluciones periódicas. Finalmente, se abordan dos generalizaciones del teorema de punto fijo de Brouwer: el teorema de Kakutani y el teorema de Schauder, así como su uso en el contexto de la teoría de juegos y de la resolución de ecuaciones diferenciales, respectivamente.
Dirección
Rodríguez López, Jorge (Tutoría)
Rodríguez López, Jorge (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Simetrías y factores integrantes en la resolución de ecuaciones diferenciales ordinarias de primera orden.
Autoría
A.C.M.
Grado en Matemáticas
A.C.M.
Grado en Matemáticas
Fecha de la defensa
12.02.2025 10:00
12.02.2025 10:00
Resumen
Es bien sabido que no existe una norma general para la resolución de EDOs (ecuaciones diferenciales ordinarias) de primera orden, sino una pluralidad de métodos, muchos de los cuales se pueden expresar en el lenguaje de factores integrantes. Desafortunadamente, no se conoce ninguna técnica que permita obtener de forma explícita factores integrantes para una ecuación diferencial arbitraria. Sin embargo, el matemático noruego Sophus Lie (1842-1899) desarrolló, a partir de las simetrías de las ecuaciones diferenciales, un procedimiento unificado para su obtención. El objetivo de este trabajo es estudiar las simetrías y los factores integrantes como método de resolución para las ecuaciones diferenciales ordinarias de primera orden.
Es bien sabido que no existe una norma general para la resolución de EDOs (ecuaciones diferenciales ordinarias) de primera orden, sino una pluralidad de métodos, muchos de los cuales se pueden expresar en el lenguaje de factores integrantes. Desafortunadamente, no se conoce ninguna técnica que permita obtener de forma explícita factores integrantes para una ecuación diferencial arbitraria. Sin embargo, el matemático noruego Sophus Lie (1842-1899) desarrolló, a partir de las simetrías de las ecuaciones diferenciales, un procedimiento unificado para su obtención. El objetivo de este trabajo es estudiar las simetrías y los factores integrantes como método de resolución para las ecuaciones diferenciales ordinarias de primera orden.
Dirección
BUEDO FERNANDEZ, SEBASTIAN (Tutoría)
SANMARTIN LOPEZ, VICTOR Cotutoría
BUEDO FERNANDEZ, SEBASTIAN (Tutoría)
SANMARTIN LOPEZ, VICTOR Cotutoría
Tribunal
BUEDO FERNANDEZ, SEBASTIAN (Tutor del alumno)
SANMARTIN LOPEZ, VICTOR (Tutor del alumno)
BUEDO FERNANDEZ, SEBASTIAN (Tutor del alumno)
SANMARTIN LOPEZ, VICTOR (Tutor del alumno)
Dinámica de poblaciones
Autoría
A.C.P.
Grado en Matemáticas
A.C.P.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 10:45
02.07.2025 10:45
Resumen
En este trabajo estudiaremos los sistema de ecuaciones diferenciales, las ecuaciones en diferencias y los modelos matriciales aplicados a la modelización de la evolución poblacional. Empezaremos con el estudio del caso de una única especie y, posteriormente, analizaremos la evolución conjunta de varias especies que coexisten en un mismo hábitat. Esta segunda parte se estructura según la clasificación clásica de las interacciones interespecíficas: competencia, mutualismo y depredación, recalcando esta última y las adaptaciones que experimentan los modelos correspondientes en función de distintas características biológicas.
En este trabajo estudiaremos los sistema de ecuaciones diferenciales, las ecuaciones en diferencias y los modelos matriciales aplicados a la modelización de la evolución poblacional. Empezaremos con el estudio del caso de una única especie y, posteriormente, analizaremos la evolución conjunta de varias especies que coexisten en un mismo hábitat. Esta segunda parte se estructura según la clasificación clásica de las interacciones interespecíficas: competencia, mutualismo y depredación, recalcando esta última y las adaptaciones que experimentan los modelos correspondientes en función de distintas características biológicas.
Dirección
Diz Pita, Érika (Tutoría)
Diz Pita, Érika (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Álgebras de evolución y grafos asociados
Autoría
D.C.G.
Grado en Matemáticas
D.C.G.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 12:00
02.07.2025 12:00
Resumen
Las álgebras de evolución son álgebras conmutativas pero, en general, no asociativas, introducidas en 2006 para modelizar situaciones de herencia genética en las que no se siguen las leyes mendelianas. A partir de ese momento, autores, entre los que destaca J.P. Tian, desarrollan la teoría de este tipo de álgebras, tratando sus propiedades y las relaciones que presenta con otros ámbitos de estudio, como son las álgebras no asociativas, la teoría de grafos y la biología. El fin de este trabajo es explorar las interacciones entre las álgebras de evolución, la biología y la teoría de grafos, estudiando primero las propiedades de estas álgebras para después profundizar en los grafos dirigidos asociados y en situaciones prácticas a nivel biológico.
Las álgebras de evolución son álgebras conmutativas pero, en general, no asociativas, introducidas en 2006 para modelizar situaciones de herencia genética en las que no se siguen las leyes mendelianas. A partir de ese momento, autores, entre los que destaca J.P. Tian, desarrollan la teoría de este tipo de álgebras, tratando sus propiedades y las relaciones que presenta con otros ámbitos de estudio, como son las álgebras no asociativas, la teoría de grafos y la biología. El fin de este trabajo es explorar las interacciones entre las álgebras de evolución, la biología y la teoría de grafos, estudiando primero las propiedades de estas álgebras para después profundizar en los grafos dirigidos asociados y en situaciones prácticas a nivel biológico.
Dirección
COSTOYA RAMOS, MARIA CRISTINA (Tutoría)
COSTOYA RAMOS, MARIA CRISTINA (Tutoría)
Tribunal
COSTOYA RAMOS, MARIA CRISTINA (Tutor del alumno)
COSTOYA RAMOS, MARIA CRISTINA (Tutor del alumno)
Estimación de conjuntos de nivel para estudiar la avispa velutina
Autoría
J.C.P.
Grado en Matemáticas
J.C.P.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 10:00
02.07.2025 10:00
Resumen
La avispa asiática o Vespa velutina nigrithorax, se ha convertido en una de las especies invasoras más problemáticas en la comunidad gallega debido a su gran impacto ecológico. El principal objetivo de este trabajo será el estudio de la distribución espacial de la especie, haciendo uso de los nidos avistados en todo el territorio gallego, desde sus comienzos en el año 2014 hasta el pasado 2024. A lo largo del trabajo se hará uso de varias técnicas estadísticas avanzadas como la estimación no paramétrica de la densidad tipo núcleo, a partir de la cual se obtienen las regiones de elevada densidad, y estrategias de ponderación de los datos. Los resultados obtenidos muestran la presencia de un claro sesgo en la base de datos; al emplear los datos sin ponderar, las zonas rurales quedan infrarrepresentadas por la falta de posibles observadores. Sin embargo, tras las ponderaciones, las conclusiones cambian por completo, obteniendo un análisis adecuado a la realidad. En conclusión, la metodología empleada en el trabajo ofrece conclusiones ajustadas a la situación real, facilitando la labor de las entidades públicas a la hora de la planificación y la gestión del control de plagas, pudiendo adoptar los métodos de este estudio a diversos campos y situaciones.
La avispa asiática o Vespa velutina nigrithorax, se ha convertido en una de las especies invasoras más problemáticas en la comunidad gallega debido a su gran impacto ecológico. El principal objetivo de este trabajo será el estudio de la distribución espacial de la especie, haciendo uso de los nidos avistados en todo el territorio gallego, desde sus comienzos en el año 2014 hasta el pasado 2024. A lo largo del trabajo se hará uso de varias técnicas estadísticas avanzadas como la estimación no paramétrica de la densidad tipo núcleo, a partir de la cual se obtienen las regiones de elevada densidad, y estrategias de ponderación de los datos. Los resultados obtenidos muestran la presencia de un claro sesgo en la base de datos; al emplear los datos sin ponderar, las zonas rurales quedan infrarrepresentadas por la falta de posibles observadores. Sin embargo, tras las ponderaciones, las conclusiones cambian por completo, obteniendo un análisis adecuado a la realidad. En conclusión, la metodología empleada en el trabajo ofrece conclusiones ajustadas a la situación real, facilitando la labor de las entidades públicas a la hora de la planificación y la gestión del control de plagas, pudiendo adoptar los métodos de este estudio a diversos campos y situaciones.
Dirección
SAAVEDRA NIEVES, PAULA (Tutoría)
ALONSO PENA, MARIA Cotutoría
SAAVEDRA NIEVES, PAULA (Tutoría)
ALONSO PENA, MARIA Cotutoría
Tribunal
ALONSO PENA, MARIA (Tutor del alumno)
SAAVEDRA NIEVES, PAULA (Tutor del alumno)
ALONSO PENA, MARIA (Tutor del alumno)
SAAVEDRA NIEVES, PAULA (Tutor del alumno)
Curvas elípticas y aplicaciones en criptografía
Autoría
X.C.A.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
X.C.A.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
02.07.2025 11:30
02.07.2025 11:30
Resumen
El objetivo de este trabajo es ofrecer un estudio exhaustivo sobre las curvas elípticas, un caso particular de curvas algebraicas que ha ocupado un lugar destacado en diversas ramas de las matemáticas, como la geometría algebraica y la teoría de números, y que ha encontrado importantes aplicaciones en la criptografía moderna. Con el fin de ofrecer un análisis detallado tanto de los aspectos teóricos como de sus aplicaciones, el trabajo comienza introduciendo conceptos y resultados de geometría algebraica que constituyen el marco fundamental para el desarrollo posterior. A continuación, se presenta tanto la definición formal de curva elíptica como su clasificación en función del invariante j. Tras abordar una de sus más importantes características, su estructura de grupo, se examinan las propiedades teóricas de las curvas elípticas en cuerpos finitos, que son el objeto de interés para la parte final, en la que se explora su uso práctico en la criptografía.
El objetivo de este trabajo es ofrecer un estudio exhaustivo sobre las curvas elípticas, un caso particular de curvas algebraicas que ha ocupado un lugar destacado en diversas ramas de las matemáticas, como la geometría algebraica y la teoría de números, y que ha encontrado importantes aplicaciones en la criptografía moderna. Con el fin de ofrecer un análisis detallado tanto de los aspectos teóricos como de sus aplicaciones, el trabajo comienza introduciendo conceptos y resultados de geometría algebraica que constituyen el marco fundamental para el desarrollo posterior. A continuación, se presenta tanto la definición formal de curva elíptica como su clasificación en función del invariante j. Tras abordar una de sus más importantes características, su estructura de grupo, se examinan las propiedades teóricas de las curvas elípticas en cuerpos finitos, que son el objeto de interés para la parte final, en la que se explora su uso práctico en la criptografía.
Dirección
ALONSO TARRIO, LEOVIGILDO (Tutoría)
ALONSO TARRIO, LEOVIGILDO (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Optimización y equidad
Autoría
N.C.A.
Grado en Matemáticas
N.C.A.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 09:55
03.07.2025 09:55
Resumen
En este trabajo abordamos el análisis de condiciones de equidad en problemas de optimización a través del estudio de tres problemas. En primer lugar, tratamos la optimización de rutas de vehículos en condiciones de ayuda humanitaria, lo cual requiere un enfoque equitativo por la naturaleza de la situación. En segundo lugar, analizamos condiciones de equidad relativas a la localización de un conjunto de instalaciones, presentando diversas formulaciones del problema. Por último, estudiamos la equidad en la asignación de recursos hídricos, para lo cual realizamos el análisis de un caso real.
En este trabajo abordamos el análisis de condiciones de equidad en problemas de optimización a través del estudio de tres problemas. En primer lugar, tratamos la optimización de rutas de vehículos en condiciones de ayuda humanitaria, lo cual requiere un enfoque equitativo por la naturaleza de la situación. En segundo lugar, analizamos condiciones de equidad relativas a la localización de un conjunto de instalaciones, presentando diversas formulaciones del problema. Por último, estudiamos la equidad en la asignación de recursos hídricos, para lo cual realizamos el análisis de un caso real.
Dirección
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
DAVILA PENA, LAURA Cotutoría
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
DAVILA PENA, LAURA Cotutoría
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Superficies en el espacio de Lorentz Minkowski
Autoría
M.D.G.
Grado en Matemáticas
M.D.G.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 10:30
02.07.2025 10:30
Resumen
Los espacios modelo para superficies con curvatura de Gauss constante no negativa se corresponden con el plano y las esferas. Sin embargo, el Teorema de Hilbert establece la imposibilidad de la existencia de superficies regulares completas con curvatura de Gauss constante y negativa en el espacio Euclídeo de dimensión tres. Por ello, usaremos la geometría de Lorentz y, en particular, la métrica de Minkowski en tres dimensiones para construir modelos de la geometría hiperbólica. Analizamos los modelos del hiperboloide y del disco de Poincaré, prestando especial atención al comportamiento de sus geodésicas.
Los espacios modelo para superficies con curvatura de Gauss constante no negativa se corresponden con el plano y las esferas. Sin embargo, el Teorema de Hilbert establece la imposibilidad de la existencia de superficies regulares completas con curvatura de Gauss constante y negativa en el espacio Euclídeo de dimensión tres. Por ello, usaremos la geometría de Lorentz y, en particular, la métrica de Minkowski en tres dimensiones para construir modelos de la geometría hiperbólica. Analizamos los modelos del hiperboloide y del disco de Poincaré, prestando especial atención al comportamiento de sus geodésicas.
Dirección
GARCIA RIO, EDUARDO (Tutoría)
Vázquez Abal, María Elena Cotutoría
GARCIA RIO, EDUARDO (Tutoría)
Vázquez Abal, María Elena Cotutoría
Tribunal
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
La transformada rápida de Fourier
Autoría
P.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
P.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
02.07.2025 11:00
02.07.2025 11:00
Resumen
Desde su redescubrimiento en los años 50, la clase de algoritmos conocida como Transformadas Rápidas de Fourier (FFTs) ha sido fundamental en numerosos campos de las matemáticas, la ciencia y la ingeniería. No es de sorprender que el algoritmo de Cooley-Tukey (conocido comúnmente como la FFT) sea ampliamente reconocido como uno de los algoritmos más importantes del siglo XX. En este trabajo, buscamos ofrecer un enfoque estructurado y bien fundamentado para el desarrollo de FFTs. Comenzamos con los fundamentos matemáticos de los espacios Lp y la transformada continua de Fourier, que proporcionan una nueva forma de ver funciones a través de su espectro de frecuencias. Más adelante, introducimos la Transformada Discreta de Fourier (DFT) como una herramienta numérica que permite aplicar los métodos de Fourier. El cálculo de la DFT para entradas de gran tamaño solo es viable gracias a la FFT. Finalmente, presentamos una breve introducción a dos de los grandes ámbitos de aplicación: el procesamiento de señales digitales y la compresión de datos. En particular, revisamos los filtros de audio digital y examinamos el papel de las FFTs en la compresión de imágenes JPEG.
Desde su redescubrimiento en los años 50, la clase de algoritmos conocida como Transformadas Rápidas de Fourier (FFTs) ha sido fundamental en numerosos campos de las matemáticas, la ciencia y la ingeniería. No es de sorprender que el algoritmo de Cooley-Tukey (conocido comúnmente como la FFT) sea ampliamente reconocido como uno de los algoritmos más importantes del siglo XX. En este trabajo, buscamos ofrecer un enfoque estructurado y bien fundamentado para el desarrollo de FFTs. Comenzamos con los fundamentos matemáticos de los espacios Lp y la transformada continua de Fourier, que proporcionan una nueva forma de ver funciones a través de su espectro de frecuencias. Más adelante, introducimos la Transformada Discreta de Fourier (DFT) como una herramienta numérica que permite aplicar los métodos de Fourier. El cálculo de la DFT para entradas de gran tamaño solo es viable gracias a la FFT. Finalmente, presentamos una breve introducción a dos de los grandes ámbitos de aplicación: el procesamiento de señales digitales y la compresión de datos. En particular, revisamos los filtros de audio digital y examinamos el papel de las FFTs en la compresión de imágenes JPEG.
Dirección
LOPEZ SOMOZA, LUCIA (Tutoría)
LOPEZ SOMOZA, LUCIA (Tutoría)
Tribunal
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
Métodos estadísticos en bioinformática
Autoría
C.D.R.
Grado en Matemáticas
C.D.R.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 11:15
02.07.2025 11:15
Resumen
En este trabajo se abordará el estudio de las secuencias de ADN utilizando los métodos estadísticos como herramienta fundamental. Se estudiarán diversas cuestiones relacionadas con el proceso de ensamblado que forma parte de la secuenciación de un genoma. Previamente se llevará a cabo el estudio de los conceptos de probabilidades y variables aleatorias, así como una introducción de los procesos estocásticos, en concreto, de los procesos de Poisson, que son necesarios para modelizar el proceso de secuenciación. Finalmente, se presentará el estudio de un caso práctico relacionado con el genoma bacteriano, accediendo a bases de datos genéticas y utilizando un software especializado en el ensamblado de secuencias.
En este trabajo se abordará el estudio de las secuencias de ADN utilizando los métodos estadísticos como herramienta fundamental. Se estudiarán diversas cuestiones relacionadas con el proceso de ensamblado que forma parte de la secuenciación de un genoma. Previamente se llevará a cabo el estudio de los conceptos de probabilidades y variables aleatorias, así como una introducción de los procesos estocásticos, en concreto, de los procesos de Poisson, que son necesarios para modelizar el proceso de secuenciación. Finalmente, se presentará el estudio de un caso práctico relacionado con el genoma bacteriano, accediendo a bases de datos genéticas y utilizando un software especializado en el ensamblado de secuencias.
Dirección
CASARES DE CAL, MARIA ANGELES (Tutoría)
CASARES DE CAL, MARIA ANGELES (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Medida e Integración abstractas: desvelando el Teorema de Radon Nikodym
Autoría
F.E.L.
Grado en Matemáticas
F.E.L.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 12:15
02.07.2025 12:15
Resumen
Esta memoria presenta un estudio completo y detallado del concepto de medida, comenzando por las medidas positivas y extendiendo progresivamente el análisis a casos más generales, como las medidas reales y complejas. Se dedica una atención especial a uno de los resultados fundamentales de la Teoría de la Medida: el Teorema de Radon Nikodym, que, junto con el Teorema de Descomposición de Lebesgue, es una herramienta esencial para comprender la estructura y el comportamiento de las medidas. Para facilitar el desarrollo de estos temas, se introducen los conocimientos previos necesarios en Teoría de la Medida y Análisis Funcional, incluyendo definiciones clave, proposiciones auxiliares y resultados intermedios que permiten una formulación y demostración rigurosa de los teoremas. Además, se incluye una reseña histórica que destaca las aportaciones de Henri Lebesgue, Johann Radon y Otton Nikodym al desarrollo del teorema que lleva sus nombres. El estudio se completa con un ejemplo académico detallado que ilustra la aplicación del Teorema de Radon Nikodym en un contexto concreto. En conjunto, este trabajo busca ofrecer una comprensión sólida y accesible de uno de los teoremas más relevantes del análisis matemático contemporáneo.
Esta memoria presenta un estudio completo y detallado del concepto de medida, comenzando por las medidas positivas y extendiendo progresivamente el análisis a casos más generales, como las medidas reales y complejas. Se dedica una atención especial a uno de los resultados fundamentales de la Teoría de la Medida: el Teorema de Radon Nikodym, que, junto con el Teorema de Descomposición de Lebesgue, es una herramienta esencial para comprender la estructura y el comportamiento de las medidas. Para facilitar el desarrollo de estos temas, se introducen los conocimientos previos necesarios en Teoría de la Medida y Análisis Funcional, incluyendo definiciones clave, proposiciones auxiliares y resultados intermedios que permiten una formulación y demostración rigurosa de los teoremas. Además, se incluye una reseña histórica que destaca las aportaciones de Henri Lebesgue, Johann Radon y Otton Nikodym al desarrollo del teorema que lleva sus nombres. El estudio se completa con un ejemplo académico detallado que ilustra la aplicación del Teorema de Radon Nikodym en un contexto concreto. En conjunto, este trabajo busca ofrecer una comprensión sólida y accesible de uno de los teoremas más relevantes del análisis matemático contemporáneo.
Dirección
TRINCHET SORIA, ROSA Mª (Tutoría)
TRINCHET SORIA, ROSA Mª (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Explorando EDO
Autoría
D.F.C.
Grado en Matemáticas
D.F.C.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 11:30
02.07.2025 11:30
Resumen
Se estudiarán algunos problemas modelados mediante ecuaciones diferenciales ordinarias. Aunque la perspectiva será numérica, se accederá a las soluciones utilizando software existente, sin que sea necesaria una labor importante de programación. La/el estudiante podrá seleccionar algunos problemas de la siguiente lista, extraída de la que será la referencia fundamental de este trabajo: Eliminación de cafeína del torrente sanguíneo. Problemas de persecución clásicos. Problema del paracaidista. Teoría de vigas y la resistencia de los espaguetis. Estados propios de la ecuación de Schrödinger. Adjuntos y optimización. Luna, sol y mareas. Péndulo no lineal. Modelo SIR para epidemias. No unicidad diseñada. Metaestabilidad, radiactividad y túnel cuántico. Caos en una red alimentaria. Trayectorias linealizadas de Lorenz. Transición a la turbulencia en un tubo. Envío de una nave espacial a un destino. Reacción química de Arrhenius. Brechas de banda y frecuencias prohibidas. ¿Por qué hace más calor en Nueva York que en San Francisco? Función seno de Jacobi. Solitones y la ecuación KdV.
Se estudiarán algunos problemas modelados mediante ecuaciones diferenciales ordinarias. Aunque la perspectiva será numérica, se accederá a las soluciones utilizando software existente, sin que sea necesaria una labor importante de programación. La/el estudiante podrá seleccionar algunos problemas de la siguiente lista, extraída de la que será la referencia fundamental de este trabajo: Eliminación de cafeína del torrente sanguíneo. Problemas de persecución clásicos. Problema del paracaidista. Teoría de vigas y la resistencia de los espaguetis. Estados propios de la ecuación de Schrödinger. Adjuntos y optimización. Luna, sol y mareas. Péndulo no lineal. Modelo SIR para epidemias. No unicidad diseñada. Metaestabilidad, radiactividad y túnel cuántico. Caos en una red alimentaria. Trayectorias linealizadas de Lorenz. Transición a la turbulencia en un tubo. Envío de una nave espacial a un destino. Reacción química de Arrhenius. Brechas de banda y frecuencias prohibidas. ¿Por qué hace más calor en Nueva York que en San Francisco? Función seno de Jacobi. Solitones y la ecuación KdV.
Dirección
López Pouso, Óscar (Tutoría)
López Pouso, Óscar (Tutoría)
Tribunal
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
Estudio y aplicación de AWS Rekognition para el reconocimiento automático de etiquetas de ropa en imágenes de usuario.
Autoría
E.F.D.S.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
E.F.D.S.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
20.02.2025 10:00
20.02.2025 10:00
Resumen
En la actualidad existen múltiples herramientas para realizar procesos de clasificación de imágenes, tales como las redes neuronales convolucionales y los transformers. Sin embargo, la marca Zara continúa realizando el etiquetado de manera manual, lo que deriva en un conjunto de etiquetas inexactas. Por esta razón, en este trabajo se explora la implementación de métodos automatizados que mejoren los resultados obtenidos de forma manual. El propósito de esta investigación es evaluar y analizar la eficacia del servicio de AWS Rekognition Custom Labels para etiquetar prendas de vestir. La estrategia adoptada pretende identificar los límites del servicio para la referida tarea a través de un análisis de la viabilidad del conjunto de datos origen. El desarrollo del proyecto comienza con un análisis preliminar del conjunto de datos para determinar su idoneidad para el entrenamiento de modelos. Posteriormente, se realiza un examen de las restricciones del servicio, considerando cinco variables principales: el número total de imágenes, la interrelación entre las etiquetas, el tipo de etiqueta, la cantidad de imágenes disponibles para cada etiqueta y la influencia de cada etiqueta sobre las demás. Para lograrlo, se utilizarán varios recursos como el propio servicio, un conjunto de datos inicial y una API REST desarrollada para este proyecto. Entre los principales hallazgos se destacan la baja relevancia del número total de imágenes, así como las limitaciones asociadas al tipo de etiqueta y la importancia de que las etiquetas no estén excesivamente relacionadas.
En la actualidad existen múltiples herramientas para realizar procesos de clasificación de imágenes, tales como las redes neuronales convolucionales y los transformers. Sin embargo, la marca Zara continúa realizando el etiquetado de manera manual, lo que deriva en un conjunto de etiquetas inexactas. Por esta razón, en este trabajo se explora la implementación de métodos automatizados que mejoren los resultados obtenidos de forma manual. El propósito de esta investigación es evaluar y analizar la eficacia del servicio de AWS Rekognition Custom Labels para etiquetar prendas de vestir. La estrategia adoptada pretende identificar los límites del servicio para la referida tarea a través de un análisis de la viabilidad del conjunto de datos origen. El desarrollo del proyecto comienza con un análisis preliminar del conjunto de datos para determinar su idoneidad para el entrenamiento de modelos. Posteriormente, se realiza un examen de las restricciones del servicio, considerando cinco variables principales: el número total de imágenes, la interrelación entre las etiquetas, el tipo de etiqueta, la cantidad de imágenes disponibles para cada etiqueta y la influencia de cada etiqueta sobre las demás. Para lograrlo, se utilizarán varios recursos como el propio servicio, un conjunto de datos inicial y una API REST desarrollada para este proyecto. Entre los principales hallazgos se destacan la baja relevancia del número total de imágenes, así como las limitaciones asociadas al tipo de etiqueta y la importancia de que las etiquetas no estén excesivamente relacionadas.
Dirección
Carreira Nouche, María José (Tutoría)
Rodríguez Díez, Helio Cotutoría
Carreira Nouche, María José (Tutoría)
Rodríguez Díez, Helio Cotutoría
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Metaheurísticas del TSP: Un recorrido didáctico y computacional.
Autoría
E.F.D.S.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
E.F.D.S.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
13.02.2025 12:45
13.02.2025 12:45
Resumen
Durante la historia de la computación, los problemas de rutas han suscitado un gran interés debido a sus múltiples aplicaciones en diferentes campos, como son la planificación y la logística. Este trabajo se centra en el problema del viajante de comercio o TSP. En concreto, en las técnicas para resolverlo de forma aproximada en un tiempo polinómico, las metaheurísticas. El objetivo principal de este estudio es proporcionar una guía para comprender cuatro de las más importantes, tanto en el ámbito teórico como en el computacional. Para ello, se realizó una revisión bibliográfica, encontrando información relevante de ellas y sintetizándola. Estas son: la búsqueda tabú, el templado simulado, el algoritmo genético y la optimización de la colonia de hormigas. Para la parte computacional, se realizaron implementaciones en R de todas las metaheurísticas y se evaluaron con distintas instancias de la librería TSPLIB. Como resultado, se obtuvo que no hay una metaheurística mejor que el resto en todos los aspectos. La búsqueda tabú y la optimización de la colonia de hormigas obtienen resultados muy prometedores en términos de distancia al coste óptimo; sin embargo, son temporalmente más costosas que las otras dos. El templado simulado obtiene unos resultados algo peores que los anteriores, pero de forma muy rápida. Por último, el algoritmo genético obtiene muy malos resultados en un tiempo, relativamente, aceptable. En conclusión, este trabajo sirve como guía a las personas que quieran comprender estos conceptos.
Durante la historia de la computación, los problemas de rutas han suscitado un gran interés debido a sus múltiples aplicaciones en diferentes campos, como son la planificación y la logística. Este trabajo se centra en el problema del viajante de comercio o TSP. En concreto, en las técnicas para resolverlo de forma aproximada en un tiempo polinómico, las metaheurísticas. El objetivo principal de este estudio es proporcionar una guía para comprender cuatro de las más importantes, tanto en el ámbito teórico como en el computacional. Para ello, se realizó una revisión bibliográfica, encontrando información relevante de ellas y sintetizándola. Estas son: la búsqueda tabú, el templado simulado, el algoritmo genético y la optimización de la colonia de hormigas. Para la parte computacional, se realizaron implementaciones en R de todas las metaheurísticas y se evaluaron con distintas instancias de la librería TSPLIB. Como resultado, se obtuvo que no hay una metaheurística mejor que el resto en todos los aspectos. La búsqueda tabú y la optimización de la colonia de hormigas obtienen resultados muy prometedores en términos de distancia al coste óptimo; sin embargo, son temporalmente más costosas que las otras dos. El templado simulado obtiene unos resultados algo peores que los anteriores, pero de forma muy rápida. Por último, el algoritmo genético obtiene muy malos resultados en un tiempo, relativamente, aceptable. En conclusión, este trabajo sirve como guía a las personas que quieran comprender estos conceptos.
Dirección
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
Tribunal
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
Teoría de juegos y logística en el sector pesquero
Autoría
U.F.G.
Grado en Matemáticas
U.F.G.
Grado en Matemáticas
Fecha de la defensa
13.02.2025 13:30
13.02.2025 13:30
Resumen
La teoría de juegos es una disciplina matemática que estudia problemas de decisión que involucran a varios agentes. Distinguimos juegos cooperativos y no cooperativos, los cuales se diferencian en la existencia o no de mecanismos para establecer acuerdos vinculantes. Dos conceptos básicos son el valor de Shapley y el equilibrio perfecto en subjuegos, tomados de los juegos cooperativos con utilidad transferible y los juegos en forma extensiva. En este trabajo utilizaremos las herramientas mencionadas anteriormente para comprender y explicar una investigación reciente en el ámbito de los dispositivos de concentración de peces. Esto ha conducido a la posibilidad de un incremento en los beneficios de las firmas pesqueras y paralelamente a una contribución beneficiosa para el medio ambiente en términos de la reducción del consumo de carburante y así de las emisiones de CO2. Junto con las consideraciones teóricas se pretende mostrar un análisis empírico de este problema.
La teoría de juegos es una disciplina matemática que estudia problemas de decisión que involucran a varios agentes. Distinguimos juegos cooperativos y no cooperativos, los cuales se diferencian en la existencia o no de mecanismos para establecer acuerdos vinculantes. Dos conceptos básicos son el valor de Shapley y el equilibrio perfecto en subjuegos, tomados de los juegos cooperativos con utilidad transferible y los juegos en forma extensiva. En este trabajo utilizaremos las herramientas mencionadas anteriormente para comprender y explicar una investigación reciente en el ámbito de los dispositivos de concentración de peces. Esto ha conducido a la posibilidad de un incremento en los beneficios de las firmas pesqueras y paralelamente a una contribución beneficiosa para el medio ambiente en términos de la reducción del consumo de carburante y así de las emisiones de CO2. Junto con las consideraciones teóricas se pretende mostrar un análisis empírico de este problema.
Dirección
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
Tribunal
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
El teorema de densidad de Chebotarev
Autoría
G.F.L.
Grado en Matemáticas
G.F.L.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 17:00
02.07.2025 17:00
Resumen
El objetivo de este TFG es el estudio del teorema de densidad de Chebotarev, trabajando algunas de sus aplicaciones, especialmente la factorización de polinomios módulo p. En la primera parte, realizaremos una primera aproximación a la conexión entre la teoría de Galois y la factorización de polinomios módulo p, trabajando la relación con otros resultados como la ley de reciprocidad cuadrática. A continuación, explicaremos el papel que desempeña el teorema de densidad de Chebotarev y discutiremos otras aplicaciones del mismo.
El objetivo de este TFG es el estudio del teorema de densidad de Chebotarev, trabajando algunas de sus aplicaciones, especialmente la factorización de polinomios módulo p. En la primera parte, realizaremos una primera aproximación a la conexión entre la teoría de Galois y la factorización de polinomios módulo p, trabajando la relación con otros resultados como la ley de reciprocidad cuadrática. A continuación, explicaremos el papel que desempeña el teorema de densidad de Chebotarev y discutiremos otras aplicaciones del mismo.
Dirección
RIVERO SALGADO, OSCAR (Tutoría)
RIVERO SALGADO, OSCAR (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Métodos Numéricos en Ansys Fluent
Autoría
N.F.M.
Grado en Matemáticas
N.F.M.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 11:00
03.07.2025 11:00
Resumen
En esta publicación realizaremos un estudio de algunos de los métodos numéricos más usados a la hora de resolver ecuaciones diferenciales. Comprobaremos sus propiedades teóricas mediante la resolución de un problema físico de valor inicial. Finalizaremos con una comparación de los métodos disponibles con los que utiliza un software comercial para la modelización de fluidos, como es Ansys Fluent.
En esta publicación realizaremos un estudio de algunos de los métodos numéricos más usados a la hora de resolver ecuaciones diferenciales. Comprobaremos sus propiedades teóricas mediante la resolución de un problema físico de valor inicial. Finalizaremos con una comparación de los métodos disponibles con los que utiliza un software comercial para la modelización de fluidos, como es Ansys Fluent.
Dirección
Ferrín González, José Luis (Tutoría)
Ferrín González, José Luis (Tutoría)
Tribunal
Ferrín González, José Luis (Tutor del alumno)
Ferrín González, José Luis (Tutor del alumno)
Reconstrucción de árboles filogenéticos mediante computación cuántica
Autoría
N.F.O.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
N.F.O.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
20.02.2025 10:30
20.02.2025 10:30
Resumen
La computación cuántica es un campo de la informática que utiliza principios de la física cuántica para la resolución de problemas de manera más eficiente que la computación clásica, especialmente en áreas como la optimización. Por otro lado, la bioinformática es un campo que combina elementos de la biología y la informática para analizar grandes conjuntos de datos biológicos. Un ejemplo destacado de esta disciplina es la genómica, que incluye la generación de árboles filogenéticos, herramientas clave para entender la evolución biológica de especies. La reconstrucción de estos árboles representa un problema computacional muy complicado de resolver por su complejidad. Este trabajo explora si la computación cuántica puede ofrecer soluciones efectivas para abordar dicho problema. En este contexto, se ha estudiado el funcionamiento de la computación cuántica y de los algoritmos cuánticos de optimización, haciendo énfasis en Quantum annealing y en el algoritmo cuántico de optimización aproximada (QAOA). Basándose en estos enfoques, se ha desarrollado un algoritmo cuántico capaz de reconstruir filogenias mediante el corte de grafos. El algoritmo propuesto fue implementado y probado en hardware cuántico disponible actualmente, obteniendo resultados satisfactorios que demuestran su potencial para resolver problemas complejos en el área de la bioinformática.
La computación cuántica es un campo de la informática que utiliza principios de la física cuántica para la resolución de problemas de manera más eficiente que la computación clásica, especialmente en áreas como la optimización. Por otro lado, la bioinformática es un campo que combina elementos de la biología y la informática para analizar grandes conjuntos de datos biológicos. Un ejemplo destacado de esta disciplina es la genómica, que incluye la generación de árboles filogenéticos, herramientas clave para entender la evolución biológica de especies. La reconstrucción de estos árboles representa un problema computacional muy complicado de resolver por su complejidad. Este trabajo explora si la computación cuántica puede ofrecer soluciones efectivas para abordar dicho problema. En este contexto, se ha estudiado el funcionamiento de la computación cuántica y de los algoritmos cuánticos de optimización, haciendo énfasis en Quantum annealing y en el algoritmo cuántico de optimización aproximada (QAOA). Basándose en estos enfoques, se ha desarrollado un algoritmo cuántico capaz de reconstruir filogenias mediante el corte de grafos. El algoritmo propuesto fue implementado y probado en hardware cuántico disponible actualmente, obteniendo resultados satisfactorios que demuestran su potencial para resolver problemas complejos en el área de la bioinformática.
Dirección
Fernández Pena, Anselmo Tomás (Tutoría)
PICHEL CAMPOS, JUAN CARLOS Cotutoría
Fernández Pena, Anselmo Tomás (Tutoría)
PICHEL CAMPOS, JUAN CARLOS Cotutoría
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Algoritmos meméticos para el MC-TTRP
Autoría
N.F.O.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
N.F.O.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
03.07.2025 10:40
03.07.2025 10:40
Resumen
Una metaheurística es un procedimiento de búsqueda de alto nivel diseñado para guiar heurísticas subordinadas con el objetivo de explorar eficazmente espacios de soluciones en problemas de optimización complejos, especialmente aquellos donde los métodos exactos resultan computacionalmente inviables. Estas técnicas no garantizan encontrar la solución óptima, pero buscan obtener soluciones de buena calidad en tiempos razonables, lo que las hace especialmente útiles en entornos reales. Dentro de este marco, destacan los algoritmos evolutivos, que se inspiran en principios de la evolución biológica para explorar espacios de búsqueda complejos. Entre ellos, los algoritmos genéticos y meméticos son especialmente relevantes. Los algoritmos genéticos emplean mecanismos como la selección, el cruce y la mutación para generar nuevas soluciones, mientras que los algoritmos meméticos combinan esta exploración global con estrategias de mejora local para optimizar aún más cada solución. Estos métodos han sido aplicados con éxito en la resolución de diversos problemas complejos, entre ellos los problemas de rutas. Estos consisten en encontrar el conjunto óptimo de caminos que debe seguir una flota de vehículos para atender a un conjunto de clientes. Una generalización de los problemas de rutas es el problema de rutas de camiones y tráileres multicompartimento (MC-TTRP). Este problema considera dos tipos de vehículos compartimentados, camiones y tráileres que deben ir remolcados, y dos tipos de clientes con diferentes restricciones de servicio y que requieren múltiples tipos de carga, lo que da lugar a la existencia de múltiples tipos de rutas para optimizar la distribución. En este trabajo se han explorado los algoritmos genéticos y meméticos, estudiando cómo funcionan los operadores utilizados y cómo obtener un algoritmo memético que es capaz de abordar un problema complejo. También se han estudiado los problemas de rutas, con un mayor énfasis en el MC-TTRP, ofreciendo un modelo de programación lineal y entera mixta que permita modelar el problema de manera matemática. Utilizando estos conocimientos se ha implementado un algoritmo en C++ que facilita la obtención de las rutas óptimas para cualquier instancia del MC-TTRP.
Una metaheurística es un procedimiento de búsqueda de alto nivel diseñado para guiar heurísticas subordinadas con el objetivo de explorar eficazmente espacios de soluciones en problemas de optimización complejos, especialmente aquellos donde los métodos exactos resultan computacionalmente inviables. Estas técnicas no garantizan encontrar la solución óptima, pero buscan obtener soluciones de buena calidad en tiempos razonables, lo que las hace especialmente útiles en entornos reales. Dentro de este marco, destacan los algoritmos evolutivos, que se inspiran en principios de la evolución biológica para explorar espacios de búsqueda complejos. Entre ellos, los algoritmos genéticos y meméticos son especialmente relevantes. Los algoritmos genéticos emplean mecanismos como la selección, el cruce y la mutación para generar nuevas soluciones, mientras que los algoritmos meméticos combinan esta exploración global con estrategias de mejora local para optimizar aún más cada solución. Estos métodos han sido aplicados con éxito en la resolución de diversos problemas complejos, entre ellos los problemas de rutas. Estos consisten en encontrar el conjunto óptimo de caminos que debe seguir una flota de vehículos para atender a un conjunto de clientes. Una generalización de los problemas de rutas es el problema de rutas de camiones y tráileres multicompartimento (MC-TTRP). Este problema considera dos tipos de vehículos compartimentados, camiones y tráileres que deben ir remolcados, y dos tipos de clientes con diferentes restricciones de servicio y que requieren múltiples tipos de carga, lo que da lugar a la existencia de múltiples tipos de rutas para optimizar la distribución. En este trabajo se han explorado los algoritmos genéticos y meméticos, estudiando cómo funcionan los operadores utilizados y cómo obtener un algoritmo memético que es capaz de abordar un problema complejo. También se han estudiado los problemas de rutas, con un mayor énfasis en el MC-TTRP, ofreciendo un modelo de programación lineal y entera mixta que permita modelar el problema de manera matemática. Utilizando estos conocimientos se ha implementado un algoritmo en C++ que facilita la obtención de las rutas óptimas para cualquier instancia del MC-TTRP.
Dirección
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
CASAS MENDEZ, BALBINA VIRGINIA (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Comparación de metodologías clásicas y de aprendizaje automático en el análisis de series temporales
Autoría
A.F.M.
Grado en Matemáticas
A.F.M.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 12:00
02.07.2025 12:00
Resumen
Al considerar un conjunto de datos, podemos encontrarnos con observaciones independientes o con observaciones que presenten algún tipo de dependencia espacial o temporal, como es el caso de las series temporales. Al tener en cuenta esta dependencia, emerge naturalmente la teoría estadística del análisis de series temporales, en la que nos adentramos en las siguientes páginas. El objetivo de este trabajo es la descripción y comparación de los diferentes modelos y metodologías de análisis de series temporales. Partiendo de esa base, se comparan atendiendo a su rendimiento, sencillez, interpretabilidad y eficiencia computacional, llegando a la conclusión de que los modelos más adecuados varían en cada caso.
Al considerar un conjunto de datos, podemos encontrarnos con observaciones independientes o con observaciones que presenten algún tipo de dependencia espacial o temporal, como es el caso de las series temporales. Al tener en cuenta esta dependencia, emerge naturalmente la teoría estadística del análisis de series temporales, en la que nos adentramos en las siguientes páginas. El objetivo de este trabajo es la descripción y comparación de los diferentes modelos y metodologías de análisis de series temporales. Partiendo de esa base, se comparan atendiendo a su rendimiento, sencillez, interpretabilidad y eficiencia computacional, llegando a la conclusión de que los modelos más adecuados varían en cada caso.
Dirección
PATEIRO LOPEZ, BEATRIZ (Tutoría)
PATEIRO LOPEZ, BEATRIZ (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Aspectos matemáticos del Concept Drift
Autoría
F.F.M.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
F.F.M.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
03.07.2025 11:25
03.07.2025 11:25
Resumen
En este trabajo se aborda el fenómeno del Concept Drift, que se manifiesta en entornos dinámicos y no estacionarios, donde las relaciones estadísticas entre las variables del modelo varían con el tiempo, afectando al rendimiento de los algoritmos de aprendizaje automático. Como objetivo principal, se desarrolla una modificación del algoritmo KSWIN, perteneciente a la librería RiverML, basado en el contraste de Kolmogorov-Smirnov. La propuesta incorpora contrastes múltiples y la corrección de Benjamini-Hochberg, con el fin de mejorar la robustez estadística del test y reducir la tasa de falsos positivos. Se proponen diversas configuraciones del detector, orientadas tanto a la monitorización de datos procedentes de distribuciones continuas como a la evaluación de métricas de rendimiento. Para este último enfoque, se introduce un mecanismo para la identificación del tipo de drift, aplicando técnicas de inferencia no paramétrica. En el primer caso, se diseña un entorno de pruebas con datos generados artificialmente. En el segundo, se integra la comparativa desarrollada en un Trabajo de Fin de Grado del Grado en Ingeniería Informática, centrado en la evaluación de múltiples detectores presentes en la literatura. Los experimentos realizados muestran una reducción significativa en la tasa de falsos positivos sin comprometer la potencia del contraste, mejorando la eficacia del algoritmo original y otros detectores clásicos. Además, la capacidad de identificación del tipo de drift aporta un valor añadido a una de las configuraciones propuestas.
En este trabajo se aborda el fenómeno del Concept Drift, que se manifiesta en entornos dinámicos y no estacionarios, donde las relaciones estadísticas entre las variables del modelo varían con el tiempo, afectando al rendimiento de los algoritmos de aprendizaje automático. Como objetivo principal, se desarrolla una modificación del algoritmo KSWIN, perteneciente a la librería RiverML, basado en el contraste de Kolmogorov-Smirnov. La propuesta incorpora contrastes múltiples y la corrección de Benjamini-Hochberg, con el fin de mejorar la robustez estadística del test y reducir la tasa de falsos positivos. Se proponen diversas configuraciones del detector, orientadas tanto a la monitorización de datos procedentes de distribuciones continuas como a la evaluación de métricas de rendimiento. Para este último enfoque, se introduce un mecanismo para la identificación del tipo de drift, aplicando técnicas de inferencia no paramétrica. En el primer caso, se diseña un entorno de pruebas con datos generados artificialmente. En el segundo, se integra la comparativa desarrollada en un Trabajo de Fin de Grado del Grado en Ingeniería Informática, centrado en la evaluación de múltiples detectores presentes en la literatura. Los experimentos realizados muestran una reducción significativa en la tasa de falsos positivos sin comprometer la potencia del contraste, mejorando la eficacia del algoritmo original y otros detectores clásicos. Además, la capacidad de identificación del tipo de drift aporta un valor añadido a una de las configuraciones propuestas.
Dirección
CRUJEIRAS CASAIS, ROSA MARÍA (Tutoría)
CRUJEIRAS CASAIS, ROSA MARÍA (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Funciones especiales en la resolución de ecuaciones en derivadas parciales
Autoría
C.F.S.
Doble Grado en Matemáticas y en Física
C.F.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
03.07.2025 10:00
03.07.2025 10:00
Resumen
La resolución mediante separación de variables de, por ejemplo, la ecuación de ondas en un dominio espacial circular, nos lleva a las funciones de Bessel como funciones base para obtener las soluciones en series. En este TFG se trata de estudiar las funciones de Bessel, y otras funciones especiales, y mostrar su utilidad en la resolución de EDPs en dominios espaciales circulares o cilíndricos.
La resolución mediante separación de variables de, por ejemplo, la ecuación de ondas en un dominio espacial circular, nos lleva a las funciones de Bessel como funciones base para obtener las soluciones en series. En este TFG se trata de estudiar las funciones de Bessel, y otras funciones especiales, y mostrar su utilidad en la resolución de EDPs en dominios espaciales circulares o cilíndricos.
Dirección
LOPEZ POUSO, RODRIGO (Tutoría)
LOPEZ POUSO, RODRIGO (Tutoría)
Tribunal
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
Modelado Estadístico de Datos Deportivos
Autoría
A.G.A.
Doble Grado en Matemáticas y en Física
A.G.A.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
02.07.2025 12:45
02.07.2025 12:45
Resumen
A lo largo de este trabajo se presenta una aplicación del modelo de aprendizaje supervisado Random Forest a datos deportivos. En concreto, a datos asociados a los equipos de la NBA en las últimas temporadas. En el primer capítulo se realiza una breve introducción a los algoritmos de aprendizaje supervisado haciendo especial énfasis en el dilema sesgo-varianza, problema fundamental en este tipo de modelos. A continuación, se realiza una descripción sistemática de los árboles de decisión. Estos son unos de los modelos más sencillos de aprendizaje supervisado, pero son piezas fundamentales en otros modelos más complejos como el Random Forest. En el Capítulo 3 se introduce el modelo Random Forest tal y como lo definió Leo Breiman en 2001. Además, se presentan unos resultados fundamentales relacionados con la reducción de su error relativo y su varianza. Finalmente, en el último capítulo se aplica el modelo Random Forest a datos de estadística avanzada de los equipos de la NBA. Se analizará tanto un caso de clasificación como uno de regresión. En ambos casos, se estudiará la dependencia de los modelos con sus hiperparámetros y se compararán los resultados con otros modelos habituales en este tipo de problemas.
A lo largo de este trabajo se presenta una aplicación del modelo de aprendizaje supervisado Random Forest a datos deportivos. En concreto, a datos asociados a los equipos de la NBA en las últimas temporadas. En el primer capítulo se realiza una breve introducción a los algoritmos de aprendizaje supervisado haciendo especial énfasis en el dilema sesgo-varianza, problema fundamental en este tipo de modelos. A continuación, se realiza una descripción sistemática de los árboles de decisión. Estos son unos de los modelos más sencillos de aprendizaje supervisado, pero son piezas fundamentales en otros modelos más complejos como el Random Forest. En el Capítulo 3 se introduce el modelo Random Forest tal y como lo definió Leo Breiman en 2001. Además, se presentan unos resultados fundamentales relacionados con la reducción de su error relativo y su varianza. Finalmente, en el último capítulo se aplica el modelo Random Forest a datos de estadística avanzada de los equipos de la NBA. Se analizará tanto un caso de clasificación como uno de regresión. En ambos casos, se estudiará la dependencia de los modelos con sus hiperparámetros y se compararán los resultados con otros modelos habituales en este tipo de problemas.
Dirección
RODRIGUEZ CASAL, ALBERTO (Tutoría)
RODRIGUEZ CASAL, ALBERTO (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Funciones L de curvas elípticas y formas modulares
Autoría
J.G.C.
Doble Grado en Matemáticas y en Física
J.G.C.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
02.07.2025 17:45
02.07.2025 17:45
Resumen
Las funciones L son funciones definidas en el plano complejo que permiten obtener información aritmética a partir de propiedades analíticas como la localización de sus ceros, polos o el cumplimiento de cierta ecuación funcional. Además, nos permiten conectar objetos de naturaleza distinta como las curvas elípticas, de naturaleza geométrica, y las formas modulares, de naturaleza analítica, a través del teorema de modularidad que establece una correspondencia entre ambos a través de sus funciones L asociadas. En este trabajo nos centraremos en el estudio de las funciones L asociadas a generalizaciones de las formas modulares, las llamadas formas automorfas, y a las representaciones de Galois. En particular, comenzaremos introduciendo las representaciones de Galois y sus conexiones con las curvas elípticas y formas modulares. Luego, pasaremos a estudiar las formas y representaciones automorfas comenzando con el caso de GL2 donde se introducirán las técnicas para establecer ecuaciones funcionales de sus funciones L asociadas trabajadas en la tesis de Tate. En los dos siguientes capítulos se generalizarán estos conceptos para el caso general de un grupo algebraico reductivo cualquiera. Todo esto se estudiará enmarcándolo dentro del programa de Langlands que generaliza la conexión entre curvas elípticas y formas modulares a un contexto más general.
Las funciones L son funciones definidas en el plano complejo que permiten obtener información aritmética a partir de propiedades analíticas como la localización de sus ceros, polos o el cumplimiento de cierta ecuación funcional. Además, nos permiten conectar objetos de naturaleza distinta como las curvas elípticas, de naturaleza geométrica, y las formas modulares, de naturaleza analítica, a través del teorema de modularidad que establece una correspondencia entre ambos a través de sus funciones L asociadas. En este trabajo nos centraremos en el estudio de las funciones L asociadas a generalizaciones de las formas modulares, las llamadas formas automorfas, y a las representaciones de Galois. En particular, comenzaremos introduciendo las representaciones de Galois y sus conexiones con las curvas elípticas y formas modulares. Luego, pasaremos a estudiar las formas y representaciones automorfas comenzando con el caso de GL2 donde se introducirán las técnicas para establecer ecuaciones funcionales de sus funciones L asociadas trabajadas en la tesis de Tate. En los dos siguientes capítulos se generalizarán estos conceptos para el caso general de un grupo algebraico reductivo cualquiera. Todo esto se estudiará enmarcándolo dentro del programa de Langlands que generaliza la conexión entre curvas elípticas y formas modulares a un contexto más general.
Dirección
RIVERO SALGADO, OSCAR (Tutoría)
RIVERO SALGADO, OSCAR (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Las funciones generatrices en el cálculo de índices de poder.
Autoría
C.G.F.
Grado en Matemáticas
C.G.F.
Grado en Matemáticas
Fecha de la defensa
12.02.2025 12:30
12.02.2025 12:30
Resumen
Dentro del campo de la teoría de juegos, los juegos de mayoría ponderada desempeñan un papel fundamental en el análisis de votaciones en parlamentos y comités. En este trabajo, se presenta esta clase de juegos, centrándose en el estudio de los índices de poder. Este es un concepto de solución que asigna una medida de influencia o poder a los jugadores en el proceso de votación. Entre los índices de poder existentes en la literatura, se estudiarán Shapley-Shubik, Banzhaf, Johnston, Colomer-Martínez y Johnston-Colomer-Martínez. Se analizarán las propiedades que cumplen y se ilustrarán con ejemplos prácticos. Con el objetivo de facilitar el cómputo de estos índices, se desarrollarán métodos basados en funciones generatrices, herramientas del análisis combinatorio que permiten obtener, mediante polinomios, los elementos necesarios para su cálculo. Además, se modelará una nueva situación al considerar que los jugadores implicados pueden aliarse formando agrupaciones, dando lugar a los denominados juegos con estructura coalicional. Para este tipo de juegos, se introducirán dos nuevos índices de poder: los índices de Owen y Banzhaf-Owen, junto con métodos para su cálculo basados también en funciones generatrices. Finalmente, se aplicarán estos conceptos en un caso práctico: el análisis del Parlamento español. Se estudiarán los cambios en la distribución de poder de los partidos políticos entre las elecciones generales de noviembre de 2019 y julio de 2023, así como las consecuencias de los movimientos de diputados entre grupos parlamentarios a lo largo de la XV Legislatura. Para llevar a cabo estos cálculos, se utilizará la librería powerindexR en el software estadístico R.
Dentro del campo de la teoría de juegos, los juegos de mayoría ponderada desempeñan un papel fundamental en el análisis de votaciones en parlamentos y comités. En este trabajo, se presenta esta clase de juegos, centrándose en el estudio de los índices de poder. Este es un concepto de solución que asigna una medida de influencia o poder a los jugadores en el proceso de votación. Entre los índices de poder existentes en la literatura, se estudiarán Shapley-Shubik, Banzhaf, Johnston, Colomer-Martínez y Johnston-Colomer-Martínez. Se analizarán las propiedades que cumplen y se ilustrarán con ejemplos prácticos. Con el objetivo de facilitar el cómputo de estos índices, se desarrollarán métodos basados en funciones generatrices, herramientas del análisis combinatorio que permiten obtener, mediante polinomios, los elementos necesarios para su cálculo. Además, se modelará una nueva situación al considerar que los jugadores implicados pueden aliarse formando agrupaciones, dando lugar a los denominados juegos con estructura coalicional. Para este tipo de juegos, se introducirán dos nuevos índices de poder: los índices de Owen y Banzhaf-Owen, junto con métodos para su cálculo basados también en funciones generatrices. Finalmente, se aplicarán estos conceptos en un caso práctico: el análisis del Parlamento español. Se estudiarán los cambios en la distribución de poder de los partidos políticos entre las elecciones generales de noviembre de 2019 y julio de 2023, así como las consecuencias de los movimientos de diputados entre grupos parlamentarios a lo largo de la XV Legislatura. Para llevar a cabo estos cálculos, se utilizará la librería powerindexR en el software estadístico R.
Dirección
SAAVEDRA NIEVES, ALEJANDRO (Tutoría)
DAVILA PENA, LAURA Cotutoría
SAAVEDRA NIEVES, ALEJANDRO (Tutoría)
DAVILA PENA, LAURA Cotutoría
Tribunal
CABADA FERNANDEZ, ALBERTO (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
MUÑOZ SOLA, RAFAEL (Vocal)
CABADA FERNANDEZ, ALBERTO (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
MUÑOZ SOLA, RAFAEL (Vocal)
Introducción a las bifurcaciones en las ecuaciones diferenciales ordinarias
Autoría
A.G.L.
Grado en Matemáticas
A.G.L.
Grado en Matemáticas
Fecha de la defensa
12.02.2025 13:15
12.02.2025 13:15
Resumen
El estudio del comportamiento cualitativo de las ecuaciones diferenciales busca obtener propiedades de las soluciones sin necesidad de conocerlas explícitamente. Este enfoque cobra especial relevancia cuando se incorporan parámetros en la ecuación, pues pequeñas variaciones en ellos pueden suponer cambios muy significativos, influyendo en el número de puntos singulares, en su estabilidad o en la aparición de soluciones oscilatorias. Esta es la idea de la teoría de las bifurcaciones, en la que se profundizará mediante los ejemplos más típicos en una y dos dimensiones: las bifurcaciones tangenciales, transcríticas, tridentes y de Hopf. Para cada una de ellas se explorará el comportamiento cualitativo de una ecuación tipo, para continuar realizando un estudio genérico en el que se obtendrán condiciones que la caracterizan.
El estudio del comportamiento cualitativo de las ecuaciones diferenciales busca obtener propiedades de las soluciones sin necesidad de conocerlas explícitamente. Este enfoque cobra especial relevancia cuando se incorporan parámetros en la ecuación, pues pequeñas variaciones en ellos pueden suponer cambios muy significativos, influyendo en el número de puntos singulares, en su estabilidad o en la aparición de soluciones oscilatorias. Esta es la idea de la teoría de las bifurcaciones, en la que se profundizará mediante los ejemplos más típicos en una y dos dimensiones: las bifurcaciones tangenciales, transcríticas, tridentes y de Hopf. Para cada una de ellas se explorará el comportamiento cualitativo de una ecuación tipo, para continuar realizando un estudio genérico en el que se obtendrán condiciones que la caracterizan.
Dirección
BUEDO FERNANDEZ, SEBASTIAN (Tutoría)
LOIS PRADOS, CRISTINA Cotutoría
BUEDO FERNANDEZ, SEBASTIAN (Tutoría)
LOIS PRADOS, CRISTINA Cotutoría
Tribunal
CABADA FERNANDEZ, ALBERTO (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
MUÑOZ SOLA, RAFAEL (Vocal)
CABADA FERNANDEZ, ALBERTO (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
MUÑOZ SOLA, RAFAEL (Vocal)
Clustering basado en modelos
Autoría
N.G.S.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
N.G.S.D.V.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
03.07.2025 12:10
03.07.2025 12:10
Resumen
El clustering es una técnica estadística no supervisada que busca identificar automáticamente grupos homogéneos de observaciones dentro de un conjunto de datos. Su utilidad se ha consolidado en múltiples disciplinas, especialmente en el contexto actual de generación masiva de datos, gracias a su capacidad para identificar grupos en datos complejos y de alta dimensión. Aunque tradicionalmente se han utilizado métodos heurísticos como k-medias o técnicas jerárquicas, estos enfoques presentan limitaciones, como la falta de una base teórica sólida o la dificultad para determinar el número óptimo de grupos. En contraste, el clustering basado en modelos (Model-Based Clustering, MBC) ofrece una alternativa estadísticamente fundamentada al modelar los datos como una mixtura finita de distribuciones de probabilidad. Este enfoque permite realizar inferencias rigurosas, seleccionar modelos apropiados, elegir el número de grupos de manera justificada y evaluar la incertidumbre en la asignación de observaciones. En este trabajo, se presentan los fundamentos teóricos del clustering basado en modelos, con un enfoque en los modelos de distribuciones gaussianas, que son los más utilizados, así como el algoritmo EM para la estimación de parámetros y criterios de selección de modelos, incluyendo la elección del número de clústeres. Además, se presentan ejemplos prácticos utilizando el paquete mclust en R.
El clustering es una técnica estadística no supervisada que busca identificar automáticamente grupos homogéneos de observaciones dentro de un conjunto de datos. Su utilidad se ha consolidado en múltiples disciplinas, especialmente en el contexto actual de generación masiva de datos, gracias a su capacidad para identificar grupos en datos complejos y de alta dimensión. Aunque tradicionalmente se han utilizado métodos heurísticos como k-medias o técnicas jerárquicas, estos enfoques presentan limitaciones, como la falta de una base teórica sólida o la dificultad para determinar el número óptimo de grupos. En contraste, el clustering basado en modelos (Model-Based Clustering, MBC) ofrece una alternativa estadísticamente fundamentada al modelar los datos como una mixtura finita de distribuciones de probabilidad. Este enfoque permite realizar inferencias rigurosas, seleccionar modelos apropiados, elegir el número de grupos de manera justificada y evaluar la incertidumbre en la asignación de observaciones. En este trabajo, se presentan los fundamentos teóricos del clustering basado en modelos, con un enfoque en los modelos de distribuciones gaussianas, que son los más utilizados, así como el algoritmo EM para la estimación de parámetros y criterios de selección de modelos, incluyendo la elección del número de clústeres. Además, se presentan ejemplos prácticos utilizando el paquete mclust en R.
Dirección
AMEIJEIRAS ALONSO, JOSE (Tutoría)
AMEIJEIRAS ALONSO, JOSE (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Modelos matemáticos para la regulación del volumen celular
Autoría
J.A.G.B.
Grado en Matemáticas
J.A.G.B.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 10:30
03.07.2025 10:30
Resumen
En este trabajo se estudia un modelo de ecuaciones diferenciales, que refleja la variación del volumen celular provocado por diferentes aspectos biológicos. En primer lugar, recordaremos conceptos básicos relacionados con las Ecuaciones Diferenciales Ordinarias y, seguidamente, introduciremos el concepto de grado de Brouwer y algunas de sus principales propiedades. Veremos también como se ajusta el modelo a diferentes tipos de células y como varían sus parámetros. Además, estudiaremos la estabilidad de nuestro modelo ayudándonos de casos particulares. Por último, se estudiará la posibilidad de que el modelo tenga soluciones T-periódicas no triviales a través de diferentes resultados que se ilustrarán con algunos ejemplos.
En este trabajo se estudia un modelo de ecuaciones diferenciales, que refleja la variación del volumen celular provocado por diferentes aspectos biológicos. En primer lugar, recordaremos conceptos básicos relacionados con las Ecuaciones Diferenciales Ordinarias y, seguidamente, introduciremos el concepto de grado de Brouwer y algunas de sus principales propiedades. Veremos también como se ajusta el modelo a diferentes tipos de células y como varían sus parámetros. Además, estudiaremos la estabilidad de nuestro modelo ayudándonos de casos particulares. Por último, se estudiará la posibilidad de que el modelo tenga soluciones T-periódicas no triviales a través de diferentes resultados que se ilustrarán con algunos ejemplos.
Dirección
CABADA FERNANDEZ, ALBERTO (Tutoría)
CABADA FERNANDEZ, ALBERTO (Tutoría)
Tribunal
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
Solución numérica de ecuaciones polinómicas
Autoría
A.H.T.
Grado en Matemáticas
A.H.T.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 11:00
03.07.2025 11:00
Resumen
Este trabajo aborda la solución numérica de ecuaciones polinómicas mediante métodos computacionales. El objetivo principal es describir y aplicar técnicas para acotar, localizar y aproximar raíces de polinomios con coeficientes reales y complejos. Se desarrollan de forma teórico práctica métodos clásicos como el esquema de Horner para evaluación eficiente de polinomios y derivadas, los métodos de acotación (Lehmer Schur para raíces complejas; Laguerre Thibault, Newton y Sturm para raíces reales) y los algoritmos de aproximación (Newton, Bernoulli, Bairstow, Graeffe Lobachevsky). Estos estos últimos con código desarrollado en MATLAB. Se demuestra que la elección del método depende críticamente de la naturaleza del polinomio: multiplicidad de raíces, separación entre ellas y presencia de raíces complejas. Los experimentos numéricos revelan, entre otros resultados, que el método de Newton con deflación es robusto para raíces simples, el método de Bairstow es óptimo para raíces complejas conjugadas evitando aritmética compleja y el método de Bernoulli converge rápidamente para raíces dominantes simples, pero es sensible a elecciones iniciales. El trabajo incluye códigos MATLAB verificados para todos los algoritmos de aproximación de raíces, validados con polinomios de prueba. Las conclusiones destacan la importancia de combinar métodos analíticos (separación de raíces) con numéricos para garantizar precisión.
Este trabajo aborda la solución numérica de ecuaciones polinómicas mediante métodos computacionales. El objetivo principal es describir y aplicar técnicas para acotar, localizar y aproximar raíces de polinomios con coeficientes reales y complejos. Se desarrollan de forma teórico práctica métodos clásicos como el esquema de Horner para evaluación eficiente de polinomios y derivadas, los métodos de acotación (Lehmer Schur para raíces complejas; Laguerre Thibault, Newton y Sturm para raíces reales) y los algoritmos de aproximación (Newton, Bernoulli, Bairstow, Graeffe Lobachevsky). Estos estos últimos con código desarrollado en MATLAB. Se demuestra que la elección del método depende críticamente de la naturaleza del polinomio: multiplicidad de raíces, separación entre ellas y presencia de raíces complejas. Los experimentos numéricos revelan, entre otros resultados, que el método de Newton con deflación es robusto para raíces simples, el método de Bairstow es óptimo para raíces complejas conjugadas evitando aritmética compleja y el método de Bernoulli converge rápidamente para raíces dominantes simples, pero es sensible a elecciones iniciales. El trabajo incluye códigos MATLAB verificados para todos los algoritmos de aproximación de raíces, validados con polinomios de prueba. Las conclusiones destacan la importancia de combinar métodos analíticos (separación de raíces) con numéricos para garantizar precisión.
Dirección
VIAÑO REY, JUAN MANUEL (Tutoría)
VIAÑO REY, JUAN MANUEL (Tutoría)
Tribunal
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
Modelado de datos en el espacio
Autoría
N.H.C.
Grado en Matemáticas
N.H.C.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 12:55
03.07.2025 12:55
Resumen
Los datos espaciales representan localizaciones geográficas cuyo análisis permite detectar posibles patrones y estructuras en el espacio. En este Trabajo de Fin de Grado se presenta una introducción a la estimación no paramétrica de la densidad bidimensional, centrada en el uso del estimador tipo núcleo, con el fin de obtener representaciones suaves de la distribución espacial de los datos. Los diferentes métodos serán ilustrados mediante la implementación de códigos en R, aplicados a datos reales de casos y controles de leucemia registrados en el noroeste de Inglaterra. El objetivo principal es identificar posibles agrupaciones espaciales significativas que puedan contribuir a la comprensión de los patrones epidemiológicos observados.
Los datos espaciales representan localizaciones geográficas cuyo análisis permite detectar posibles patrones y estructuras en el espacio. En este Trabajo de Fin de Grado se presenta una introducción a la estimación no paramétrica de la densidad bidimensional, centrada en el uso del estimador tipo núcleo, con el fin de obtener representaciones suaves de la distribución espacial de los datos. Los diferentes métodos serán ilustrados mediante la implementación de códigos en R, aplicados a datos reales de casos y controles de leucemia registrados en el noroeste de Inglaterra. El objetivo principal es identificar posibles agrupaciones espaciales significativas que puedan contribuir a la comprensión de los patrones epidemiológicos observados.
Dirección
RODRIGUEZ CASAL, ALBERTO (Tutoría)
RODRIGUEZ CASAL, ALBERTO (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Los métodos de Newton y Newton discretizado para sistemas de ecuaciones no lineales
Autoría
A.J.P.
Grado en Matemáticas
A.J.P.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 11:00
02.07.2025 11:00
Resumen
Este trabajo estudia el método de Newton aplicado a sistemas de ecuaciones no lineales, así como su variante discretizada, en la cual las derivadas se aproximan mediante diferencias finitas. Se comienza con la presentación del método en una variable para facilitar la comprensión y luego se generaliza al caso multidimensional. La parte teórica incluye un análisis detallado de la convergencia local de ambos métodos. Finalmente, se implementan ambos métodos en MATLAB y se ilustran sus propiedades mediante tres ejemplos numéricos.
Este trabajo estudia el método de Newton aplicado a sistemas de ecuaciones no lineales, así como su variante discretizada, en la cual las derivadas se aproximan mediante diferencias finitas. Se comienza con la presentación del método en una variable para facilitar la comprensión y luego se generaliza al caso multidimensional. La parte teórica incluye un análisis detallado de la convergencia local de ambos métodos. Finalmente, se implementan ambos métodos en MATLAB y se ilustran sus propiedades mediante tres ejemplos numéricos.
Dirección
MUÑOZ SOLA, RAFAEL (Tutoría)
MUÑOZ SOLA, RAFAEL (Tutoría)
Tribunal
MUÑOZ SOLA, RAFAEL (Tutor del alumno)
MUÑOZ SOLA, RAFAEL (Tutor del alumno)
Segmentación semántica eficiente de imágenes de cobertura terrestre mediante arquitectura codificador-decodificador
Autoría
I.L.C.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
I.L.C.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
20.02.2025 11:30
20.02.2025 11:30
Resumen
En el área del sensado remoto, existe gran interés en recopilar información de cobertura terrestre para identificar y clasificar los diferentes tipos de superficies presentes en el suelo, como áreas con vegetación, cuerpos de agua, suelos urbanos, pastizales, bosques o áreas agrícolas, entre otros. Por otra parte, la segmentación semántica de imágenes permite asignar una etiqueta a cada píxel de la imagen, clasificándolos en diferentes categorías o clases específicas, lo que facilita la interpretación y el análisis de imágenes satelitales o aéreas. El uso de técnicas de aprendizaje profundo ha demostrado ser eficaz en el ámbito de la visión por computador, concretamente en las tareas de segmentación semántica. No obstante, estos modelos son muy costosos computacionalmente, y suelen requerir el uso de hardware especializado y técnicas de optimización para mejorar la eficiencia y viabilidad del entrenamiento y la inferencia. En este Trabajo de Fin de Grado se persigue probar diferentes modelos con arquitectura codificador-decodificador, tratando de mejorar la eficiencia y viabilidad de los entrenamientos incluso con grandes cantidades de datos. De las técnicas de paralelismo existentes para entrenamientos multiGPU, se usará el paralelismo de datos, seleccionando un módulo de PyTorch que lo implemente de manera eficiente. Además, usando precisión mixta en punto flotante de 16 bits se consigue reducir el uso de memoria y aprovechar mejor el hardware de las GPUs, realizando el entrenamiento en la mitad de tiempo sin que la calidad de la segmentación se vea afectada.
En el área del sensado remoto, existe gran interés en recopilar información de cobertura terrestre para identificar y clasificar los diferentes tipos de superficies presentes en el suelo, como áreas con vegetación, cuerpos de agua, suelos urbanos, pastizales, bosques o áreas agrícolas, entre otros. Por otra parte, la segmentación semántica de imágenes permite asignar una etiqueta a cada píxel de la imagen, clasificándolos en diferentes categorías o clases específicas, lo que facilita la interpretación y el análisis de imágenes satelitales o aéreas. El uso de técnicas de aprendizaje profundo ha demostrado ser eficaz en el ámbito de la visión por computador, concretamente en las tareas de segmentación semántica. No obstante, estos modelos son muy costosos computacionalmente, y suelen requerir el uso de hardware especializado y técnicas de optimización para mejorar la eficiencia y viabilidad del entrenamiento y la inferencia. En este Trabajo de Fin de Grado se persigue probar diferentes modelos con arquitectura codificador-decodificador, tratando de mejorar la eficiencia y viabilidad de los entrenamientos incluso con grandes cantidades de datos. De las técnicas de paralelismo existentes para entrenamientos multiGPU, se usará el paralelismo de datos, seleccionando un módulo de PyTorch que lo implemente de manera eficiente. Además, usando precisión mixta en punto flotante de 16 bits se consigue reducir el uso de memoria y aprovechar mejor el hardware de las GPUs, realizando el entrenamiento en la mitad de tiempo sin que la calidad de la segmentación se vea afectada.
Dirección
Argüello Pedreira, Francisco Santiago (Tutoría)
Blanco Heras, Dora Cotutoría
Argüello Pedreira, Francisco Santiago (Tutoría)
Blanco Heras, Dora Cotutoría
Tribunal
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
ARIAS RODRIGUEZ, JUAN ENRIQUE (Presidente/a)
Querentes Hermida, Raquel Esther (Secretario/a)
PIÑEIRO POMAR, CESAR ALFREDO (Vocal)
Grupos de permutaciones en la clasificación de álgebras de evolución idempotentes
Autoría
A.L.P.
Grado en Matemáticas
A.L.P.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 18:30
02.07.2025 18:30
Resumen
Una álgebra de evolución sobre un cuerpo es una álgebra dotada de una base que verifica que el producto de cualquier par de elementos distintos de la base siempre es nulo. Las álgebras de evolución idempotentes de dimensión finita tienen la propiedad de que su grupo de automorfismos es finito y admite una representación mediante permutaciones. En el contexto del problema de realización de grupos surge la pregunta natural de si toda representación mediante permutaciones de un grupo finito puede realizarse a través de un álgebra de evolución idempotente de dimensión finita. En este trabajo se introduce la teoría necesaria para comprender el problema y se tratan los resultados principales que aparecen en la literatura.
Una álgebra de evolución sobre un cuerpo es una álgebra dotada de una base que verifica que el producto de cualquier par de elementos distintos de la base siempre es nulo. Las álgebras de evolución idempotentes de dimensión finita tienen la propiedad de que su grupo de automorfismos es finito y admite una representación mediante permutaciones. En el contexto del problema de realización de grupos surge la pregunta natural de si toda representación mediante permutaciones de un grupo finito puede realizarse a través de un álgebra de evolución idempotente de dimensión finita. En este trabajo se introduce la teoría necesaria para comprender el problema y se tratan los resultados principales que aparecen en la literatura.
Dirección
COSTOYA RAMOS, MARIA CRISTINA (Tutoría)
FERNANDEZ RODRIGUEZ, ROSA Mª Cotutoría
COSTOYA RAMOS, MARIA CRISTINA (Tutoría)
FERNANDEZ RODRIGUEZ, ROSA Mª Cotutoría
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Métodos Matemáticos de la Inteligencia Artificial
Autoría
P.L.P.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
P.L.P.
Dobre Grado en Ingeniería Informática y en Matemáticas (2ªed)
Fecha de la defensa
03.07.2025 10:00
03.07.2025 10:00
Resumen
Esta tesis explora los fundamentos matemáticos de la inteligencia artificial, centrándose en las redes neuronales y sus líneas de investigación. Comienza con un análisis detallado de las redes neuronales, cubriendo conceptos fundamentales como la arquitectura y el entrenamiento, así como temas de investigación como la expresividad, la optimización, la generalización y la explicabilidad. Se introduce la dimensión de Vapnik-Chervonenkis (VC) como marco teórico para cuantificar la capacidad de los modelos, ofreciendo información sobre su capacidad de generalización y sus limitaciones. Para abordar la maldición de la dimensionalidad, la tesis analiza técnicas de reducción de dimensionalidad, como el análisis de componentes principales (PCA) y el análisis discriminante lineal (LDA), mostrando su papel en la mejora de la eficiencia de los modelos sin sacrificar el rendimiento. Por último, se evalúan las capacidades matemáticas de los grandes modelos lingüísticos como GPT. A partir de ejemplos de tareas de razonamiento y resolución de problemas, este trabajo investiga cómo estos modelos procesan y generan resultados matemáticamente rigurosos.
Esta tesis explora los fundamentos matemáticos de la inteligencia artificial, centrándose en las redes neuronales y sus líneas de investigación. Comienza con un análisis detallado de las redes neuronales, cubriendo conceptos fundamentales como la arquitectura y el entrenamiento, así como temas de investigación como la expresividad, la optimización, la generalización y la explicabilidad. Se introduce la dimensión de Vapnik-Chervonenkis (VC) como marco teórico para cuantificar la capacidad de los modelos, ofreciendo información sobre su capacidad de generalización y sus limitaciones. Para abordar la maldición de la dimensionalidad, la tesis analiza técnicas de reducción de dimensionalidad, como el análisis de componentes principales (PCA) y el análisis discriminante lineal (LDA), mostrando su papel en la mejora de la eficiencia de los modelos sin sacrificar el rendimiento. Por último, se evalúan las capacidades matemáticas de los grandes modelos lingüísticos como GPT. A partir de ejemplos de tareas de razonamiento y resolución de problemas, este trabajo investiga cómo estos modelos procesan y generan resultados matemáticamente rigurosos.
Dirección
Nieto Roig, Juan José (Tutoría)
Nieto Roig, Juan José (Tutoría)
Tribunal
Nieto Roig, Juan José (Tutor del alumno)
Nieto Roig, Juan José (Tutor del alumno)
Determinación de la dependencia espacial mediante variogramas
Autoría
C.L.L.
Grado en Matemáticas
C.L.L.
Grado en Matemáticas
Fecha de la defensa
12.02.2025 16:30
12.02.2025 16:30
Resumen
En este trabajo se realiza una introducción a la geoestadística, centrándose especialmente en el concepto de variograma, estructura que cuantifica la dependencia espacial, y el método de interpolación espacial Kriging. Para ello se exponen las bases teóricas de la dependencia espacial como fundamento para el desarrollo del variograma, incluyendo la concepción experimental pero también teórica del mismo, así como los distintos modelos existentes y razones por las que puede no modelizar correctamente la dependencia espacial. A continuación se presenta la teoría detrás del método de interpolación Kriging, junto con las diferentes variantes del modelo: el ordinario, el universal y el multivariante. Finalmente, se presenta un caso práctico que plasma la utilidad de estos conceptos con el fin de modelar, mediante las librerías gstat y sm de R, la interpolación de los contaminantes SO2, PM10 y NOx en el territorio gallego.
En este trabajo se realiza una introducción a la geoestadística, centrándose especialmente en el concepto de variograma, estructura que cuantifica la dependencia espacial, y el método de interpolación espacial Kriging. Para ello se exponen las bases teóricas de la dependencia espacial como fundamento para el desarrollo del variograma, incluyendo la concepción experimental pero también teórica del mismo, así como los distintos modelos existentes y razones por las que puede no modelizar correctamente la dependencia espacial. A continuación se presenta la teoría detrás del método de interpolación Kriging, junto con las diferentes variantes del modelo: el ordinario, el universal y el multivariante. Finalmente, se presenta un caso práctico que plasma la utilidad de estos conceptos con el fin de modelar, mediante las librerías gstat y sm de R, la interpolación de los contaminantes SO2, PM10 y NOx en el territorio gallego.
Dirección
FEBRERO BANDE, MANUEL (Tutoría)
FEBRERO BANDE, MANUEL (Tutoría)
Tribunal
CABADA FERNANDEZ, ALBERTO (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
MUÑOZ SOLA, RAFAEL (Vocal)
CABADA FERNANDEZ, ALBERTO (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
MUÑOZ SOLA, RAFAEL (Vocal)
Un recorrido por el último teorema de Fermat
Autoría
L.L.R.
Grado en Matemáticas
L.L.R.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 10:00
03.07.2025 10:00
Resumen
Este trabajo realiza una aproximación a algunas de las ideas que se desarrollaron durante la exploración y posterior demostración del último teorema de Fermat. Comenzando por los casos n=3 y n=4, se trabajarán algunos aspectos relativos a la aritmética de los cuerpos de números. La parte central de la memoria se dedica al estudio de la demostración del teorema de Fermat para primos regulares. Finalmente, realizamos un breve acercamiento a algunas de las ideas desarrolladas en el S.XX en torno al concepto de modularidad, que permitirían la demostración del resultado realizada por Andrew Wiles en los años 90.
Este trabajo realiza una aproximación a algunas de las ideas que se desarrollaron durante la exploración y posterior demostración del último teorema de Fermat. Comenzando por los casos n=3 y n=4, se trabajarán algunos aspectos relativos a la aritmética de los cuerpos de números. La parte central de la memoria se dedica al estudio de la demostración del teorema de Fermat para primos regulares. Finalmente, realizamos un breve acercamiento a algunas de las ideas desarrolladas en el S.XX en torno al concepto de modularidad, que permitirían la demostración del resultado realizada por Andrew Wiles en los años 90.
Dirección
RIVERO SALGADO, OSCAR (Tutoría)
RIVERO SALGADO, OSCAR (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Categorías (finitamente) universales
Autoría
D.L.P.
Grado en Matemáticas
D.L.P.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 10:45
03.07.2025 10:45
Resumen
Uno de los problemas clásicos que impulsó importantes avances en álgebra es el Problema Inverso de Galois, propuesto por Hilbert en 1892. Inspirado por este problema y siguiendo una lógica similar, surge a comienzos del siglo XX el problema de realización de grupos, que plantea una cuestión aparentemente sencilla: dada una categoría C y un grupo G, ¿existe algún objeto de C cuyo grupo de automorfismos sea isomorfo a G? Cuando esto ocurre para todo grupo (finito), se dice que la categoría es (finitamente) universal. Uno de los primeros avances en este ámbito se debe a R. Frucht, quien en 1939 demostró que la categoría de los grafos simples finitos es finitamente universal. Desde entonces, el problema ha sido estudiado en diversas categorías y sigue siendo, a día de hoy, un tema de interés en la investigación en álgebra. El objetivo de este trabajo es introducir el problema de realización de grupos, presentar las herramientas más relevantes para su estudio y aplicar estas técnicas para abordar, por primera vez en la literatura, la universalidad finita de la categoría de los anillos de fusión, estructuras algebraicas que surgen de forma natural tanto en álgebra como en ciertos contextos de la física teórica dentro del marco actual de investigación.
Uno de los problemas clásicos que impulsó importantes avances en álgebra es el Problema Inverso de Galois, propuesto por Hilbert en 1892. Inspirado por este problema y siguiendo una lógica similar, surge a comienzos del siglo XX el problema de realización de grupos, que plantea una cuestión aparentemente sencilla: dada una categoría C y un grupo G, ¿existe algún objeto de C cuyo grupo de automorfismos sea isomorfo a G? Cuando esto ocurre para todo grupo (finito), se dice que la categoría es (finitamente) universal. Uno de los primeros avances en este ámbito se debe a R. Frucht, quien en 1939 demostró que la categoría de los grafos simples finitos es finitamente universal. Desde entonces, el problema ha sido estudiado en diversas categorías y sigue siendo, a día de hoy, un tema de interés en la investigación en álgebra. El objetivo de este trabajo es introducir el problema de realización de grupos, presentar las herramientas más relevantes para su estudio y aplicar estas técnicas para abordar, por primera vez en la literatura, la universalidad finita de la categoría de los anillos de fusión, estructuras algebraicas que surgen de forma natural tanto en álgebra como en ciertos contextos de la física teórica dentro del marco actual de investigación.
Dirección
COSTOYA RAMOS, MARIA CRISTINA (Tutoría)
COSTOYA RAMOS, MARIA CRISTINA (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Algoritmos cuánticos
Autoría
Y.M.R.
Grado en Matemáticas
Y.M.R.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 11:30
03.07.2025 11:30
Resumen
En este Trabajo Fin de Grado se presentan dos de los algoritmos cuánticos más importantes, el de factorización de Shor y el de búsqueda de Grover. Previamente, se detallan las bases de este tipo de computación desde un enfoque puramente matemático. Más concretamente, se desarrollan el concepto de p-cúbit y las operaciones que se pueden llevar a cabo entre ellos mediante puertas lógicas. Además, se presentan subrutinas como el cálculo de la transformada de Fourier cuántica y el algoritmo cuántico de estimación de fase, clave en múltiples algoritmos cuánticos. Por último, se lleva a cabo un estudio pormenorizado de los dos algoritmos antes mencionados, acompañado de interpretaciones geométricas y ejemplos para facilitar su comprensión.
En este Trabajo Fin de Grado se presentan dos de los algoritmos cuánticos más importantes, el de factorización de Shor y el de búsqueda de Grover. Previamente, se detallan las bases de este tipo de computación desde un enfoque puramente matemático. Más concretamente, se desarrollan el concepto de p-cúbit y las operaciones que se pueden llevar a cabo entre ellos mediante puertas lógicas. Además, se presentan subrutinas como el cálculo de la transformada de Fourier cuántica y el algoritmo cuántico de estimación de fase, clave en múltiples algoritmos cuánticos. Por último, se lleva a cabo un estudio pormenorizado de los dos algoritmos antes mencionados, acompañado de interpretaciones geométricas y ejemplos para facilitar su comprensión.
Dirección
FERNANDEZ TOJO, FERNANDO ADRIAN (Tutoría)
FERNANDEZ TOJO, FERNANDO ADRIAN (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Mujeres matemáticas en la historia
Autoría
T.M.S.
Grado en Matemáticas
T.M.S.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 11:30
03.07.2025 11:30
Resumen
En este Trabajo Fin de Grado se estudiará la presencia de las figuras femeninas en las matemáticas a lo largo de la historia, así como sus aportaciones a los distintos campos de esta ciencia, profundizando especialmente en la obra de cinco mujeres de los últimos siglos. Para conseguir este objetivo, se comenzará con una introducción sobre la historia de las matemáticas en la que se resaltarán los aspectos más relevantes, aportando a su vez una idea del contexto sociopolítico de las distintas épocas. Se continuará con una enumeración de los motivos detrás del silenciamiento de las mujeres en esta historia, muchos de los cuales se verán reflejados posteriormente en las biografías que conforman los capítulos de este trabajo. En cada capítulo se expondrá una breve biografía de las mujeres escogidas para, a continuación, ahondar en sus trabajos y destacar la importancia de estos en el desarrollo de la ciencia. Entre las obras, resultados y conceptos analizados, se encuentran Observaciones de pasos por dos verticales, primera tesis en astronomía realizada por una mujer española; el Teorema de Cauchy Kovalevskaya, de gran utilidad en el contexto de las ecuaciones en derivadas parciales; la definición de anillo noetheriano, fundamental en el álgebra conmutativa; y el método de ramificación y acotación, esencial en el campo de la investigación operativa.
En este Trabajo Fin de Grado se estudiará la presencia de las figuras femeninas en las matemáticas a lo largo de la historia, así como sus aportaciones a los distintos campos de esta ciencia, profundizando especialmente en la obra de cinco mujeres de los últimos siglos. Para conseguir este objetivo, se comenzará con una introducción sobre la historia de las matemáticas en la que se resaltarán los aspectos más relevantes, aportando a su vez una idea del contexto sociopolítico de las distintas épocas. Se continuará con una enumeración de los motivos detrás del silenciamiento de las mujeres en esta historia, muchos de los cuales se verán reflejados posteriormente en las biografías que conforman los capítulos de este trabajo. En cada capítulo se expondrá una breve biografía de las mujeres escogidas para, a continuación, ahondar en sus trabajos y destacar la importancia de estos en el desarrollo de la ciencia. Entre las obras, resultados y conceptos analizados, se encuentran Observaciones de pasos por dos verticales, primera tesis en astronomía realizada por una mujer española; el Teorema de Cauchy Kovalevskaya, de gran utilidad en el contexto de las ecuaciones en derivadas parciales; la definición de anillo noetheriano, fundamental en el álgebra conmutativa; y el método de ramificación y acotación, esencial en el campo de la investigación operativa.
Dirección
Diz Pita, Érika (Tutoría)
DAVILA PENA, LAURA Cotutoría
Diz Pita, Érika (Tutoría)
DAVILA PENA, LAURA Cotutoría
Tribunal
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
QUINTELA ESTEVEZ, PEREGRINA (Presidente/a)
TRINCHET SORIA, ROSA Mª (Secretario/a)
DIAZ RAMOS, JOSE CARLOS (Vocal)
Sistemas Dinámicos
Autoría
M.P.Q.
Grado en Matemáticas
M.P.Q.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 12:15
03.07.2025 12:15
Resumen
Un sistema dinámico no es más que un sistema de ecuaciones que varían con el tiempo: si este recorre los números reales, hablaremos de sistemas dinámicos continuos; cuando toma valores enteros, se llamarán sistemas dinámicos discretos. El objetivo de este trabajo es hacer una introducción teórica a los sistemas dinámicos para más tarde estudiar los dos casos particulares existentes. Veremos como los sistemas dinámicos continuos se pueden considerar equivalentes a las ecuaciones diferenciales ordinarias gracias al Teorema de Existencia Global. Además, estudiaremos los diferentes tipos de conjuntos atractores o repulsores que definen sus retratos de fases. Por otra parte, abordaremos los sistemas dinámicos discretos de una manera más gráfica, hablando sobre puntos periódicos e hiperbólicos. Luego, nos centraremos en un ejemplo concreto (la familia cuadrática) y, para finalizar, introduciremos el concepto de caos.
Un sistema dinámico no es más que un sistema de ecuaciones que varían con el tiempo: si este recorre los números reales, hablaremos de sistemas dinámicos continuos; cuando toma valores enteros, se llamarán sistemas dinámicos discretos. El objetivo de este trabajo es hacer una introducción teórica a los sistemas dinámicos para más tarde estudiar los dos casos particulares existentes. Veremos como los sistemas dinámicos continuos se pueden considerar equivalentes a las ecuaciones diferenciales ordinarias gracias al Teorema de Existencia Global. Además, estudiaremos los diferentes tipos de conjuntos atractores o repulsores que definen sus retratos de fases. Por otra parte, abordaremos los sistemas dinámicos discretos de una manera más gráfica, hablando sobre puntos periódicos e hiperbólicos. Luego, nos centraremos en un ejemplo concreto (la familia cuadrática) y, para finalizar, introduciremos el concepto de caos.
Dirección
LOPEZ SOMOZA, LUCIA (Tutoría)
LOPEZ SOMOZA, LUCIA (Tutoría)
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Topología de la evolución de los virus.
Autoría
L.M.Q.T.
Grado en Matemáticas
L.M.Q.T.
Grado en Matemáticas
Fecha de la defensa
12.02.2025 19:00
12.02.2025 19:00
Resumen
En las últimas décadas se han desarrollado herramientas topológicas para el análisis de datos en distintas áreas. En este trabajo se explicarán la homología simplicial y la homología persistente, así como su aplicación en la biología como método para estudiar y predecir la evolución de los virus, no muy conocida ni controlada. Particularmente, nos centraremos en el virus de la gripe (Influenza A) y en el Virus de la Inmunodeficiencia Humana (VIH), tanto por su prevalencia y mortalidad provocada en humanos, como por la disposición de sus datos e idoneidad con los métodos topológicos expuestos para su estudio.
En las últimas décadas se han desarrollado herramientas topológicas para el análisis de datos en distintas áreas. En este trabajo se explicarán la homología simplicial y la homología persistente, así como su aplicación en la biología como método para estudiar y predecir la evolución de los virus, no muy conocida ni controlada. Particularmente, nos centraremos en el virus de la gripe (Influenza A) y en el Virus de la Inmunodeficiencia Humana (VIH), tanto por su prevalencia y mortalidad provocada en humanos, como por la disposición de sus datos e idoneidad con los métodos topológicos expuestos para su estudio.
Dirección
Gómez Tato, Antonio M. (Tutoría)
Gómez Tato, Antonio M. (Tutoría)
Tribunal
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
RODRIGUEZ CASAL, ALBERTO (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
SALGADO SECO, MODESTO RAMON (Vocal)
Regresión Esférica
Autoría
R.R.B.
Grado en Matemáticas
R.R.B.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 12:00
03.07.2025 12:00
Resumen
Este trabajo estudia un modelo de regresión para variables esféricas, es decir, aquellas definidas en la superficie de una esfera. Comienza con una introducción a los conceptos y resultados básicos y necesarios de la regresión lineal simple, múltiple y no lineal; para posteriormente trabajar con datos esféricos, incorporando las definiciones fundamentales. Para ello, utilizaremos representaciones gráficas. También incorporaremos las distribuciones más importantes, siendo de especial interés la distribución de von Mises-Fisher, ya que será la que utilizaremos en los capítulos posteriores. Una vez presentados todos los conocimientos previos, los pondremos en práctica mediante un estudio de simulación con R. En este estudio, presentamos el modelo de rotación para la regresión esférica, explicando algunas de sus principales propiedades e interpretando los resultados obtenidos. Finalmente, discutiremos y explicaremos las posibles limitaciones de este proyecto (uso exclusivo de datos simulados, referencias a demostraciones, etc.). También discutiremos cómo se podría ampliar este trabajo, por ejemplo, cambiando a una dimensión mayor o incluso mencionando otros modelos de distribución conocidos.
Este trabajo estudia un modelo de regresión para variables esféricas, es decir, aquellas definidas en la superficie de una esfera. Comienza con una introducción a los conceptos y resultados básicos y necesarios de la regresión lineal simple, múltiple y no lineal; para posteriormente trabajar con datos esféricos, incorporando las definiciones fundamentales. Para ello, utilizaremos representaciones gráficas. También incorporaremos las distribuciones más importantes, siendo de especial interés la distribución de von Mises-Fisher, ya que será la que utilizaremos en los capítulos posteriores. Una vez presentados todos los conocimientos previos, los pondremos en práctica mediante un estudio de simulación con R. En este estudio, presentamos el modelo de rotación para la regresión esférica, explicando algunas de sus principales propiedades e interpretando los resultados obtenidos. Finalmente, discutiremos y explicaremos las posibles limitaciones de este proyecto (uso exclusivo de datos simulados, referencias a demostraciones, etc.). También discutiremos cómo se podría ampliar este trabajo, por ejemplo, cambiando a una dimensión mayor o incluso mencionando otros modelos de distribución conocidos.
Dirección
ALONSO PENA, MARIA (Tutoría)
ALONSO PENA, MARIA (Tutoría)
Tribunal
ALONSO PENA, MARIA (Tutor del alumno)
ALONSO PENA, MARIA (Tutor del alumno)
Diferenciación en espacios normados y minimización de funcionales
Autoría
A.R.T.
Grado en Matemáticas
A.R.T.
Grado en Matemáticas
Fecha de la defensa
03.07.2025 10:00
03.07.2025 10:00
Resumen
El objetivo de este trabajo es ampliar los conocimientos en lo referido al cálculo diferencial, englobando un entorno más generalizado que el considerado en el grado. En la primera parte, fijaremos el concepto de diferencial de Fréchet, confrontándolo con el de diferencial de Gâteau, para estudiar, de ahí en adelante, numerosos resultados en base a ambas. Utilizaremos estas ideas para trabajar con derivadas de segunda orden y superior, que nos permitirán, a su vez, analizar las condiciones necesarias y suficientes para la existencia de extremos de funciones. En la segunda parte, contextualizaremos sobre el cálculo de variaciones y desglosaremos el proceso que nos permitirá obtener la ecuación de Euler-Lagrange con la finalidad de poder aplicarla posteriormente a problemas específicos, como serán el de la superficie de revolución con área mínima o el de la curva de descenso más rápido (o curva braquistócrona).
El objetivo de este trabajo es ampliar los conocimientos en lo referido al cálculo diferencial, englobando un entorno más generalizado que el considerado en el grado. En la primera parte, fijaremos el concepto de diferencial de Fréchet, confrontándolo con el de diferencial de Gâteau, para estudiar, de ahí en adelante, numerosos resultados en base a ambas. Utilizaremos estas ideas para trabajar con derivadas de segunda orden y superior, que nos permitirán, a su vez, analizar las condiciones necesarias y suficientes para la existencia de extremos de funciones. En la segunda parte, contextualizaremos sobre el cálculo de variaciones y desglosaremos el proceso que nos permitirá obtener la ecuación de Euler-Lagrange con la finalidad de poder aplicarla posteriormente a problemas específicos, como serán el de la superficie de revolución con área mínima o el de la curva de descenso más rápido (o curva braquistócrona).
Dirección
Rodríguez López, Jorge (Tutoría)
Rodríguez López, Jorge (Tutoría)
Tribunal
Rodríguez López, Jorge (Tutor del alumno)
Rodríguez López, Jorge (Tutor del alumno)
Series de tiempo para analizar los cultivos de maíz en Galicia
Autoría
M.S.R.
Grado en Matemáticas
M.S.R.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 11:30
02.07.2025 11:30
Resumen
La producción de maíz forrajero en Galicia es clave para el sector primario de la comunidad, siendo uno de los cultivos que más trabajadores ocupa debido a su importancia en la alimentación del ganado vacuno. Utilizaremos datos reales de rendimiento de maíz forrajero y otras variables climatológicas facilitados por el Centro de Investigación Agraria de Mabegondo, para analizar su relación mediante modelos de regresión sobre series temporales. Paralelamente, se analiza la evolución de la temperatura media y de la precipitación en Galicia empleando técnicas de modelización de series temporales, con el fin de ajustar modelos ARIMA validados estadísticamente. Estos modelos permiten generar predicciones climáticas e interpretar las variaciones en las condiciones meteorológicas que pueden influir en la productividad agraria a medio y largo plazo, en un contexto marcado por el cambio climático.
La producción de maíz forrajero en Galicia es clave para el sector primario de la comunidad, siendo uno de los cultivos que más trabajadores ocupa debido a su importancia en la alimentación del ganado vacuno. Utilizaremos datos reales de rendimiento de maíz forrajero y otras variables climatológicas facilitados por el Centro de Investigación Agraria de Mabegondo, para analizar su relación mediante modelos de regresión sobre series temporales. Paralelamente, se analiza la evolución de la temperatura media y de la precipitación en Galicia empleando técnicas de modelización de series temporales, con el fin de ajustar modelos ARIMA validados estadísticamente. Estos modelos permiten generar predicciones climáticas e interpretar las variaciones en las condiciones meteorológicas que pueden influir en la productividad agraria a medio y largo plazo, en un contexto marcado por el cambio climático.
Dirección
SAAVEDRA NIEVES, PAULA (Tutoría)
SAAVEDRA NIEVES, PAULA (Tutoría)
Tribunal
SAAVEDRA NIEVES, PAULA (Tutor del alumno)
SAAVEDRA NIEVES, PAULA (Tutor del alumno)
Regresión y clasificación con Random Forests
Autoría
A.S.G.
Grado en Matemáticas
A.S.G.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 13:30
02.07.2025 13:30
Resumen
El método de Random Forests es una técnica de aprendizaje automático, que se utiliza tanto en regresión como en clasificación. Se basa en la construcción y combinación de múltiples árboles de decisión, obteniendo así una mejora de precisión en las predicciones y reduciendo el riesgo de sobreajuste. Este algoritmo utiliza un método conocido como Bagging, basado en generar diversos subconjuntos aleatorios de datos y en entrenar un árbol en cada uno de ellos. Además, en cada nodo se selecciona aleatoriamente un subconjunto, dotando al modelo de diversidad. Finalmente, en el caso de clasificación se procede por votación mayoritaria entre los árboles, mientras que en regresión se calcula el promedio de las predicciones individuales de cada árbol. Random Forests es un modelo robusto, además de versátil, que reduce el impacto de valores atípicos y nos permite trabajar con datos de alta dimensionalidad.
El método de Random Forests es una técnica de aprendizaje automático, que se utiliza tanto en regresión como en clasificación. Se basa en la construcción y combinación de múltiples árboles de decisión, obteniendo así una mejora de precisión en las predicciones y reduciendo el riesgo de sobreajuste. Este algoritmo utiliza un método conocido como Bagging, basado en generar diversos subconjuntos aleatorios de datos y en entrenar un árbol en cada uno de ellos. Además, en cada nodo se selecciona aleatoriamente un subconjunto, dotando al modelo de diversidad. Finalmente, en el caso de clasificación se procede por votación mayoritaria entre los árboles, mientras que en regresión se calcula el promedio de las predicciones individuales de cada árbol. Random Forests es un modelo robusto, además de versátil, que reduce el impacto de valores atípicos y nos permite trabajar con datos de alta dimensionalidad.
Dirección
FEBRERO BANDE, MANUEL (Tutoría)
FEBRERO BANDE, MANUEL (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Teorema Fundamental del Cálculo Integral para la integral de Lebesgue
Autoría
J.S.S.
Grado en Matemáticas
J.S.S.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 11:00
02.07.2025 11:00
Resumen
Este trabajo de fin de grado consistirá en el enunciado y demostración del Teorema Fundamental del Cálculo Integral para la integral de Lebesgue, lo que se llegará a hacer en el capítulo 7. Antes, para poder llegar a ese punto con la base teórica necesaria, se estudiarán las propiedades, definición y resultados varios de las funciones aboslutamente continuas (capítulo 6); las funciones de variación acotada (capítulo 3) y, en particular, su diferenciación (capítulo 5), para lo que se usarán como herramienta las Derivadas de Dini (capítulo 4). Será necesario también para poder avanzar en la comprensión de estos conceptos ciertos resultados como el Teorema de Recubrimiento de Vitali, que se explica en el capítulo 2; y por supuesto una importante base de la teoría de la medida, explicada en los preliminares para después acompañarnos a lo largo de todo el trabajo.
Este trabajo de fin de grado consistirá en el enunciado y demostración del Teorema Fundamental del Cálculo Integral para la integral de Lebesgue, lo que se llegará a hacer en el capítulo 7. Antes, para poder llegar a ese punto con la base teórica necesaria, se estudiarán las propiedades, definición y resultados varios de las funciones aboslutamente continuas (capítulo 6); las funciones de variación acotada (capítulo 3) y, en particular, su diferenciación (capítulo 5), para lo que se usarán como herramienta las Derivadas de Dini (capítulo 4). Será necesario también para poder avanzar en la comprensión de estos conceptos ciertos resultados como el Teorema de Recubrimiento de Vitali, que se explica en el capítulo 2; y por supuesto una importante base de la teoría de la medida, explicada en los preliminares para después acompañarnos a lo largo de todo el trabajo.
Dirección
FERNANDEZ FERNANDEZ, FRANCISCO JAVIER (Tutoría)
FERNANDEZ FERNANDEZ, FRANCISCO JAVIER (Tutoría)
Tribunal
FERNANDEZ FERNANDEZ, FRANCISCO JAVIER (Tutor del alumno)
FERNANDEZ FERNANDEZ, FRANCISCO JAVIER (Tutor del alumno)
Modelos geoestadísticos para la determinación del espesor del hielo en Groenlandia
Autoría
V.S.S.P.
Grado en Matemáticas
V.S.S.P.
Grado en Matemáticas
Fecha de la defensa
12.02.2025 17:15
12.02.2025 17:15
Resumen
A lo largo de esta disertación, presentamos y exploramos el uso de modelos Kriging como solución para el problema geoestadístico de estimación del tamaño total de la capa de hielo de Groenlandia, tanto en volumen como en extensión. Además, evaluamos el rendimiento de predicción de estos y otros modelos, comparando su precisión en relación a su respectiva complejidad.
A lo largo de esta disertación, presentamos y exploramos el uso de modelos Kriging como solución para el problema geoestadístico de estimación del tamaño total de la capa de hielo de Groenlandia, tanto en volumen como en extensión. Además, evaluamos el rendimiento de predicción de estos y otros modelos, comparando su precisión en relación a su respectiva complejidad.
Dirección
FEBRERO BANDE, MANUEL (Tutoría)
FEBRERO BANDE, MANUEL (Tutoría)
Tribunal
CABADA FERNANDEZ, ALBERTO (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
MUÑOZ SOLA, RAFAEL (Vocal)
CABADA FERNANDEZ, ALBERTO (Presidente/a)
BORRAJO GARCIA, MARIA ISABEL (Secretario/a)
MUÑOZ SOLA, RAFAEL (Vocal)
Estadística para genética forense:
Autoría
A.V.C.
Grado en Matemáticas
A.V.C.
Grado en Matemáticas
Fecha de la defensa
02.07.2025 14:15
02.07.2025 14:15
Resumen
Los problemas de parentesco son un tema relevante dentro de la genética forense. En este trabajo se analizan los fundamentos matemáticos que permiten abordar estos problemas, en concreto el caso standard trio y el standard duo. Estos se exponen de manera detallada, acompañados de una presentación previa de conceptos de genética necesarios para entender la terminología de los problemas. Posteriormente se desarrollarán las nociones de probabilidad y estadística que permitirán modelizar dichas situaciones, así como resolverlas mediante distintos procedimientos de estimación y contrastes de hipótesis. Esta base matemática permitirá obtener conclusiones e interpretar los resultados genéticos de manera objetiva y coherente, garantizando su validez. Además, se presentan los paquetes Familias y paramlink del software R, con los que se podrán aplicar los métodos de resolución estudiados, resolviendo los ejemplos expuestos a lo largo del texto. Se trata de destacar la importancia de una buena base matemática a la hora de aplicarla en cualquier ámbito científico.
Los problemas de parentesco son un tema relevante dentro de la genética forense. En este trabajo se analizan los fundamentos matemáticos que permiten abordar estos problemas, en concreto el caso standard trio y el standard duo. Estos se exponen de manera detallada, acompañados de una presentación previa de conceptos de genética necesarios para entender la terminología de los problemas. Posteriormente se desarrollarán las nociones de probabilidad y estadística que permitirán modelizar dichas situaciones, así como resolverlas mediante distintos procedimientos de estimación y contrastes de hipótesis. Esta base matemática permitirá obtener conclusiones e interpretar los resultados genéticos de manera objetiva y coherente, garantizando su validez. Además, se presentan los paquetes Familias y paramlink del software R, con los que se podrán aplicar los métodos de resolución estudiados, resolviendo los ejemplos expuestos a lo largo del texto. Se trata de destacar la importancia de una buena base matemática a la hora de aplicarla en cualquier ámbito científico.
Dirección
CASARES DE CAL, MARIA ANGELES (Tutoría)
CASARES DE CAL, MARIA ANGELES (Tutoría)
Tribunal
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
CRUJEIRAS CASAIS, ROSA MARÍA (Presidente/a)
PENA BRAGE, FRANCISCO JOSE (Secretario/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Vocal)
Ecuaciones diferenciales ordinarias con aplicaciones a la Economía
Autoría
C.V.F.
Grado en Matemáticas
C.V.F.
Grado en Matemáticas
Fecha de la defensa
13.02.2025 13:00
13.02.2025 13:00
Resumen
Este Trabajo Fin de Grado se centra en el análisis de algunas ecuaciones diferenciales ordinarias aplicadas al estudio de modelos económicos. A lo largo del trabajo, se abordan cinco modelosclave: la curva de Phillips, el modelo de Harrod-Domar, el modelo de Solow-Swan, el modelo de Goodwin y el modelo de Leontief dinámico que permiten describir fenómenos económicos fundamentales, desde la relación entre el desempleo y los salarios hasta la interacción entre sectoresproductivos. Cada modelo ha sido contextualizado, resuelto y analizado en detalle, destacandotanto sus contribuciones como sus limitaciones, con el objetivo de comprender mejor su utilidad y explorar posibles mejoras para su aplicación en economías modernas.
Este Trabajo Fin de Grado se centra en el análisis de algunas ecuaciones diferenciales ordinarias aplicadas al estudio de modelos económicos. A lo largo del trabajo, se abordan cinco modelosclave: la curva de Phillips, el modelo de Harrod-Domar, el modelo de Solow-Swan, el modelo de Goodwin y el modelo de Leontief dinámico que permiten describir fenómenos económicos fundamentales, desde la relación entre el desempleo y los salarios hasta la interacción entre sectoresproductivos. Cada modelo ha sido contextualizado, resuelto y analizado en detalle, destacandotanto sus contribuciones como sus limitaciones, con el objetivo de comprender mejor su utilidad y explorar posibles mejoras para su aplicación en economías modernas.
Dirección
Rodríguez López, Rosana (Tutoría)
Rodríguez López, Rosana (Tutoría)
Tribunal
Rodríguez López, Rosana (Tutor del alumno)
Rodríguez López, Rosana (Tutor del alumno)