Estudio computacional del orden de corto alcance y las propiedades de transporte en mezclas de líquidos iónicos con imidazol y agua
Autoría
D.C.A.G.
Doble Grado en Física y en Química
D.C.A.G.
Doble Grado en Física y en Química
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este trabajo se centra en el estudio computacional de las propiedades de transporte en mezclas de líquidos iónicos con imidazol y agua, estudiando a su vez sus posibles aplicaciones en interacciones de corto alcance. En concreto, abarca el estudio de la viabilidad de la movilidad protónica basada en el mecanismo de Grotthuss, proceso que permite aplicaciones tecnológicas, como baterías basadas en la conductividad protónica, y que tiene implicación en distintas reacciones biológicas. Con el fin de evaluar las características de las distintas relaciones de especies se calculan las propiedades estructurales y dinámicas de las mezclas, analizando en un primer momento las propiedades de dos tipos ditintos de líquidos iónicos (próticos y apróticos) disueltos en imidazol y posteriormente, se analizará el efecto que tendría la presencia de agua en las propiedades de las distintas mezclas, determinando un límite superior de tolerancia para esta.
Este trabajo se centra en el estudio computacional de las propiedades de transporte en mezclas de líquidos iónicos con imidazol y agua, estudiando a su vez sus posibles aplicaciones en interacciones de corto alcance. En concreto, abarca el estudio de la viabilidad de la movilidad protónica basada en el mecanismo de Grotthuss, proceso que permite aplicaciones tecnológicas, como baterías basadas en la conductividad protónica, y que tiene implicación en distintas reacciones biológicas. Con el fin de evaluar las características de las distintas relaciones de especies se calculan las propiedades estructurales y dinámicas de las mezclas, analizando en un primer momento las propiedades de dos tipos ditintos de líquidos iónicos (próticos y apróticos) disueltos en imidazol y posteriormente, se analizará el efecto que tendría la presencia de agua en las propiedades de las distintas mezclas, determinando un límite superior de tolerancia para esta.
Dirección
MENDEZ MORALES, TRINIDAD (Tutoría)
OTERO LEMA, MARTIN Cotutoría
MENDEZ MORALES, TRINIDAD (Tutoría)
OTERO LEMA, MARTIN Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Más allá de las baterías de litio
Autoría
L.A.F.
Grado en Física
L.A.F.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El almacenamiento eficiente de energía es un pilar clave para la transición hacia sistemas energéticos sostenibles. Las baterías de ion-litio (Li-ion) dominan actualmente el mercado gracias a su madurez tecnológica, buen rendimiento y coste decreciente. Sin embargo, su capacidad energética se aproxima al límite teórico, lo que ha impulsado la búsqueda de tecnologías emergentes con mayor densidad energética. Este trabajo analiza y compara tres tipos de baterías basadas en litio: ion-litio, litio-azufre (Li-S) y litio-oxígeno (Li-O2). Se describen sus principios de funcionamiento, los materiales más prometedores para cada componente (ánodo, cátodo y electrolito), así como sus principales ventajas, desafíos y estrategias de mejora. Mientras que las baterías Li-S ofrecen mayor capacidad teórica y menor impacto ambiental, presentan problemas de estabilidad y ciclabilidad. Las Li-O2 destacan por su altísima densidad energética, pero su complejidad química limita su aplicabilidad actual. En conjunto, aunque las tecnologías post-litio aún requieren avances significativos, su desarrollo resulta crucial para satisfacer la creciente demanda de almacenamiento energético y facilitar la descarbonización global.
El almacenamiento eficiente de energía es un pilar clave para la transición hacia sistemas energéticos sostenibles. Las baterías de ion-litio (Li-ion) dominan actualmente el mercado gracias a su madurez tecnológica, buen rendimiento y coste decreciente. Sin embargo, su capacidad energética se aproxima al límite teórico, lo que ha impulsado la búsqueda de tecnologías emergentes con mayor densidad energética. Este trabajo analiza y compara tres tipos de baterías basadas en litio: ion-litio, litio-azufre (Li-S) y litio-oxígeno (Li-O2). Se describen sus principios de funcionamiento, los materiales más prometedores para cada componente (ánodo, cátodo y electrolito), así como sus principales ventajas, desafíos y estrategias de mejora. Mientras que las baterías Li-S ofrecen mayor capacidad teórica y menor impacto ambiental, presentan problemas de estabilidad y ciclabilidad. Las Li-O2 destacan por su altísima densidad energética, pero su complejidad química limita su aplicabilidad actual. En conjunto, aunque las tecnologías post-litio aún requieren avances significativos, su desarrollo resulta crucial para satisfacer la creciente demanda de almacenamiento energético y facilitar la descarbonización global.
Dirección
TABOADA ANTELO, PABLO (Tutoría)
BARBOSA FERNANDEZ, SILVIA Cotutoría
TABOADA ANTELO, PABLO (Tutoría)
BARBOSA FERNANDEZ, SILVIA Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Determinación de la resolución en barras centelleadoras con lectura de SiPM y programación de la adquisición de un osciloscopio digital de alta tasa de muestreo
Autoría
X.A.P.
Grado en Física
X.A.P.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El presente Trabajo de Fin de Grado caracteriza la respuesta temporal del osciloscopio Tektronix MSO64B frente a pulsos que simulan la radiación cósmica en el supercomputador cuántico Qmio del CESGA. Para esto se diseñó un sistema experimental con generadores de funciones de alta frecuencia (T3AWG3352 e Keysight 33500B) conectados al osciloscopio mediante cables coaxiales de 5 m y 10 m. Estas condiciones reproducen el rápido tránsito de muones y otras partículas, requiriendo técnicas de disparo de alta precisión. Se compararon dos métodos para determinar el instante de llegada de las señales, el Constant Fraction Discriminator (CFD) y tiempo a voltaje umbral constante. El estudio abarcó tres escenarios: pulsos idénticos, variaciones de amplitud y tiempos de caída asimétricos. Posteriormente, se analizó la desviación típica, sesos sistemáticos y la correlación entre canales (debido al jitter común del trigger). Obtuvimos así para el método CFD una resolución de unos 100 ps, con pocas diferencias entre las tres condiciones. Para garantizar estos resultados concluimos que los parámetros óptimos se encontraban en el rango k (0.2,0.3) y tau (0.7,0.8)td. Para umbral constante, las desviaciones de 100 a 500 ps hacen visible su sensibilidad a las variaciones de amplitud. En conjunto, el CFD demuestra ser la técnica óptima para mitigar los errores inducidos por la radiación cósmica en los qubits.
El presente Trabajo de Fin de Grado caracteriza la respuesta temporal del osciloscopio Tektronix MSO64B frente a pulsos que simulan la radiación cósmica en el supercomputador cuántico Qmio del CESGA. Para esto se diseñó un sistema experimental con generadores de funciones de alta frecuencia (T3AWG3352 e Keysight 33500B) conectados al osciloscopio mediante cables coaxiales de 5 m y 10 m. Estas condiciones reproducen el rápido tránsito de muones y otras partículas, requiriendo técnicas de disparo de alta precisión. Se compararon dos métodos para determinar el instante de llegada de las señales, el Constant Fraction Discriminator (CFD) y tiempo a voltaje umbral constante. El estudio abarcó tres escenarios: pulsos idénticos, variaciones de amplitud y tiempos de caída asimétricos. Posteriormente, se analizó la desviación típica, sesos sistemáticos y la correlación entre canales (debido al jitter común del trigger). Obtuvimos así para el método CFD una resolución de unos 100 ps, con pocas diferencias entre las tres condiciones. Para garantizar estos resultados concluimos que los parámetros óptimos se encontraban en el rango k (0.2,0.3) y tau (0.7,0.8)td. Para umbral constante, las desviaciones de 100 a 500 ps hacen visible su sensibilidad a las variaciones de amplitud. En conjunto, el CFD demuestra ser la técnica óptima para mitigar los errores inducidos por la radiación cósmica en los qubits.
Dirección
ALVAREZ POL, HECTOR (Tutoría)
ALVAREZ POL, HECTOR (Tutoría)
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Resolución de modelos de la física con redes neuronales
Autoría
R.A.G.
Grado en Física
R.A.G.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
En este trabajo, exploraremos un método para resolver ecuaciones diferenciales utilizando redes neuronales: las redes neuronales informadas por la física (PINN, por sus siglas en inglés). Al ser un método muy reciente y todavía en desarrollo, aún no existe un consenso sobre cómo sortear las limitaciones actuales de las PINN. En nuestro caso, implementaremos el algoritmo Multi-Stage para reducir el error de la solución predicha por la PINN. Este algoritmo está inspirado en teoría de perturbaciones: construiremos la solución de nuestro problema como la suma de n redes neuronales. Además, mejoraremos la capacidad de nuestra red neuronal para ajustar funciones de altas frecuencias modificando su función de activación. Finalmente, utilizaremos las PINN para resolver diferentes modelos de la física en los que el número de variables y el orden de las derivadas sea distinto para cada uno. Cada modelo lo resolveremos de dos formas diferentes: la primera vez, implementaremos los algoritmos desarrollados a lo largo del trabajo; la segunda vez, resolveremos las ecuaciones diferenciales sin aplicar ninguna de estas mejoras. De esta forma podremos estudiar la efectividad del método utilizado
En este trabajo, exploraremos un método para resolver ecuaciones diferenciales utilizando redes neuronales: las redes neuronales informadas por la física (PINN, por sus siglas en inglés). Al ser un método muy reciente y todavía en desarrollo, aún no existe un consenso sobre cómo sortear las limitaciones actuales de las PINN. En nuestro caso, implementaremos el algoritmo Multi-Stage para reducir el error de la solución predicha por la PINN. Este algoritmo está inspirado en teoría de perturbaciones: construiremos la solución de nuestro problema como la suma de n redes neuronales. Además, mejoraremos la capacidad de nuestra red neuronal para ajustar funciones de altas frecuencias modificando su función de activación. Finalmente, utilizaremos las PINN para resolver diferentes modelos de la física en los que el número de variables y el orden de las derivadas sea distinto para cada uno. Cada modelo lo resolveremos de dos formas diferentes: la primera vez, implementaremos los algoritmos desarrollados a lo largo del trabajo; la segunda vez, resolveremos las ecuaciones diferenciales sin aplicar ninguna de estas mejoras. De esta forma podremos estudiar la efectividad del método utilizado
Dirección
FARIÑA BIASI, ANXO (Tutoría)
FARIÑA BIASI, ANXO (Tutoría)
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
El teorema de la aplicación de Riemann
Autoría
P.A.G.
Doble Grado en Matemáticas y en Física
P.A.G.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 16:40
16.07.2025 16:40
Resumen
El presente documento aborda el teorema de la aplicación de Riemann, un resultado esencial en el análisis complejo, que establece la existencia de aplicaciones conformes entre conjuntos simplemente conexos y el disco unidad. Para ello, se introduce el marco teórico necesario, comenzando con una breve introducción sobre el teorema, así como algunas definiciones y resultados fundamentales de las funciones holomorfas. Más adelante, se profundiza en las transformaciones de Möbius, una herramienta esencial en el desarrollo del trabajo que, junto con el lema de Schwarz, tiene un papel fundamental para caracterizar los automorfismos del disco unidad. Se cierra este desarrollo teórico con el estudio de algunas propiedades del espacio de las funciones holomorfas, proporcionando así una base para poder dar una demostración rigurosa del teorema. Finalmente, se destaca la importancia del mismo, poniendo de manifiesto algunas aplicaciones relevantes en otras ramas científicas, como pueda ser la mecánica de fluidos en la física, y se dará un algoritmo para hallar de manera estimativa la aplicación que describe el teorema.
El presente documento aborda el teorema de la aplicación de Riemann, un resultado esencial en el análisis complejo, que establece la existencia de aplicaciones conformes entre conjuntos simplemente conexos y el disco unidad. Para ello, se introduce el marco teórico necesario, comenzando con una breve introducción sobre el teorema, así como algunas definiciones y resultados fundamentales de las funciones holomorfas. Más adelante, se profundiza en las transformaciones de Möbius, una herramienta esencial en el desarrollo del trabajo que, junto con el lema de Schwarz, tiene un papel fundamental para caracterizar los automorfismos del disco unidad. Se cierra este desarrollo teórico con el estudio de algunas propiedades del espacio de las funciones holomorfas, proporcionando así una base para poder dar una demostración rigurosa del teorema. Finalmente, se destaca la importancia del mismo, poniendo de manifiesto algunas aplicaciones relevantes en otras ramas científicas, como pueda ser la mecánica de fluidos en la física, y se dará un algoritmo para hallar de manera estimativa la aplicación que describe el teorema.
Dirección
CAO LABORA, DANIEL (Tutoría)
CAO LABORA, DANIEL (Tutoría)
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Estudio teórico-computacional de la criticalidad en modelos de tipo Ising
Autoría
P.A.G.
Doble Grado en Matemáticas y en Física
P.A.G.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El presente documento aborda el modelo de Ising, ampliamente utilizado en el estudio de transiciones de fase, tanto desde una perspectiva teórica como computacional. Se introducen brevemente conceptos relacionados con fenómenos críticos, seguidos de una descripción del modelo y de algunos desarrollos y resultados teóricos conocidos en redes unidimensionales y bidimensionales con interacción entre primeros vecinos. Posteriormente, se realiza un estudio computacional, introduciendo los algoritmos de Metropolis y Wolff, demostrando la ergodicidad y el cumplimiento de la ecuación de balance detallado de ambos. Se comparan estos dos algoritmos, evidenciando que el de Wolff presenta una convergencia más rápida cerca del punto crítico. A través de un código desarrollado para este trabajo, se caracterizan las transiciones de fase en redes desde una hasta cuatro dimensiones con interacción entre primeros vecinos y se implementa el modelo en redes complejas de tipo small world, tanto unidimensionales como bidimensionales.
El presente documento aborda el modelo de Ising, ampliamente utilizado en el estudio de transiciones de fase, tanto desde una perspectiva teórica como computacional. Se introducen brevemente conceptos relacionados con fenómenos críticos, seguidos de una descripción del modelo y de algunos desarrollos y resultados teóricos conocidos en redes unidimensionales y bidimensionales con interacción entre primeros vecinos. Posteriormente, se realiza un estudio computacional, introduciendo los algoritmos de Metropolis y Wolff, demostrando la ergodicidad y el cumplimiento de la ecuación de balance detallado de ambos. Se comparan estos dos algoritmos, evidenciando que el de Wolff presenta una convergencia más rápida cerca del punto crítico. A través de un código desarrollado para este trabajo, se caracterizan las transiciones de fase en redes desde una hasta cuatro dimensiones con interacción entre primeros vecinos y se implementa el modelo en redes complejas de tipo small world, tanto unidimensionales como bidimensionales.
Dirección
MENDEZ MORALES, TRINIDAD (Tutoría)
Montes Campos, Hadrián Cotutoría
MENDEZ MORALES, TRINIDAD (Tutoría)
Montes Campos, Hadrián Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Análisis del decaimiento B+ to mumutaunu desde un punto de vista teórico y experimental
Autoría
D.A.D.A.
Doble Grado en Matemáticas y en Física
D.A.D.A.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este trabajo busca ser un primer estudio, tanto desde el punto de vista teórico como el experimental, de la desintegración B+ to mumutaunu en el contexto del experimento LHCb. En primer lugar, se sigue un desarrollo teórico obtenido de fuentes bibliográficas en el que se realiza un cálculo similar, buscando comprender los mecanismos del mismo y adaptarlo a la situación de interés; el objetivo último de este análisis es obtener un primer valor numérico de referencia para el branching ratio (BR) de esta desintegración. A continuación, diseñamos un análisis con la finalidad de poder detectar un pico de señal de esta desintegración o poder establecer una cota superior para el BR; para ello, solventamos el problema de la información faltante por la imposibilidad de detección del neutrino a través de la introducción de la masa corregida y presentamos las formas de seleccionar los datos, la eliminación de fondo combinatorio a través de herramientas de machine learning y un estudio de la capacidad de diferenciar un pico de señal a través de simulaciones y ajustes, junto con herramientas estadísticas como el teorema de Wilks. Por último, presentamos los avances logrados en un primer análisis, concluyendo con el trabajo a desarrollar para una futura ampliación de este trabajo
Este trabajo busca ser un primer estudio, tanto desde el punto de vista teórico como el experimental, de la desintegración B+ to mumutaunu en el contexto del experimento LHCb. En primer lugar, se sigue un desarrollo teórico obtenido de fuentes bibliográficas en el que se realiza un cálculo similar, buscando comprender los mecanismos del mismo y adaptarlo a la situación de interés; el objetivo último de este análisis es obtener un primer valor numérico de referencia para el branching ratio (BR) de esta desintegración. A continuación, diseñamos un análisis con la finalidad de poder detectar un pico de señal de esta desintegración o poder establecer una cota superior para el BR; para ello, solventamos el problema de la información faltante por la imposibilidad de detección del neutrino a través de la introducción de la masa corregida y presentamos las formas de seleccionar los datos, la eliminación de fondo combinatorio a través de herramientas de machine learning y un estudio de la capacidad de diferenciar un pico de señal a través de simulaciones y ajustes, junto con herramientas estadísticas como el teorema de Wilks. Por último, presentamos los avances logrados en un primer análisis, concluyendo con el trabajo a desarrollar para una futura ampliación de este trabajo
Dirección
CID VIDAL, XABIER (Tutoría)
FERNANDEZ GOMEZ, MIGUEL Cotutoría
CID VIDAL, XABIER (Tutoría)
FERNANDEZ GOMEZ, MIGUEL Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Ágebras de Clifford y grupos de spin
Autoría
D.A.D.A.
Doble Grado en Matemáticas y en Física
D.A.D.A.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 10:00
16.07.2025 10:00
Resumen
El objetivo de este trabajo es ser un punto de partida para el estudio de los grupos Spin a través del formalismo de las álgebras de Clifford. Para ello, primero se definen y construyen estas álgebras a través de las álgebras tensoriales, se estudian sus propiedades principales como superálgebras, su definición en base a generadores y relaciones y su conexión con el álgebra exterior. Después, se realiza una primera clasificación de las álgebras de Clifford reales de baja dimensión haciendo uso del producto tensor Z2-graduado para luego proceder a la clasificación completa de las mismas ---en los casos real y complejo---usando varios isomorfismos probados a lo largo del texto junto con la conocida como periodicidad de Bott. Posteriormente, procedemos a definir el grupo Spin como un subgrupo de las unidades del álgebra de Clifford y, tras estudiar la acción de estas últimas sobre la totalidad del álgebra, comprobamos haciendo uso de esta acción que los grupos Spin son un revestimiento doble del grupo especial ortogonal SO(n). También estudiamos algunas propiedades adicionales de estos grupos y clasificamos algunos casos de baja dimensión.
El objetivo de este trabajo es ser un punto de partida para el estudio de los grupos Spin a través del formalismo de las álgebras de Clifford. Para ello, primero se definen y construyen estas álgebras a través de las álgebras tensoriales, se estudian sus propiedades principales como superálgebras, su definición en base a generadores y relaciones y su conexión con el álgebra exterior. Después, se realiza una primera clasificación de las álgebras de Clifford reales de baja dimensión haciendo uso del producto tensor Z2-graduado para luego proceder a la clasificación completa de las mismas ---en los casos real y complejo---usando varios isomorfismos probados a lo largo del texto junto con la conocida como periodicidad de Bott. Posteriormente, procedemos a definir el grupo Spin como un subgrupo de las unidades del álgebra de Clifford y, tras estudiar la acción de estas últimas sobre la totalidad del álgebra, comprobamos haciendo uso de esta acción que los grupos Spin son un revestimiento doble del grupo especial ortogonal SO(n). También estudiamos algunas propiedades adicionales de estos grupos y clasificamos algunos casos de baja dimensión.
Dirección
DIAZ RAMOS, JOSE CARLOS (Tutoría)
Lorenzo Naveiro, Juan Manel Cotutoría
DIAZ RAMOS, JOSE CARLOS (Tutoría)
Lorenzo Naveiro, Juan Manel Cotutoría
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Análisis y aplicaciones del algoritmo de Dijkstra en la optimización de rutas: en búsqueda del camino más corto
Autoría
A.B.V.
Doble Grado en Matemáticas y en Física
A.B.V.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
15.07.2025 09:10
15.07.2025 09:10
Resumen
En este proyecto partimos de conceptos básicos sobre los problemas de flujo en grafos para luego ver otros más específicos que nos ayuden a conseguir nuestro objetivo principal: explicar diferentes algoritmos para resolver el problema del camino más corto. En el primer capítulo introduciremos conceptos de la teoría de grafos y explicaremos nociones importantes para los siguientes capítulos, como la definición de nodo, arco o coste. Además, introduciremos los problemas de flujo de coste mínimo junto con sus formulaciones matemáticas. Por último, analizaremos una propiedad muy importante a la hora de resolver este tipo de problemas: la unimodularidad, junto con algunas propiedades que facilitan su resolución. En el segundo capítulo nos centraremos en el problema del camino más corto, describiendo que existen diferentes tipos de algoritmos para resolverlo con especial énfasis en el algoritmo de Dijkstra. También proporcionaremos algunas implementaciones de este y otros algoritmos que pueden ayudar a resolver el problema de forma más eficiente. Además, las explicaciones irán acompañadas de ejemplos para facilitar la comprensión de los algoritmos. Finalmente, el último capítulo presenta una aplicación práctica del cálculo del camino más corto en la red ferroviaria española. Incluye una descripción detallada de la implementación en Python, los datos utilizados y una representación gráfica de las rutas obtenidas.
En este proyecto partimos de conceptos básicos sobre los problemas de flujo en grafos para luego ver otros más específicos que nos ayuden a conseguir nuestro objetivo principal: explicar diferentes algoritmos para resolver el problema del camino más corto. En el primer capítulo introduciremos conceptos de la teoría de grafos y explicaremos nociones importantes para los siguientes capítulos, como la definición de nodo, arco o coste. Además, introduciremos los problemas de flujo de coste mínimo junto con sus formulaciones matemáticas. Por último, analizaremos una propiedad muy importante a la hora de resolver este tipo de problemas: la unimodularidad, junto con algunas propiedades que facilitan su resolución. En el segundo capítulo nos centraremos en el problema del camino más corto, describiendo que existen diferentes tipos de algoritmos para resolverlo con especial énfasis en el algoritmo de Dijkstra. También proporcionaremos algunas implementaciones de este y otros algoritmos que pueden ayudar a resolver el problema de forma más eficiente. Además, las explicaciones irán acompañadas de ejemplos para facilitar la comprensión de los algoritmos. Finalmente, el último capítulo presenta una aplicación práctica del cálculo del camino más corto en la red ferroviaria española. Incluye una descripción detallada de la implementación en Python, los datos utilizados y una representación gráfica de las rutas obtenidas.
Dirección
GONZALEZ RUEDA, ANGEL MANUEL (Tutoría)
GONZALEZ RUEDA, ANGEL MANUEL (Tutoría)
Tribunal
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Majadas Soto, José Javier (Presidente/a)
SALGADO RODRIGUEZ, MARIA DEL PILAR (Secretario/a)
CASARES DE CAL, MARIA ANGELES (Vocal)
Inestabilidad baroclínica y su sensibilidad a los perfiles verticales de temperatura y viento en capas atmosféricas
Autoría
A.B.V.
Doble Grado en Matemáticas y en Física
A.B.V.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este Trabajo de Fin de Grado tiene como objetivo estudiar la inestabilidad baroclínica en la atmósfera mediante un análisis teórico y simulaciones numéricas. En la parte teórica, se explicarán los factores clave que influyen en este fenómeno, como la cizalladura vertical del viento, los gradientes térmicos y la estratificación atmosférica, además del papel de la rotación planetaria y la fuerza de Coriolis. A continuación, se realizarán simulaciones numéricas para analizar el impacto de las variaciones en los perfiles de temperatura y viento en el crecimiento de las perturbaciones baroclínicas. Los resultados permitirán evaluar cómo estas condiciones atmosféricas afectan a la evolución de las ondas baroclínicas, comparando las simulaciones con las predicciones teóricas. Finalmente, se discutirá la concordancia entre teoría y simulaciones, destacando las condiciones que favorecen el desarrollo de la inestabilidad baroclínica y sus posibles aplicaciones en la predicción meteorológica.
Este Trabajo de Fin de Grado tiene como objetivo estudiar la inestabilidad baroclínica en la atmósfera mediante un análisis teórico y simulaciones numéricas. En la parte teórica, se explicarán los factores clave que influyen en este fenómeno, como la cizalladura vertical del viento, los gradientes térmicos y la estratificación atmosférica, además del papel de la rotación planetaria y la fuerza de Coriolis. A continuación, se realizarán simulaciones numéricas para analizar el impacto de las variaciones en los perfiles de temperatura y viento en el crecimiento de las perturbaciones baroclínicas. Los resultados permitirán evaluar cómo estas condiciones atmosféricas afectan a la evolución de las ondas baroclínicas, comparando las simulaciones con las predicciones teóricas. Finalmente, se discutirá la concordancia entre teoría y simulaciones, destacando las condiciones que favorecen el desarrollo de la inestabilidad baroclínica y sus posibles aplicaciones en la predicción meteorológica.
Dirección
MIGUEZ MACHO, GONZALO (Tutoría)
CRESPO OTERO, ALFREDO Cotutoría
MIGUEZ MACHO, GONZALO (Tutoría)
CRESPO OTERO, ALFREDO Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Estimación de parámetros de encuentros hiperbólicos de agujeros negros con el detector de ondas gravitacionales Einstein Telescope
Autoría
X.B.G.
Grado en Física
X.B.G.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Este proyecto se centra en la estimación de parámetros físicos en encuentros hiperbólicos de agujeros negros con el futuro detector de ondas gravitacionales Einstein Telescope. Estas ondas, predichas por Einstein en 1916 y detectadas por primera vez en 2015 han permitido hasta ahora la detección y estudio de unas 90 fusiones de agujeros negros. En los todavía no detectados encuentros, dos agujeros negros se aproximan generando un pulso de ondas gravitacionales sin llegar a fusionarse. Estos sucesos ofrecen información valiosa sobre la dinámica y población de agujeros negros en entornos densos, como cúmulos estelares. Este trabajo se centra en evaluar con qué precisión podrían estimarse los parámetros físicos de este tipo de encuentros a partir de sus señales gravitacionales. Para ello, se utiliza un surrogate model que permite generar waveforms representativas de estos eventos con gran eficiencia, y se aplica el formalismo de la matriz de Fisher, una herramienta estadística que permite estimar incertidumbres de parámetros sin necesidad de un análisis bayesiano completo. A lo largo del trabajo se analiza la sensibilidad de la señal a variaciones en distintos parámetros (masa, espín, inclinación, distancia de luminosidad...) y se cuantifican sus errores esperados en función de la distancia de luminosidad y del parámetro de impacto. Los resultados muestran que, para eventos a distancias del orden de 500-1000 Mpc (consistentes con las de detecciones actuales), parámetros clave como el espín o la masa pueden determinarse con precisiones relativas inferiores al 10% siempre que la señal tenga un SNR alto y la trayectoria sea suficientemente cerrada (menor parámetro de impacto). Este estudio refuerza el potencial del Einstein Telescope para detectar y caracterizar encuentros hiperbólicos y ofrece una evaluación cuantitativa de su capacidad para medir los parámetros fundamentales de estos eventos dinámicos.
Este proyecto se centra en la estimación de parámetros físicos en encuentros hiperbólicos de agujeros negros con el futuro detector de ondas gravitacionales Einstein Telescope. Estas ondas, predichas por Einstein en 1916 y detectadas por primera vez en 2015 han permitido hasta ahora la detección y estudio de unas 90 fusiones de agujeros negros. En los todavía no detectados encuentros, dos agujeros negros se aproximan generando un pulso de ondas gravitacionales sin llegar a fusionarse. Estos sucesos ofrecen información valiosa sobre la dinámica y población de agujeros negros en entornos densos, como cúmulos estelares. Este trabajo se centra en evaluar con qué precisión podrían estimarse los parámetros físicos de este tipo de encuentros a partir de sus señales gravitacionales. Para ello, se utiliza un surrogate model que permite generar waveforms representativas de estos eventos con gran eficiencia, y se aplica el formalismo de la matriz de Fisher, una herramienta estadística que permite estimar incertidumbres de parámetros sin necesidad de un análisis bayesiano completo. A lo largo del trabajo se analiza la sensibilidad de la señal a variaciones en distintos parámetros (masa, espín, inclinación, distancia de luminosidad...) y se cuantifican sus errores esperados en función de la distancia de luminosidad y del parámetro de impacto. Los resultados muestran que, para eventos a distancias del orden de 500-1000 Mpc (consistentes con las de detecciones actuales), parámetros clave como el espín o la masa pueden determinarse con precisiones relativas inferiores al 10% siempre que la señal tenga un SNR alto y la trayectoria sea suficientemente cerrada (menor parámetro de impacto). Este estudio refuerza el potencial del Einstein Telescope para detectar y caracterizar encuentros hiperbólicos y ofrece una evaluación cuantitativa de su capacidad para medir los parámetros fundamentales de estos eventos dinámicos.
Dirección
CALDERON BUSTILLO, JUAN (Tutoría)
CALDERON BUSTILLO, JUAN (Tutoría)
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Empleo de la IA para el desarrollo de nuevos materiales
Autoría
R.B.F.
Grado en Física
R.B.F.
Grado en Física
Fecha de la defensa
18.07.2025 09:30
18.07.2025 09:30
Resumen
El desarrollo de nuevos materiales está siendo influenciado por la inteligencia artificial (IA), que permite diseñar y optimizar materiales con mayor rapidez y precisión. En particular, en la física de la materia blanda, sistemas como las nanopartículas basadas en lípidos ofrecen propiedades únicas para aplicaciones biomédicas y tecnológicas. Para aprovechar el potencial de la inteligencia artificial en este campo, se creó una base de datos de compuestos lipídicos combinando diversas fuentes existentes, con el objetivo de entrenar modelos que mejoren la comprensión y el diseño de nanopartículas lipídicas.
El desarrollo de nuevos materiales está siendo influenciado por la inteligencia artificial (IA), que permite diseñar y optimizar materiales con mayor rapidez y precisión. En particular, en la física de la materia blanda, sistemas como las nanopartículas basadas en lípidos ofrecen propiedades únicas para aplicaciones biomédicas y tecnológicas. Para aprovechar el potencial de la inteligencia artificial en este campo, se creó una base de datos de compuestos lipídicos combinando diversas fuentes existentes, con el objetivo de entrenar modelos que mejoren la comprensión y el diseño de nanopartículas lipídicas.
Dirección
TABOADA ANTELO, PABLO (Tutoría)
CAMBON FREIRE, ADRIANA Cotutoría
TABOADA ANTELO, PABLO (Tutoría)
CAMBON FREIRE, ADRIANA Cotutoría
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Estudio espacio-temporal de los neutrinos astrofísicos en el observatorio IceCube
Autoría
I.B.N.
Grado en Física
I.B.N.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
La detección de neutrinos de muy alta energía es clave en la astrofísica de partículas, ya que estas partículas neutras pueden viajar desde regiones densas y lejanas del universo sin ser desviadas, lo que las hace ideales para la Astronomía de Multimensajeros. El observatorio IceCube, en la Antártida, ha detectado un flujo de neutrinos de origen astrofísico, entre los cuales destacan los 'gold events', caracterizados por su alta energía y buena resolución angular. Sin embargo, aún no se han identificado sus fuentes. Este trabajo tiene como objetivos estudiar el experimento IceCube, comprender sus técnicas de análisis y aplicarlas al estudio espacial y temporal de estos eventos para investigar su posible origen.
La detección de neutrinos de muy alta energía es clave en la astrofísica de partículas, ya que estas partículas neutras pueden viajar desde regiones densas y lejanas del universo sin ser desviadas, lo que las hace ideales para la Astronomía de Multimensajeros. El observatorio IceCube, en la Antártida, ha detectado un flujo de neutrinos de origen astrofísico, entre los cuales destacan los 'gold events', caracterizados por su alta energía y buena resolución angular. Sin embargo, aún no se han identificado sus fuentes. Este trabajo tiene como objetivos estudiar el experimento IceCube, comprender sus técnicas de análisis y aplicarlas al estudio espacial y temporal de estos eventos para investigar su posible origen.
Dirección
ALVAREZ MUÑIZ, JAIME (Tutoría)
ALVAREZ MUÑIZ, JAIME (Tutoría)
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Tecnologías láser para conservación y restauración de patrimonio cultural.
Autoría
C.L.C.C.
Grado en Física
C.L.C.C.
Grado en Física
Fecha de la defensa
16.07.2025 17:00
16.07.2025 17:00
Resumen
En este trabajo se realizará una revisión de las tecnologías láser aplicadas en la conservación y restauración del patrimonio cultural y se analizarán los avances más recientes en este campo. Se particularizará el estudio a la limpieza por ablación láser de piezas metálicas poniendo de manifiesto las ventajas e inconvenientes de esta técnica. Para caracterizar y analizar el proceso de limpieza se utilizarán técnicas de microscopía óptica y confocal.
En este trabajo se realizará una revisión de las tecnologías láser aplicadas en la conservación y restauración del patrimonio cultural y se analizarán los avances más recientes en este campo. Se particularizará el estudio a la limpieza por ablación láser de piezas metálicas poniendo de manifiesto las ventajas e inconvenientes de esta técnica. Para caracterizar y analizar el proceso de limpieza se utilizarán técnicas de microscopía óptica y confocal.
Dirección
BAO VARELA, Mª CARMEN (Tutoría)
Gómez Varela, Ana Isabel Cotutoría
BAO VARELA, Mª CARMEN (Tutoría)
Gómez Varela, Ana Isabel Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Simulación de dinámica molecular de la proteína PSA y chaperonas en diferentes condiciones de pH
Autoría
S.C.R.
Grado en Física
S.C.R.
Grado en Física
Fecha de la defensa
16.07.2025 17:00
16.07.2025 17:00
Resumen
La PSA es una proteína fundamental en la detección temprana del cáncer de próstata, uno de los tipos con mayor tasa de mortalidad anual. Sin embargo, su utilidad como biomarcador se ve limitada por su baja especificidad, ya que sus niveles en sangre pueden incrementarse también en presencia de afecciones benignas, lo que puede generar falsos positivos. Por esta razón, ha surgido un creciente interés en identificar diferencias estructurales en la PSA que permitan distinguir su origen, con el objetivo de mejorar la precisión diagnóstica. En este estudio, se realizaron simulaciones de dinámica molecular en distintos entornos de pH con el fin de emular condiciones tumorales, caracterizadas por un medio más ácido, y condiciones benignas, más básicas. El propósito fue analizar posibles diferencias en las estructuras secundaria y terciaria de la PSA bajo estas condiciones. Los resultados obtenidos revelan variaciones en la conformación de la estructura secundaria de la proteína, atribuibles a cambios en la protonación de ciertos grupos polares inducidos por el pH. Esta modificación reduce las repulsiones internas, favorece la redistribución hidrofóbica y conduce a un aumento en la formación de puentes de hidrógeno, tanto intraproteicos como con el solvente, lo que se traduce en una mayor estabilidad estructural.
La PSA es una proteína fundamental en la detección temprana del cáncer de próstata, uno de los tipos con mayor tasa de mortalidad anual. Sin embargo, su utilidad como biomarcador se ve limitada por su baja especificidad, ya que sus niveles en sangre pueden incrementarse también en presencia de afecciones benignas, lo que puede generar falsos positivos. Por esta razón, ha surgido un creciente interés en identificar diferencias estructurales en la PSA que permitan distinguir su origen, con el objetivo de mejorar la precisión diagnóstica. En este estudio, se realizaron simulaciones de dinámica molecular en distintos entornos de pH con el fin de emular condiciones tumorales, caracterizadas por un medio más ácido, y condiciones benignas, más básicas. El propósito fue analizar posibles diferencias en las estructuras secundaria y terciaria de la PSA bajo estas condiciones. Los resultados obtenidos revelan variaciones en la conformación de la estructura secundaria de la proteína, atribuibles a cambios en la protonación de ciertos grupos polares inducidos por el pH. Esta modificación reduce las repulsiones internas, favorece la redistribución hidrofóbica y conduce a un aumento en la formación de puentes de hidrógeno, tanto intraproteicos como con el solvente, lo que se traduce en una mayor estabilidad estructural.
Dirección
Prieto Estévez, Gerardo (Tutoría)
DOMINGUEZ ARCA, VICENTE Cotutoría
Prieto Estévez, Gerardo (Tutoría)
DOMINGUEZ ARCA, VICENTE Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Puesta a punto de un interferómetro de difracción por punto para caracterizar propiedades de lágrimas artificiales
Autoría
E.C.G.
Grado en Física
E.C.G.
Grado en Física
Fecha de la defensa
16.07.2025 17:00
16.07.2025 17:00
Resumen
En este trabajo se recoge el montaje de un interfer´ometro de difracción por punto que será empleado para medir características de lágrimas artificiales, centrándose especialmente en el tiempo de ruptura de las lágrimas sobre lentes de contacto. En primer lugar, se ofrece una visión general de los conceptos básicos de interferencia, seguida de una descripción teórica del interferómetro de difracción por punto. A continuación, se describe todo el proceso detallado de creación del experimento; desde los materiales utilizados hasta la metodología seguida. Todos los problemas que fue necesario resolver para obtener un montaje funcional también se recogen en un apéndice. Seguidamente, se muestran los resultados obtenidos sobre el tiempo de ruptura y una discusión analizando e interpretando estos resultados. Los tiempos de ruptura fueron medidos para una misma lente de contacto utilizando diferentes líquidos. También se incluye un estudio cualitativo de otra propiedad de las lentes de contacto: el tiempo de rehidratación. Finalmente, se presentan las conclusiones del trabajo y se explican posibles mejoras y líneas de trabajo futuro basadas en este experimento.
En este trabajo se recoge el montaje de un interfer´ometro de difracción por punto que será empleado para medir características de lágrimas artificiales, centrándose especialmente en el tiempo de ruptura de las lágrimas sobre lentes de contacto. En primer lugar, se ofrece una visión general de los conceptos básicos de interferencia, seguida de una descripción teórica del interferómetro de difracción por punto. A continuación, se describe todo el proceso detallado de creación del experimento; desde los materiales utilizados hasta la metodología seguida. Todos los problemas que fue necesario resolver para obtener un montaje funcional también se recogen en un apéndice. Seguidamente, se muestran los resultados obtenidos sobre el tiempo de ruptura y una discusión analizando e interpretando estos resultados. Los tiempos de ruptura fueron medidos para una misma lente de contacto utilizando diferentes líquidos. También se incluye un estudio cualitativo de otra propiedad de las lentes de contacto: el tiempo de rehidratación. Finalmente, se presentan las conclusiones del trabajo y se explican posibles mejoras y líneas de trabajo futuro basadas en este experimento.
Dirección
ACOSTA PLAZA, EVA MARIA (Tutoría)
GARCIA PORTA, NERY Cotutoría
ACOSTA PLAZA, EVA MARIA (Tutoría)
GARCIA PORTA, NERY Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Computación Cuántica. Principios y Aplicaciones
Autoría
A.C.S.
Doble Grado en Matemáticas y en Física
A.C.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 17:20
16.07.2025 17:20
Resumen
Este trabajo estudia las bases de la Computación Cuántica de forma íntegramente matemática, abstrayéndose de los sistemas físicos reales detrás de esta idealización. En primer lugar, se estudian los fundamentos de la Mecánica Cuántica, explorando conceptos y propiedades de los espacios de Hilbert sobre el cuerpo de los números complejos. A continuación, se definen los conceptos de cúbit y p-cúbit, así como las puertas lógicas cuánticas que actúan sobre ellos. Por último, se desarrollará una serie de algoritmos importantes con aplicaciones concretas que demuestran el interés por este tipo de lógica. El objetivo del trabajo es ser una introducción, desde los conceptos trabajados en el Grado de Matemáticas, al mundo de la Computación Cuántica sin requerir conocimientos previos sobre Física, de forma que dé un acceso más sencillo al entendimiento de algoritmos cuánticos o a su desarrollo.
Este trabajo estudia las bases de la Computación Cuántica de forma íntegramente matemática, abstrayéndose de los sistemas físicos reales detrás de esta idealización. En primer lugar, se estudian los fundamentos de la Mecánica Cuántica, explorando conceptos y propiedades de los espacios de Hilbert sobre el cuerpo de los números complejos. A continuación, se definen los conceptos de cúbit y p-cúbit, así como las puertas lógicas cuánticas que actúan sobre ellos. Por último, se desarrollará una serie de algoritmos importantes con aplicaciones concretas que demuestran el interés por este tipo de lógica. El objetivo del trabajo es ser una introducción, desde los conceptos trabajados en el Grado de Matemáticas, al mundo de la Computación Cuántica sin requerir conocimientos previos sobre Física, de forma que dé un acceso más sencillo al entendimiento de algoritmos cuánticos o a su desarrollo.
Dirección
FERNANDEZ FERNANDEZ, FRANCISCO JAVIER (Tutoría)
FERNANDEZ FERNANDEZ, FRANCISCO JAVIER (Tutoría)
Tribunal
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
LOPEZ POUSO, RODRIGO (Presidente/a)
PEON NIETO, ANA (Secretario/a)
SEOANE MARTINEZ, MARIA LUISA (Vocal)
Evaluación de la Temperatura Efectiva mediante Simulación Cuántica
Autoría
A.C.S.
Doble Grado en Matemáticas y en Física
A.C.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 17:00
16.07.2025 17:00
Resumen
Una línea importante de investigación en el área de la computación cuántica está dirigida a la detección y mitigación de ruido. En este trabajo, nos centraremos en los métodos de medida de la temperatura efectiva, una magnitud usada para estimar la población residual del estado excitado de un cúbit, debida a las fluctuaciones térmicas en el dispositivo. En primer lugar, se estudian los sistemas físicos de los cúbits superconductores tipo transmón y su proceso de lectura dispersiva, que son de los que se dispone en el QMIO. A partir de ellos, se desarrolla una simulación estocástica sobre la cual puedan validarse los métodos de medida. Finalmente, se estudia un método de medida de la temperatura efectiva basado en oscilaciones de Rabi e-f , validando sus hipótesis y obteniendo resultados por simulación.
Una línea importante de investigación en el área de la computación cuántica está dirigida a la detección y mitigación de ruido. En este trabajo, nos centraremos en los métodos de medida de la temperatura efectiva, una magnitud usada para estimar la población residual del estado excitado de un cúbit, debida a las fluctuaciones térmicas en el dispositivo. En primer lugar, se estudian los sistemas físicos de los cúbits superconductores tipo transmón y su proceso de lectura dispersiva, que son de los que se dispone en el QMIO. A partir de ellos, se desarrolla una simulación estocástica sobre la cual puedan validarse los métodos de medida. Finalmente, se estudia un método de medida de la temperatura efectiva basado en oscilaciones de Rabi e-f , validando sus hipótesis y obteniendo resultados por simulación.
Dirección
MAS SOLE, JAVIER (Tutoría)
Gómez Tato, Andrés Cotutoría
MAS SOLE, JAVIER (Tutoría)
Gómez Tato, Andrés Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Relatividad y tiempo: Einstein vs Bergson
Autoría
B.D.Z.
Grado en Física
B.D.Z.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Traducir al ingles y al gallego: Este trabajo analiza la paradoja de los gemelos en el marco de la Relatividad Restringida y General, abordando no solo la estructura geométrica formal del espacio-tiempo, sino también las implicaciones epistemológicas y ontológicas asociadas al concepto de tiempo. Tras reconstruir los fundamentos matemáticos del espacio-tiempo, se examina la paradoja en términos del tiempo propio y la desviación geodésica. Se incluyen validaciones experimentales como la desintegración de muones o el retardo de Shapiro, que confirman la dilatación temporal como consecuencia medible. Seguidamente, se contrasta este enfoque con la crítica de Henri Bergson, quien sostiene que la duración, no se limita al tiempo físico. La Relatividad, al prescindir de la simultaneidad absoluta y los sistemas privilegiados, señala la asimetría entre observadores como consecuencia de la geometría espacio-temporal. Bergson reformula la paradoja: subraya la equivalencia recíproca de las magnitudes. Lejos de una simple confrontación entre física y filosofía, el debate revela cuestiones más profundas: ¿es la dilatación temporal una propiedad geométrica absoluta o una construcción relacional? ¿Puede haber duración sin trayectoria propia o sin observador que la mida? ¿Qué significa comparar tiempos entre marcos que no comparten simultaneidad? La Relatividad permite representar tiempos múltiples, pero obliga a repensar qué significa comparar duraciones y deja abierto el sentido último del tiempo.
Traducir al ingles y al gallego: Este trabajo analiza la paradoja de los gemelos en el marco de la Relatividad Restringida y General, abordando no solo la estructura geométrica formal del espacio-tiempo, sino también las implicaciones epistemológicas y ontológicas asociadas al concepto de tiempo. Tras reconstruir los fundamentos matemáticos del espacio-tiempo, se examina la paradoja en términos del tiempo propio y la desviación geodésica. Se incluyen validaciones experimentales como la desintegración de muones o el retardo de Shapiro, que confirman la dilatación temporal como consecuencia medible. Seguidamente, se contrasta este enfoque con la crítica de Henri Bergson, quien sostiene que la duración, no se limita al tiempo físico. La Relatividad, al prescindir de la simultaneidad absoluta y los sistemas privilegiados, señala la asimetría entre observadores como consecuencia de la geometría espacio-temporal. Bergson reformula la paradoja: subraya la equivalencia recíproca de las magnitudes. Lejos de una simple confrontación entre física y filosofía, el debate revela cuestiones más profundas: ¿es la dilatación temporal una propiedad geométrica absoluta o una construcción relacional? ¿Puede haber duración sin trayectoria propia o sin observador que la mida? ¿Qué significa comparar tiempos entre marcos que no comparten simultaneidad? La Relatividad permite representar tiempos múltiples, pero obliga a repensar qué significa comparar duraciones y deja abierto el sentido último del tiempo.
Dirección
EDELSTEIN GLAUBACH, JOSE DANIEL (Tutoría)
Giribet , Gastón Enrique Cotutoría
EDELSTEIN GLAUBACH, JOSE DANIEL (Tutoría)
Giribet , Gastón Enrique Cotutoría
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Uso de detector de diamante-FLASH para dosimetría de ultra alta tasa.
Autoría
M.A.D.S.
Grado en Física
M.A.D.S.
Grado en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
A radioterapia FLASH é unha técnica emerxente de tratamento contra o cancro que aproveita o chamado efecto FLASH na irradiación de tumores baixo condicións de taxa de dose ultra alta. Co obxectivo de superar as limitacións que isto supón para a dosimetría convencional, desenvolveuse o detector flashDiamond (fD). Este traballo presenta unha avaliación detallada do seu rendemento dosimétrico. Realizáronse medidas de curvas de dose en profundidade, perfís de feixe e cálculos de dose absoluta empregando dous aceleradores: un LIAC HWL para radioterapia intraoperatoria no Hospital Clínico Universitario de Santiago, e o ElectronFlash de Sordina IORT Technologies no Instituto Curie, en París. Os resultados experimentais completáronse con simulacións mediante o método de Montecarlo. Os resultados amosan un bo acordo cos detectores de referencia en condicións convencionais e validan a idoneidade do fD para aplicacións con doses por pulso e taxas de dose ultra altas, reforzando así o seu potencial como ferramenta dosimétrica fiable para a implementación clínica da FLASH-RT.
A radioterapia FLASH é unha técnica emerxente de tratamento contra o cancro que aproveita o chamado efecto FLASH na irradiación de tumores baixo condicións de taxa de dose ultra alta. Co obxectivo de superar as limitacións que isto supón para a dosimetría convencional, desenvolveuse o detector flashDiamond (fD). Este traballo presenta unha avaliación detallada do seu rendemento dosimétrico. Realizáronse medidas de curvas de dose en profundidade, perfís de feixe e cálculos de dose absoluta empregando dous aceleradores: un LIAC HWL para radioterapia intraoperatoria no Hospital Clínico Universitario de Santiago, e o ElectronFlash de Sordina IORT Technologies no Instituto Curie, en París. Os resultados experimentais completáronse con simulacións mediante o método de Montecarlo. Os resultados amosan un bo acordo cos detectores de referencia en condicións convencionais e validan a idoneidade do fD para aplicacións con doses por pulso e taxas de dose ultra altas, reforzando así o seu potencial como ferramenta dosimétrica fiable para a implementación clínica da FLASH-RT.
Dirección
GOMEZ RODRIGUEZ, FAUSTINO (Tutoría)
GOMEZ RODRIGUEZ, FAUSTINO (Tutoría)
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Estudio por magnetometría de fenómenos críticos y de la dinámica de vórtices en el superconductor basado en hierro CaKFe4As4
Autoría
N.E.F.
Grado en Física
N.E.F.
Grado en Física
Fecha de la defensa
18.07.2025 09:30
18.07.2025 09:30
Resumen
CaKFe4As4 es un superconductor recientemente descubierto de la familia de los pnicturos de hierro (FeSC). Es de gran interés por ser de los pocos FeSC estequiométricos y por tener una elevada temperatura crítica (Tc = 35 K) dentro de esta familia de superconductores. El trabajo consistirá en la caracterización de un monocristal de alta calidad de CaKFe4As4 y en la medida de su respuesta magnética. La alta resolución del magnetómetro a utilizar (de tipo SQUID, basado en la interferencia cuántica superconductora) permitirá estudiar efectos precursores de la superconductividad inducidos por fluctuaciones térmicas para temperaturas T en torno a la transición superconductora, Tc, y obtener parámetros superconductores como la longitud de coherencia y el campo magnético crítico. A su vez, medidas de ciclos de histéresis para T menor que Tc permitirán conocer parámetros de interés tecnológico como la densidad de corriente crítica y el campo magnético de irreversibilidad.
CaKFe4As4 es un superconductor recientemente descubierto de la familia de los pnicturos de hierro (FeSC). Es de gran interés por ser de los pocos FeSC estequiométricos y por tener una elevada temperatura crítica (Tc = 35 K) dentro de esta familia de superconductores. El trabajo consistirá en la caracterización de un monocristal de alta calidad de CaKFe4As4 y en la medida de su respuesta magnética. La alta resolución del magnetómetro a utilizar (de tipo SQUID, basado en la interferencia cuántica superconductora) permitirá estudiar efectos precursores de la superconductividad inducidos por fluctuaciones térmicas para temperaturas T en torno a la transición superconductora, Tc, y obtener parámetros superconductores como la longitud de coherencia y el campo magnético crítico. A su vez, medidas de ciclos de histéresis para T menor que Tc permitirán conocer parámetros de interés tecnológico como la densidad de corriente crítica y el campo magnético de irreversibilidad.
Dirección
MOSQUEIRA REY, JESUS MANUEL (Tutoría)
MOSQUEIRA REY, JESUS MANUEL (Tutoría)
Tribunal
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
ZAS ARREGUI, ENRIQUE (Presidente/a)
GARCIA FEAL, XABIER (Secretario/a)
FONDADO FONDADO, ALFONSO (Vocal)
Estudio de las propiedades termoeléctricas del líquido iónico EMimTFSI y mezclas con sales de litio y nanopartículas
Autoría
Y.E.F.
Grado en Física
Y.E.F.
Grado en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
En la búsqueda de un futuro sostenible las energías renovables tienen un papel crucial, estas presentan una fuerte dependencia de sistemas de almacenamiento energético. En este trabajo se estudiara el líquido iónico (LI) 1-Ethyl-3-methylimidazoliumbis(trifluoromethylsulfonyl)imide (EMimTFSI) para su uso como electrolito. Se realizaron medidas tanto del LI puro como de mezclas con nanopartículas (HK3) y sales de litio (LITFSI) con el objetivo de mejorar las propiedades del LI. Se sometiereon las muestras a diferentes técnicas: Espectroscopía de impedancias electroquímica(EIS), resonancia magnética nuclear(RMN) y calorimetría diferencial de barrido(DSC). Los resultados de EIS muestran valores de la conductividad para todas las muestras superiores a 0.3 S/m, lo que hace adecuado su uso en baterías. Los estudios de RMN al LI y mezclas a diferentes proporciones con el HK3 mostraron un aumento del coeficiente de difusión en estas respecto al LI de base, sin embargo esta mejora no aumenta a mayores proporciones de HK3. Analizando los resultados de DSC se muestra una ligera mejora de las propiedades térmicas en las mezclas que incluyen HK3 respecto a las que no, destacando la desaparición de picos atribuidos a reordenaciones del LI a altas velocidades de calentamiento.
En la búsqueda de un futuro sostenible las energías renovables tienen un papel crucial, estas presentan una fuerte dependencia de sistemas de almacenamiento energético. En este trabajo se estudiara el líquido iónico (LI) 1-Ethyl-3-methylimidazoliumbis(trifluoromethylsulfonyl)imide (EMimTFSI) para su uso como electrolito. Se realizaron medidas tanto del LI puro como de mezclas con nanopartículas (HK3) y sales de litio (LITFSI) con el objetivo de mejorar las propiedades del LI. Se sometiereon las muestras a diferentes técnicas: Espectroscopía de impedancias electroquímica(EIS), resonancia magnética nuclear(RMN) y calorimetría diferencial de barrido(DSC). Los resultados de EIS muestran valores de la conductividad para todas las muestras superiores a 0.3 S/m, lo que hace adecuado su uso en baterías. Los estudios de RMN al LI y mezclas a diferentes proporciones con el HK3 mostraron un aumento del coeficiente de difusión en estas respecto al LI de base, sin embargo esta mejora no aumenta a mayores proporciones de HK3. Analizando los resultados de DSC se muestra una ligera mejora de las propiedades térmicas en las mezclas que incluyen HK3 respecto a las que no, destacando la desaparición de picos atribuidos a reordenaciones del LI a altas velocidades de calentamiento.
Dirección
SALGADO CARBALLO, JOSEFA (Tutoría)
Santiago Alonso, Antía Cotutoría
SALGADO CARBALLO, JOSEFA (Tutoría)
Santiago Alonso, Antía Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Fabricación, caracterización estructural y estudio de las propiedades superconductoras de películas delgadas de aluminio nanogranular.
Autoría
M.F.V.
Grado en Física
M.F.V.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El aluminio nanogranular (constituído por granos nanométricos de aluminio separados por una capa aislante de óxido de aluminio) es un superconductor de referencia para la implementación de dispositivos lógicos cuánticos. También es muy interesante desde el punto de vista básico porque presenta temperaturas críticas superconductoras (Tc) hasta 3 veces superiores a la del aluminio masivo (Tc = 1.1 K). Es por esto que artículos muy recientes están dedicados a comprender mejor la fenomenología de este material. En este trabajo se describe el proceso de fabricación por evaporación térmica de películas delgadas de aluminio nanogranular, su caracacterización por microscopía electrónica de barrido y microscopía de fuerza atómica, y la medida de las propiedades de transporte eléctrico (resistividad y curvas V-I). Las películas fabricadas tienen Tc = 2.4 K, pero hasta 1.8 K presentan un estado paracoherente (granos supercondutores desacoplados entre si) no-óhmico, nunca antes observado en Al. Por debajo de 1.8 K los granos finalmente se acoplan y el material alcanza supercondutividad a nivel global. Un comportamiento similar fue observado previamente en nanoestructuras supercondutoras artificiales de Nb.
El aluminio nanogranular (constituído por granos nanométricos de aluminio separados por una capa aislante de óxido de aluminio) es un superconductor de referencia para la implementación de dispositivos lógicos cuánticos. También es muy interesante desde el punto de vista básico porque presenta temperaturas críticas superconductoras (Tc) hasta 3 veces superiores a la del aluminio masivo (Tc = 1.1 K). Es por esto que artículos muy recientes están dedicados a comprender mejor la fenomenología de este material. En este trabajo se describe el proceso de fabricación por evaporación térmica de películas delgadas de aluminio nanogranular, su caracacterización por microscopía electrónica de barrido y microscopía de fuerza atómica, y la medida de las propiedades de transporte eléctrico (resistividad y curvas V-I). Las películas fabricadas tienen Tc = 2.4 K, pero hasta 1.8 K presentan un estado paracoherente (granos supercondutores desacoplados entre si) no-óhmico, nunca antes observado en Al. Por debajo de 1.8 K los granos finalmente se acoplan y el material alcanza supercondutividad a nivel global. Un comportamiento similar fue observado previamente en nanoestructuras supercondutoras artificiales de Nb.
Dirección
MOSQUEIRA REY, JESUS MANUEL (Tutoría)
MOSQUEIRA REY, JESUS MANUEL (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
De macro a micro: la microfluídica y su potencial en la validación de nanosistemas teragnósticos
Autoría
A.F.M.
Grado en Física
A.F.M.
Grado en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
Los dispositivos microfluídicos, o chips, constituyen una alternativa prometedora en la validación preclínica de nanosistemas teragnósticos en enfermedades como el cáncer o la aterosclerosis. En este sentido, los denominados órganos/arterias-en-un-chip permiten simular la hemodinámica de los tejidos, mimetizando las interacciones entre los nanosistemas y las paredes fisiológicas, permitiendo superar las limitaciones de los cultivos celulares estáticos y reduciendo la experimentación animal. Para manipular correctamente los fluidos en los chips, es necesario conocer los fenómenos físicos en la escala micrométrica, diferentes de los observados en la macroescala. Así, en la primera parte de este trabajo se describen parámetros fundamentales en física de fluidos como los números de Reynolds o Peclet, que determinan las fuerzas dominantes en la microescala, y los fenómenos físicos asociados, como fuerza de cizalla, difusión, capilaridad... La segunda parte del trabajo consiste en el desarrollo experimental de una arteria-en-un-chip para el tratamiento de la aterosclerosis, utilizando un chip con tres canales conectado a una unidad fluídica a través de un sistema de perfusión con dos reservorios. La fuerza de cizalla es la fuerza más significativa que actúa sobre las arterias, pero no es posible controlarla directamente, por lo que se realiza una calibración del chip para obtener la relación entre la presión ejercida por una bomba de presión conectada a la unidad fluídica y la fuerza de cizalla producida en las paredes de los microcanales dependiendo del sistema de perfusión y reservorio utilizados. Se analiza así el efecto del diámetro y longitud del sistema de perfusión y del diámetro de los reservorios en la fuerza de cizalla resultante, hallando las condiciones óptimas con las que conseguir un valor propio de las arterias sanas (12 dyn/cm2) y con ello recrear la pared interna arterial mediante el cultivo dinámico de células endoteliales en uno de los canales del chip.
Los dispositivos microfluídicos, o chips, constituyen una alternativa prometedora en la validación preclínica de nanosistemas teragnósticos en enfermedades como el cáncer o la aterosclerosis. En este sentido, los denominados órganos/arterias-en-un-chip permiten simular la hemodinámica de los tejidos, mimetizando las interacciones entre los nanosistemas y las paredes fisiológicas, permitiendo superar las limitaciones de los cultivos celulares estáticos y reduciendo la experimentación animal. Para manipular correctamente los fluidos en los chips, es necesario conocer los fenómenos físicos en la escala micrométrica, diferentes de los observados en la macroescala. Así, en la primera parte de este trabajo se describen parámetros fundamentales en física de fluidos como los números de Reynolds o Peclet, que determinan las fuerzas dominantes en la microescala, y los fenómenos físicos asociados, como fuerza de cizalla, difusión, capilaridad... La segunda parte del trabajo consiste en el desarrollo experimental de una arteria-en-un-chip para el tratamiento de la aterosclerosis, utilizando un chip con tres canales conectado a una unidad fluídica a través de un sistema de perfusión con dos reservorios. La fuerza de cizalla es la fuerza más significativa que actúa sobre las arterias, pero no es posible controlarla directamente, por lo que se realiza una calibración del chip para obtener la relación entre la presión ejercida por una bomba de presión conectada a la unidad fluídica y la fuerza de cizalla producida en las paredes de los microcanales dependiendo del sistema de perfusión y reservorio utilizados. Se analiza así el efecto del diámetro y longitud del sistema de perfusión y del diámetro de los reservorios en la fuerza de cizalla resultante, hallando las condiciones óptimas con las que conseguir un valor propio de las arterias sanas (12 dyn/cm2) y con ello recrear la pared interna arterial mediante el cultivo dinámico de células endoteliales en uno de los canales del chip.
Dirección
BARBOSA FERNANDEZ, SILVIA (Tutoría)
OGANDO CORTES, ALEJANDRO Cotutoría
BARBOSA FERNANDEZ, SILVIA (Tutoría)
OGANDO CORTES, ALEJANDRO Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Caracterización de las señales de calibración de NEXT-100
Autoría
N.F.L.
Grado en Física
N.F.L.
Grado en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
El experimento NEXT es una colaboración internacional que busca la desintegración doble beta sin neutrinos (beta beta 0 nu) en el isótopo 136Xe. El detector NEXT-100, actualmente operativo, se espera que dé una búsqueda competitiva en el tiempo de semidesintegración. Para ello, es necesario validar primero las simulaciones. En este trabajo se analizarán los eventos de las señales generadas por los electrones, y por ende la respuesta del detector ante estas señales simuladas de Kr estableciendo unmétodo para la corrección y estimación de la resolución en energía.
El experimento NEXT es una colaboración internacional que busca la desintegración doble beta sin neutrinos (beta beta 0 nu) en el isótopo 136Xe. El detector NEXT-100, actualmente operativo, se espera que dé una búsqueda competitiva en el tiempo de semidesintegración. Para ello, es necesario validar primero las simulaciones. En este trabajo se analizarán los eventos de las señales generadas por los electrones, y por ende la respuesta del detector ante estas señales simuladas de Kr estableciendo unmétodo para la corrección y estimación de la resolución en energía.
Dirección
HERNANDO MORATA, JOSE ANGEL (Tutoría)
HERVES CARRETE, CARLOS Cotutoría
HERNANDO MORATA, JOSE ANGEL (Tutoría)
HERVES CARRETE, CARLOS Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Trabajo fin de grado
Autoría
C.F.S.
Doble Grado en Matemáticas y en Física
C.F.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
El seleniuro de cromo 1T CrSe2 es un material de van der Waals formado por capas covalentes fuertemente enlazadas en el plano y unidas entre sí por fuerzas débiles de van der Waals fuera de él. Estos sistemas exhiben un comportamiento intermedio entre el de electrones localizados, con momentos magnéticos bien definidos en cada núcleo atómico, y el de electrones itinerantes, deslocalizados a lo largo de bandas de conducción sin poder asignarles un momento neto a cada átomo. Para estudiar su orden magnético y sus inestabilidades electrónicas se llevaron a cabo cálculos ab initio mediante el código WIEN2k, utilizando el método FP LAPW lo y la aproximación de gradiente generalizado PBE. Primero se caracterizó la monocapa rígida 1 por 1: su estado fundamental resulta ferromagnético y su densidad de estados está dominada por orbitales t2g de Cr en el nivel de Fermi, indicio de inestabilidades electrónicas. Para capturar las ondas de densidad de carga asociadas a modos de Peierls se construyeron superceldas 2 por 2 y raiz(3) por raiz(3). La relajación de la celda 2 por 2 revela tetrámeros de Cr y un gap parcial propio de un mecanismo de Peierls unidireccional. La reconstrucción raiz(3) por raiz(3) trimeriza simultáneamente los tres orbitales t2g, abriendo pseudogaps por encima y por debajo del nivel de Fermi y dejando solo una banda plana residual. Dado que la DFT pura tiende a subestimar la interacción de Coulomb local, implementamos la corrección LDA U sobre los orbitales d de Cr. Para valores moderados de U se refuerza la apertura del pseudogap y se estabiliza aún más la fase CDW ferromagnética, mientras que un U excesivo provoca reordenaciones de subbandas que reintroducen picos de densidad de estados en EF.
El seleniuro de cromo 1T CrSe2 es un material de van der Waals formado por capas covalentes fuertemente enlazadas en el plano y unidas entre sí por fuerzas débiles de van der Waals fuera de él. Estos sistemas exhiben un comportamiento intermedio entre el de electrones localizados, con momentos magnéticos bien definidos en cada núcleo atómico, y el de electrones itinerantes, deslocalizados a lo largo de bandas de conducción sin poder asignarles un momento neto a cada átomo. Para estudiar su orden magnético y sus inestabilidades electrónicas se llevaron a cabo cálculos ab initio mediante el código WIEN2k, utilizando el método FP LAPW lo y la aproximación de gradiente generalizado PBE. Primero se caracterizó la monocapa rígida 1 por 1: su estado fundamental resulta ferromagnético y su densidad de estados está dominada por orbitales t2g de Cr en el nivel de Fermi, indicio de inestabilidades electrónicas. Para capturar las ondas de densidad de carga asociadas a modos de Peierls se construyeron superceldas 2 por 2 y raiz(3) por raiz(3). La relajación de la celda 2 por 2 revela tetrámeros de Cr y un gap parcial propio de un mecanismo de Peierls unidireccional. La reconstrucción raiz(3) por raiz(3) trimeriza simultáneamente los tres orbitales t2g, abriendo pseudogaps por encima y por debajo del nivel de Fermi y dejando solo una banda plana residual. Dado que la DFT pura tiende a subestimar la interacción de Coulomb local, implementamos la corrección LDA U sobre los orbitales d de Cr. Para valores moderados de U se refuerza la apertura del pseudogap y se estabiliza aún más la fase CDW ferromagnética, mientras que un U excesivo provoca reordenaciones de subbandas que reintroducen picos de densidad de estados en EF.
Dirección
PARDO CASTRO, VICTOR (Tutoría)
PARDO CASTRO, VICTOR (Tutoría)
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Baterías nucleares controladas por láser
Autoría
M.G.R.
Grado en Física
M.G.R.
Grado en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
Las baterías nucleares se encargan de convertir la energía liberada por la desintegración de isótopos radioactivos en electricidad, aunque, a diferencia de un reactor nuclear, no lo hacen mediante una reacción en cadena. Sin embargo, su potencia de salida no puede regularse directamente, ya que esta va disminuyendo según avanza el proceso de desintegración, así que vamos a explorar como esta puede controlarse para así poder utilizarlas cuando queramos. Para abordar esto, será preferible emplear núcleos con isómeros de vida larga, pero que puedan pasar (de manera simple) a un estado intermedio excitado de vida corta, que después emita energía desexcitándose. El estado isomérico a estudiar será el Mo-93m, con t(1/2)=6.85 h, que podrá obtenerse a partir de la reacción 93Nb(p,n)93mMo. Esta reacción será llevada a cabo numéricamente bombeando, usando láseres ultraintensos, protones sobre un blanco de niobio. Además, trataremos de estudiar si un proceso denominado NEEC (Nuclear Excitation by Electron Capture) puede hacer que el Mo-93m se excite a un estado intermedio de vida corta (t(1/2)=3.52 ns), que liberaría 2.430 MeV por núcleo al desexcitarse. En el proceso de NEEC, se captura un electrón libre en una vacante atómica, transfiriendo su energía y momento al núcleo, excitándose así el electrón. No obstante, no está experimentalmente demostrado que esta pueda tener lugar, aunque sí que hay físicos que aseguran haberlo probado, no habiendo consenso en la comunidad científica de la validez de su experimento. En definitiva, a partir de simulaciones numéricas en Python, estudiaremos la viabilidad de producir Mo-93m tanto en el Laboratorio Láser de Aceleración e Aplicacións de la Universidade de Santiago de Compostela (L2A2) como en el Centro de Láseres Pulsados de Salamanca (CLPU). Los resultados permitirán aportarnos información sobre si compensaría llevar a cabo este experimento, muy importante en la investigación acerca de mejorar el almacenamiento y gestión tecnológica de la energía en el futuro.
Las baterías nucleares se encargan de convertir la energía liberada por la desintegración de isótopos radioactivos en electricidad, aunque, a diferencia de un reactor nuclear, no lo hacen mediante una reacción en cadena. Sin embargo, su potencia de salida no puede regularse directamente, ya que esta va disminuyendo según avanza el proceso de desintegración, así que vamos a explorar como esta puede controlarse para así poder utilizarlas cuando queramos. Para abordar esto, será preferible emplear núcleos con isómeros de vida larga, pero que puedan pasar (de manera simple) a un estado intermedio excitado de vida corta, que después emita energía desexcitándose. El estado isomérico a estudiar será el Mo-93m, con t(1/2)=6.85 h, que podrá obtenerse a partir de la reacción 93Nb(p,n)93mMo. Esta reacción será llevada a cabo numéricamente bombeando, usando láseres ultraintensos, protones sobre un blanco de niobio. Además, trataremos de estudiar si un proceso denominado NEEC (Nuclear Excitation by Electron Capture) puede hacer que el Mo-93m se excite a un estado intermedio de vida corta (t(1/2)=3.52 ns), que liberaría 2.430 MeV por núcleo al desexcitarse. En el proceso de NEEC, se captura un electrón libre en una vacante atómica, transfiriendo su energía y momento al núcleo, excitándose así el electrón. No obstante, no está experimentalmente demostrado que esta pueda tener lugar, aunque sí que hay físicos que aseguran haberlo probado, no habiendo consenso en la comunidad científica de la validez de su experimento. En definitiva, a partir de simulaciones numéricas en Python, estudiaremos la viabilidad de producir Mo-93m tanto en el Laboratorio Láser de Aceleración e Aplicacións de la Universidade de Santiago de Compostela (L2A2) como en el Centro de Láseres Pulsados de Salamanca (CLPU). Los resultados permitirán aportarnos información sobre si compensaría llevar a cabo este experimento, muy importante en la investigación acerca de mejorar el almacenamiento y gestión tecnológica de la energía en el futuro.
Dirección
ALEJO ALONSO, AARON JOSE (Tutoría)
ALEJO ALONSO, AARON JOSE (Tutoría)
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Modelización y gestión de calor en un conversor de potencia láser fotovoltaico de SiC
Autoría
I.G.G.
Grado en Física
I.G.G.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El principal problema que limita las misiones al espacio profundo, así como la investigación de otros lugares remotos con acceso limitado a la luz, es la ausencia de una fuente de energía fiable. La transmisión de energía vía láser de alta potencia se ha señalado como la principal solución y un aspecto clave para lograrlo es obtener un convertidor de potencia láser (LPC) de alta eficiencia; aun así, las pérdidas por calor serían el principal problema a resolver. Actualmente, se están investigando arquitecturas basadas en semiconductores de alto gap de energía, siendo los tres politipos de SiC (3C, 4H y 6H) unos de los principales candidatos para estas nuevas tecnologías. En este trabajo, se realizará una simulación térmica en un convertidor de potencia láser horizontal (hLPC) basado en 4H-SiC para observar la magnitud del efecto de las pérdidas por calor en el dispositivo y probar los enfoques actuales de gestión térmica. No se encontraron problemas importantes de aumento de temperatura, pero el escalado a celdas más grandes y arquitecturas más complejas podría requerir un análisis más en profundidad.
El principal problema que limita las misiones al espacio profundo, así como la investigación de otros lugares remotos con acceso limitado a la luz, es la ausencia de una fuente de energía fiable. La transmisión de energía vía láser de alta potencia se ha señalado como la principal solución y un aspecto clave para lograrlo es obtener un convertidor de potencia láser (LPC) de alta eficiencia; aun así, las pérdidas por calor serían el principal problema a resolver. Actualmente, se están investigando arquitecturas basadas en semiconductores de alto gap de energía, siendo los tres politipos de SiC (3C, 4H y 6H) unos de los principales candidatos para estas nuevas tecnologías. En este trabajo, se realizará una simulación térmica en un convertidor de potencia láser horizontal (hLPC) basado en 4H-SiC para observar la magnitud del efecto de las pérdidas por calor en el dispositivo y probar los enfoques actuales de gestión térmica. No se encontraron problemas importantes de aumento de temperatura, pero el escalado a celdas más grandes y arquitecturas más complejas podría requerir un análisis más en profundidad.
Dirección
GARCIA LOUREIRO, ANTONIO JESUS (Tutoría)
FERNANDEZ LOZANO, JAVIER Cotutoría
GARCIA LOUREIRO, ANTONIO JESUS (Tutoría)
FERNANDEZ LOZANO, JAVIER Cotutoría
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Caracterización y Simulación de la Fuente de Americio/Berilio (AmBe) para la calibración del detector Water Cherenkov Test Experiment (WCTE) para Hyper-Kamiokande (HK)
Autoría
A.G.A.
Grado en Física
A.G.A.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Hyper-Kamiokande (HK) es el tercero de la familia japonesa de Water Cherenkov Detectors (WCDs), que centran su esfuerzo en el estudio de los neutrinos y la posible desintegración del protón, predicha por teorías de gran unificación (GUT). Para este, varios experimentos de prueba están siendo construidos, siendo uno de ellos el Water Cherenkov Test Experiment (WCTE), actualmente operando en el CERN. WCTE implementa nuevas tecnologías a los WCDs, como un nuevo tipo de MultiPMT, así como nuevas técnicas de calibración, que permitirán que Hyper-Kamiokande mejore su capacidad de separación e identificación de partículas. Parte de la calibración se llevará a cabo utilizando dos fuentes radiactivas, una de ellas de Americio/Berilio (AmBe), cuya simulación y caracterización se presenta en este texto. En este trabajo se presenta la simulación y caracterización de una fuente de Americio/Berilio (AmBe), una de las dos fuentes radiactivas que se utilizarán para la calibración del experimento WCTE.
Hyper-Kamiokande (HK) es el tercero de la familia japonesa de Water Cherenkov Detectors (WCDs), que centran su esfuerzo en el estudio de los neutrinos y la posible desintegración del protón, predicha por teorías de gran unificación (GUT). Para este, varios experimentos de prueba están siendo construidos, siendo uno de ellos el Water Cherenkov Test Experiment (WCTE), actualmente operando en el CERN. WCTE implementa nuevas tecnologías a los WCDs, como un nuevo tipo de MultiPMT, así como nuevas técnicas de calibración, que permitirán que Hyper-Kamiokande mejore su capacidad de separación e identificación de partículas. Parte de la calibración se llevará a cabo utilizando dos fuentes radiactivas, una de ellas de Americio/Berilio (AmBe), cuya simulación y caracterización se presenta en este texto. En este trabajo se presenta la simulación y caracterización de una fuente de Americio/Berilio (AmBe), una de las dos fuentes radiactivas que se utilizarán para la calibración del experimento WCTE.
Dirección
HERNANDO MORATA, JOSE ANGEL (Tutoría)
Costas Rodríguez, Diego Cotutoría
HERNANDO MORATA, JOSE ANGEL (Tutoría)
Costas Rodríguez, Diego Cotutoría
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Segmentación Automática de Imágenes de Resonancia Magnética Preclínica
Autoría
A.G.A.
Doble Grado en Matemáticas y en Física
A.G.A.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El objetivo principal de este trabajo es desarrollar un sistema automatizado para la detección y segmentación de glioblastomas, un tipo agresivo de tumor cerebral, en modelos animales (ratones y ratas) mediante imágenes de resonancia magnética preclínica (RM). Para ello, se emplean técnicas de aprendizaje supervisado con el fin de segmentar automáticamente el glioblastoma y calcular su volumen de forma precisa. En el Capítulo 3 se presenta el modelo U-Net, una red neuronal convolucional especializada en tareas de segmentación médica. Este modelo se entrena utilizando imágenes de RM de ratones con segmentaciones manuales (ground truth), con el objetivo de localizar automáticamente el glioblastoma en nuevas imágenes. Se explora el impacto de diferentes configuraciones de hiperparámetros y se evalúa el rendimiento del modelo mediante métricas específicas de segmentación. El Capítulo 4 aborda el desarrollo de modelos predictivos para estimar el volumen tumoral en ratones, a partir de las mismas imágenes utilizadas en el capítulo anterior. El proceso incluye la extracción de variables radiómicas, su comparación con las obtenidas previamente por la investigadora Sara Ortega, la selección de las variables más relevantes, y el entrenamiento de modelos de regresión. Nuevamente, se analizan distintas combinaciones de hiperparámetros para estudiar su influencia sobre la calidad de las predicciones. En el Capítulo 5, se replica el procedimiento anterior, esta vez empleando imágenes de ratas. Además, se lleva a cabo un análisis sobre el impacto del aumento del tamaño muestral en el rendimiento de los modelos predictivos, entrenando los algoritmos con distintas cantidades de datos. Finalmente, se consideró la posibilidad de construir un modelo para predecir la supervivencia de los animales a partir de las imágenes. Sin embargo, un análisis preliminar reveló que los datos disponibles eran insuficientes para obtener predicciones fiables, por lo que esta posibilidad se planteó como futura línea de investigación.
El objetivo principal de este trabajo es desarrollar un sistema automatizado para la detección y segmentación de glioblastomas, un tipo agresivo de tumor cerebral, en modelos animales (ratones y ratas) mediante imágenes de resonancia magnética preclínica (RM). Para ello, se emplean técnicas de aprendizaje supervisado con el fin de segmentar automáticamente el glioblastoma y calcular su volumen de forma precisa. En el Capítulo 3 se presenta el modelo U-Net, una red neuronal convolucional especializada en tareas de segmentación médica. Este modelo se entrena utilizando imágenes de RM de ratones con segmentaciones manuales (ground truth), con el objetivo de localizar automáticamente el glioblastoma en nuevas imágenes. Se explora el impacto de diferentes configuraciones de hiperparámetros y se evalúa el rendimiento del modelo mediante métricas específicas de segmentación. El Capítulo 4 aborda el desarrollo de modelos predictivos para estimar el volumen tumoral en ratones, a partir de las mismas imágenes utilizadas en el capítulo anterior. El proceso incluye la extracción de variables radiómicas, su comparación con las obtenidas previamente por la investigadora Sara Ortega, la selección de las variables más relevantes, y el entrenamiento de modelos de regresión. Nuevamente, se analizan distintas combinaciones de hiperparámetros para estudiar su influencia sobre la calidad de las predicciones. En el Capítulo 5, se replica el procedimiento anterior, esta vez empleando imágenes de ratas. Además, se lleva a cabo un análisis sobre el impacto del aumento del tamaño muestral en el rendimiento de los modelos predictivos, entrenando los algoritmos con distintas cantidades de datos. Finalmente, se consideró la posibilidad de construir un modelo para predecir la supervivencia de los animales a partir de las imágenes. Sin embargo, un análisis preliminar reveló que los datos disponibles eran insuficientes para obtener predicciones fiables, por lo que esta posibilidad se planteó como futura línea de investigación.
Dirección
IGLESIAS REY, RAMON (Tutoría)
IGLESIAS REY, RAMON (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Atajos a la adiabaticidad en sistemas cuánticos simples
Autoría
J.G.C.
Doble Grado en Matemáticas y en Física
J.G.C.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Dado un sistema cuántico en el que queremos modificar algún parámetro de control sin que exista un cambio en su nivel de energía el teorema adiabático nos permite hacerlo. A cambio, la velocidad a la que se realiza este cambio ha de ser lo suficientemente pequeña. Esto conlleva una mayor vulnerabilidad del sistema a efectos como el ruido o la decoherencia que hacen que el sistema pierda sus propiedades cuánticas. Con el objetivo de solventar esta dificultad se diseñan los métodos conocidos como atajos a la adiabaticidad que nos permiten acelerar el tiempo de preparación del sistema sin tener que depender del teorema adiabático. En particular, en este trabajo nos centraremos en el método conocido como Counterdiabatic Driving(CD) basado en introducir un término adicional en el hamiltoniano que evite las transiciones entre autoestados instantáneos. Primero, motivaremos y daremos el enunciado preciso del teorema adiabático. Luego, introduciremos el formalismo del CD y lo aplicaremos a varios sistemas simples. Finalmente, se dará una breve introducción a otros atajos a la adiabaticidad y sus limitaciones.
Dado un sistema cuántico en el que queremos modificar algún parámetro de control sin que exista un cambio en su nivel de energía el teorema adiabático nos permite hacerlo. A cambio, la velocidad a la que se realiza este cambio ha de ser lo suficientemente pequeña. Esto conlleva una mayor vulnerabilidad del sistema a efectos como el ruido o la decoherencia que hacen que el sistema pierda sus propiedades cuánticas. Con el objetivo de solventar esta dificultad se diseñan los métodos conocidos como atajos a la adiabaticidad que nos permiten acelerar el tiempo de preparación del sistema sin tener que depender del teorema adiabático. En particular, en este trabajo nos centraremos en el método conocido como Counterdiabatic Driving(CD) basado en introducir un término adicional en el hamiltoniano que evite las transiciones entre autoestados instantáneos. Primero, motivaremos y daremos el enunciado preciso del teorema adiabático. Luego, introduciremos el formalismo del CD y lo aplicaremos a varios sistemas simples. Finalmente, se dará una breve introducción a otros atajos a la adiabaticidad y sus limitaciones.
Dirección
Vázquez Ramallo, Alfonso (Tutoría)
Vázquez Ramallo, Alfonso (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Diseño y optimización de un apósito para úlceras mediante técnicas de CFD.
Autoría
S.G.B.
Grado en Física
S.G.B.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
El tratamiento eficaz de las úlceras crónicas representa un importante desafío clínico que requiere de soluciones avanzadas para reducir tanto la morbilidad asociada como la carga socioeconómica que suponen para los sistemas sanitarios. Se trata de heridas exudativas difíciles de controlar, ya que una abundante secreción puede provocar la maceración de la piel circundante y retrasar la cicatrización, dando lugar a infecciones. En este contexto, el presente trabajo propone el diseño y la optimización de un apósito que permita la administración de fármacos y el drenaje de exudado de forma simultánea, destinado al cuidado de dichas heridas en casos especialmente graves. Se trata de diseñar un material estructurado de forma inteligente que favorezca la retirada de esta secreción. Para llevar a cabo el estudio se utilizó como herramienta principal la simulación mediante dinámica de fluidos computacional (CFD), a través del programa Simcenter STAR-CCM+, que nos permitió modelar el comportamiento de los fluidos implicados dentro de la estructura del apósito. Con el objetivo de explorar un amplio rango de configuraciones en cuanto a la geometría del dispositivo, se realizó un análisis comparativo entre cuatro diseños distintos, construidos de forma paramétrica para posteriormente poder llevar a cabo un proceso de optimización en el que se buscó la configuración más eficiente de sus variables. Una vez determinada la estructura óptima para cada uno de los diseños, se realizó un análisis de sensibilidad para evaluar su rendimiento bajo distintas condiciones clínicas: ¿qué sucede cuando cambia la velocidad de entrada del medicamento?, ¿y la profundidad de la herida?
El tratamiento eficaz de las úlceras crónicas representa un importante desafío clínico que requiere de soluciones avanzadas para reducir tanto la morbilidad asociada como la carga socioeconómica que suponen para los sistemas sanitarios. Se trata de heridas exudativas difíciles de controlar, ya que una abundante secreción puede provocar la maceración de la piel circundante y retrasar la cicatrización, dando lugar a infecciones. En este contexto, el presente trabajo propone el diseño y la optimización de un apósito que permita la administración de fármacos y el drenaje de exudado de forma simultánea, destinado al cuidado de dichas heridas en casos especialmente graves. Se trata de diseñar un material estructurado de forma inteligente que favorezca la retirada de esta secreción. Para llevar a cabo el estudio se utilizó como herramienta principal la simulación mediante dinámica de fluidos computacional (CFD), a través del programa Simcenter STAR-CCM+, que nos permitió modelar el comportamiento de los fluidos implicados dentro de la estructura del apósito. Con el objetivo de explorar un amplio rango de configuraciones en cuanto a la geometría del dispositivo, se realizó un análisis comparativo entre cuatro diseños distintos, construidos de forma paramétrica para posteriormente poder llevar a cabo un proceso de optimización en el que se buscó la configuración más eficiente de sus variables. Una vez determinada la estructura óptima para cada uno de los diseños, se realizó un análisis de sensibilidad para evaluar su rendimiento bajo distintas condiciones clínicas: ¿qué sucede cuando cambia la velocidad de entrada del medicamento?, ¿y la profundidad de la herida?
Dirección
Pérez Muñuzuri, Alberto (Tutoría)
PARAMES ESTEVEZ, SANTIAGO Cotutoría
Pérez Muñuzuri, Alberto (Tutoría)
PARAMES ESTEVEZ, SANTIAGO Cotutoría
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Análisis de la conductividad eléctrica de lubricantes para vehículos eléctricos
Autoría
F.G.P.
Grado en Física
F.G.P.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
Este Trabajo de Fin de Grado explora cómo la presencia de aditivos polares y nanopartículas influye en el comportamiento eléctrico de lubricantes sintéticos empleados en aplicaciones donde se requiere controlar la acumulación de carga, como ocurre en componentes de vehículos eléctricos. El estudio combina ensayos de laboratorio sobre una base de aceite polialfaolefínico (PAO-4) y lubricantes comerciales, trabajando con mezclas a distintas concentraciones de 1-butanol, 1-hexanol y 1-nonanol, así como con nanopartículas conductoras o semicondutoras (TiC, TiO2, Al2O3). Se aborda experimentalmente la relación entre la fracción de aditivo, la temperatura y la evolución de la conductividad, prestando atención a la formación de posibles dominios polares dentro de sistemas tradicionalmente aislantes. Para cada configuración se evalúa la coherencia de los resultados con la teoría disponible sobre ionización en medios no polares y se discute el papel de la estabilidad y la dispersión de los aditivos como factores críticos para garantizar un comportamiento reproducible. Esta aproximación pretende aportar datos útiles para comprender los mecanismos físicos que gobiernan la variación de la conductividad eléctrica en lubricantes de base sintética, reforzando la importancia de optimizar la selección y dosificación de aditivos para compatibilizar propiedades tribológicas y eléctricas en aplicaciones industriales actuales.
Este Trabajo de Fin de Grado explora cómo la presencia de aditivos polares y nanopartículas influye en el comportamiento eléctrico de lubricantes sintéticos empleados en aplicaciones donde se requiere controlar la acumulación de carga, como ocurre en componentes de vehículos eléctricos. El estudio combina ensayos de laboratorio sobre una base de aceite polialfaolefínico (PAO-4) y lubricantes comerciales, trabajando con mezclas a distintas concentraciones de 1-butanol, 1-hexanol y 1-nonanol, así como con nanopartículas conductoras o semicondutoras (TiC, TiO2, Al2O3). Se aborda experimentalmente la relación entre la fracción de aditivo, la temperatura y la evolución de la conductividad, prestando atención a la formación de posibles dominios polares dentro de sistemas tradicionalmente aislantes. Para cada configuración se evalúa la coherencia de los resultados con la teoría disponible sobre ionización en medios no polares y se discute el papel de la estabilidad y la dispersión de los aditivos como factores críticos para garantizar un comportamiento reproducible. Esta aproximación pretende aportar datos útiles para comprender los mecanismos físicos que gobiernan la variación de la conductividad eléctrica en lubricantes de base sintética, reforzando la importancia de optimizar la selección y dosificación de aditivos para compatibilizar propiedades tribológicas y eléctricas en aplicaciones industriales actuales.
Dirección
AMIGO POMBO, ALFREDO JOSE (Tutoría)
GINER RAJALA, OSCAR VICENT Cotutoría
AMIGO POMBO, ALFREDO JOSE (Tutoría)
GINER RAJALA, OSCAR VICENT Cotutoría
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Exploración de la dinámica del Universo a través de los modelos de Fridmann.
Autoría
P.H.S.
Grado en Física
P.H.S.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
Este trabajo tiene como propuesta ampliar los conceptos trabajados en la materia de Astrofísica y Cosmología del grado en Física. Concretamente, el objetivo es estudiar modelos cosmológicos de un carácter más complejo que los que se tratan habitualmente en la literatura de cosmología fundamental. Para esto, se trabajará con el formalismo centrado en las ecuaciones de Fridmann y se desarrollarán algoritmos de Python para poder resolver numéricamente las ecuaciones que surgen en las cosmologías de varios componentes.
Este trabajo tiene como propuesta ampliar los conceptos trabajados en la materia de Astrofísica y Cosmología del grado en Física. Concretamente, el objetivo es estudiar modelos cosmológicos de un carácter más complejo que los que se tratan habitualmente en la literatura de cosmología fundamental. Para esto, se trabajará con el formalismo centrado en las ecuaciones de Fridmann y se desarrollarán algoritmos de Python para poder resolver numéricamente las ecuaciones que surgen en las cosmologías de varios componentes.
Dirección
ALVAREZ MUÑIZ, JAIME (Tutoría)
ALVAREZ MUÑIZ, JAIME (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Estudio ab initio de defectos en semiconductores y su influencia en la estructura de bandas.
Autoría
B.I.F.
Grado en Física
B.I.F.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
En este trabajo se lleva a cabo un estudio ab initio de distintos semiconductores, con el objetivo de analizar su estructura electrónica y evaluar el impacto de defectos y de distintos funcionales en el cálculo del gap. Se emplea la Teoría del Funcional de la Densidad (DFT) junto con el método ''Linearized Augmented Plane Waves'' (LAPW), implementado en el software WIEN2k. En primer lugar, se analiza el comportamiento del silicio frente al dopado tipo p (boro), tipo n (fósforo) y la creación de vacantes. Se observa cómo el dopado introduce niveles aceptores o donadores poco profundos, desplazando el nivel de Fermi, mientras que las vacantes generan estados localizados dentro del gap. En segundo lugar, se estudia la estructura electrónica del titanato de estroncio (SrTiO3), un semiconductor iónico con estructura de perovskita. Se confirma mediante análisis orbital que la banda de valencia está dominada por orbitales p del oxígeno, mientras que la banda de conducción tiene su origen en los orbitales d del titanio. Además, se analiza el desdoblamiento de estos últimos en un entorno octaédrico ideal. Por último, se evalúa la capacidad del potencial ''modified Becke Johnson Potential'' (mBJ) para corregir el valor del gap, comparando sus resultados con los del funcional ''Generalized Gradient Approximation'' (GGA) y los valores experimentales. En el caso de Si y Ge (semiconductores tipo sp), se obtiene una mejora notable en el gap. En el SrTiO3, la corrección es más modesta, pero también relevante. Este trabajo demuestra la utilidad del mBJ como alternativa semilocal eficiente para mejorar la predicción del gap en semiconductores, así como la importancia de estudiar defectos a nivel electrónico para comprender sus propiedades físicas.
En este trabajo se lleva a cabo un estudio ab initio de distintos semiconductores, con el objetivo de analizar su estructura electrónica y evaluar el impacto de defectos y de distintos funcionales en el cálculo del gap. Se emplea la Teoría del Funcional de la Densidad (DFT) junto con el método ''Linearized Augmented Plane Waves'' (LAPW), implementado en el software WIEN2k. En primer lugar, se analiza el comportamiento del silicio frente al dopado tipo p (boro), tipo n (fósforo) y la creación de vacantes. Se observa cómo el dopado introduce niveles aceptores o donadores poco profundos, desplazando el nivel de Fermi, mientras que las vacantes generan estados localizados dentro del gap. En segundo lugar, se estudia la estructura electrónica del titanato de estroncio (SrTiO3), un semiconductor iónico con estructura de perovskita. Se confirma mediante análisis orbital que la banda de valencia está dominada por orbitales p del oxígeno, mientras que la banda de conducción tiene su origen en los orbitales d del titanio. Además, se analiza el desdoblamiento de estos últimos en un entorno octaédrico ideal. Por último, se evalúa la capacidad del potencial ''modified Becke Johnson Potential'' (mBJ) para corregir el valor del gap, comparando sus resultados con los del funcional ''Generalized Gradient Approximation'' (GGA) y los valores experimentales. En el caso de Si y Ge (semiconductores tipo sp), se obtiene una mejora notable en el gap. En el SrTiO3, la corrección es más modesta, pero también relevante. Este trabajo demuestra la utilidad del mBJ como alternativa semilocal eficiente para mejorar la predicción del gap en semiconductores, así como la importancia de estudiar defectos a nivel electrónico para comprender sus propiedades físicas.
Dirección
PARDO CASTRO, VICTOR (Tutoría)
PARDO CASTRO, VICTOR (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Influencia del grupo alilo en la refractividad molar de líquidos iónicos
Autoría
C.J.F.
Grado en Física
C.J.F.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
En este trabajo se realiza la caracterización óptica de dos líquidos iónicos basados en imidazolio mediante interferometría de luz blanca con resolución espectral, del cual se calibra tanto el sistema como el micrómetro incorporado. A partir de las medidas interferométricas se obtiene el índice de refracción en función de la longitud de onda, lo que permite calcular la refractividad molar. Este análisis se emplea para evaluar la contribución tanto del grupo alilo como de su doble enlace a la refractividad molar en los líquidos iónicos seleccionados.
En este trabajo se realiza la caracterización óptica de dos líquidos iónicos basados en imidazolio mediante interferometría de luz blanca con resolución espectral, del cual se calibra tanto el sistema como el micrómetro incorporado. A partir de las medidas interferométricas se obtiene el índice de refracción en función de la longitud de onda, lo que permite calcular la refractividad molar. Este análisis se emplea para evaluar la contribución tanto del grupo alilo como de su doble enlace a la refractividad molar en los líquidos iónicos seleccionados.
Dirección
AROSA LOBATO, YAGO (Tutoría)
AROSA LOBATO, YAGO (Tutoría)
Tribunal
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Pérez Muñuzuri, Vicente (Presidente/a)
GALLAS TORREIRA, ABRAHAM ANTONIO (Secretario/a)
RODRIGUEZ GONZALEZ, JUAN ANTONIO (Vocal)
Estudio de los límites de masa en estrellas de neutrones
Autoría
C.L.V.
Grado en Física
C.L.V.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Este trabajo se centra en el estudio de la física de las estrellas de neutrones, examinando su estructura a través de las ecuaciones de estado (EOS), que describen el comportamiento de la materia a las densidades extremas características del interior de estos cuerpos, y analizando los denominados límites de masa. Se describirán las observaciones atronómicas existentes, incluyendo púlsares aislados, magnetares y sistemas binarios, que permiten evaluar de forma directa las masas de las estrellas de neutrones. Finalmente, y apoyándose en la detección de ondas gravitacionales, se pondrá en contexto el estado actual y la reevaluación de dichos límites de masa, con un profundo impacto en las ecuaciones de estado de materia nuclear.
Este trabajo se centra en el estudio de la física de las estrellas de neutrones, examinando su estructura a través de las ecuaciones de estado (EOS), que describen el comportamiento de la materia a las densidades extremas características del interior de estos cuerpos, y analizando los denominados límites de masa. Se describirán las observaciones atronómicas existentes, incluyendo púlsares aislados, magnetares y sistemas binarios, que permiten evaluar de forma directa las masas de las estrellas de neutrones. Finalmente, y apoyándose en la detección de ondas gravitacionales, se pondrá en contexto el estado actual y la reevaluación de dichos límites de masa, con un profundo impacto en las ecuaciones de estado de materia nuclear.
Dirección
ALVAREZ POL, HECTOR (Tutoría)
ALVAREZ POL, HECTOR (Tutoría)
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Análisis del fenómeno de Espacio-Carga en la TPC Presurizada del experimento DUNE (ND-GAr)
Autoría
A.L.B.
Grado en Física
A.L.B.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El espacio carga consiste en la deformación del campo eléctrico en un detector de ionización, producido por una velocidad de deriva de los iones mucho menor a la de los electrones. Esta deformación en el campo induce a su vez una deformación en la medida de la posición transversal de las partículas detectadas. En este trabajo se propone un análisis analítico para los campos de espacio carga en los casos de inyección de carga continua y pulsada. Este análisis es usado para estimar el efecto que tendrá el espacio carga en la TPC ND-GAr del experimento DUNE, que tendrá como objetivo principal el estudio del proceso de oscilación de neutrinos. Se usan valores realistas para este detector, y se estudian mezclas de Ar/CH4 y Ar/CF4, tanto para el espacio carga producido por el propio haz de neutrinos, como por los muones cósmicos. El resultado es una deformación en la posición transversal para el caso más desfavorable de O(mm).
El espacio carga consiste en la deformación del campo eléctrico en un detector de ionización, producido por una velocidad de deriva de los iones mucho menor a la de los electrones. Esta deformación en el campo induce a su vez una deformación en la medida de la posición transversal de las partículas detectadas. En este trabajo se propone un análisis analítico para los campos de espacio carga en los casos de inyección de carga continua y pulsada. Este análisis es usado para estimar el efecto que tendrá el espacio carga en la TPC ND-GAr del experimento DUNE, que tendrá como objetivo principal el estudio del proceso de oscilación de neutrinos. Se usan valores realistas para este detector, y se estudian mezclas de Ar/CH4 y Ar/CF4, tanto para el espacio carga producido por el propio haz de neutrinos, como por los muones cósmicos. El resultado es una deformación en la posición transversal para el caso más desfavorable de O(mm).
Dirección
GONZALEZ DIAZ, DIEGO (Tutoría)
GONZALEZ DIAZ, DIEGO (Tutoría)
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Detectores de centelleo y sistemas electrónicos para la evaluación de dosis en contenedores de residuos radiactivos
Autoría
S.T.L.P.
Grado en Física
S.T.L.P.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Los contenedores de residuos radiactivos almacenan los residuos del combustible gastado en centrales nucleares, para su almacenamiento temporal o definitivo en repositorios geológicamente estables de alta profundidad. La medida de la dosis generada por los residuos de los contenedores es un problema que se puede abordar con diferentes detectores simples pero que permitan una caracterización dosimétrica suficiente para determinar el estado del contenedor. En este proyecto, se plantea y diseña un detector basado en fotodiodos de avalancha (APDs) para la determinación de la dosis radiactiva mediante un diseño electrónico sencillo, que optimice el tamaño y la puesta en funcionamiento del detector.
Los contenedores de residuos radiactivos almacenan los residuos del combustible gastado en centrales nucleares, para su almacenamiento temporal o definitivo en repositorios geológicamente estables de alta profundidad. La medida de la dosis generada por los residuos de los contenedores es un problema que se puede abordar con diferentes detectores simples pero que permitan una caracterización dosimétrica suficiente para determinar el estado del contenedor. En este proyecto, se plantea y diseña un detector basado en fotodiodos de avalancha (APDs) para la determinación de la dosis radiactiva mediante un diseño electrónico sencillo, que optimice el tamaño y la puesta en funcionamiento del detector.
Dirección
ALVAREZ POL, HECTOR (Tutoría)
CASAREJOS RUIZ, ENRIQUE Cotutoría
ALVAREZ POL, HECTOR (Tutoría)
CASAREJOS RUIZ, ENRIQUE Cotutoría
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Estudio del rendimiento del sistema de seguimiento en colisiones PbPb en el experimento LHCb.
Autoría
A.L.M.
Grado en Física
A.L.M.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El objetivo de este trabajo es estimar correctamente el porcentaje de trazas reales reconstruidas respecto al total en colisiones plomo plomo en el experimento LHCb. Para llevar a cabo este análisis se utiliza inicialmente una simulación de Monte Carlo corregida mediante un algoritmo de reponderación denominado GBReweighter. A continuación, la distribución de probabilidad de que una traza sea fantasma en la simulación se ajusta a la distribución experimental con el fin de mejorar la concordancia y obtener una estimación más precisa de la pureza de nuestros datos. Este análisis es fundamental para evitar interpretaciones erróneas de la información procedente de la colisión de iones pesados, que podrían conducir a conclusiones incorrectas sobre la física real del sistema.
El objetivo de este trabajo es estimar correctamente el porcentaje de trazas reales reconstruidas respecto al total en colisiones plomo plomo en el experimento LHCb. Para llevar a cabo este análisis se utiliza inicialmente una simulación de Monte Carlo corregida mediante un algoritmo de reponderación denominado GBReweighter. A continuación, la distribución de probabilidad de que una traza sea fantasma en la simulación se ajusta a la distribución experimental con el fin de mejorar la concordancia y obtener una estimación más precisa de la pureza de nuestros datos. Este análisis es fundamental para evitar interpretaciones erróneas de la información procedente de la colisión de iones pesados, que podrían conducir a conclusiones incorrectas sobre la física real del sistema.
Dirección
SANTAMARINA RIOS, CIBRAN (Tutoría)
BELIN , SAMUEL JULES Cotutoría
SANTAMARINA RIOS, CIBRAN (Tutoría)
BELIN , SAMUEL JULES Cotutoría
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Caos y Fractalidad
Autoría
J.M.L.P.
Grado en Física
J.M.L.P.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
El objetivo de este trabajo es establecer la relación entre los sistemas caóticos y la fractalidad. Las ecuaciones de Lorenz constituyen un ejemplo de sistema caótico, y haremos un análisis de la región de parámetros en la que presentan ese carácter caótico. Posteriormente, describiremos en qué consisten los atractores extraños y justificaremos su estructura fractal. Por último, indagaremos brevemente en las diferentes definiciones de dimensión fractal, y calcularemos la dimensión del conjunto de Cantor y la dimensión de correlación del atractor extraño de Lorenz.
El objetivo de este trabajo es establecer la relación entre los sistemas caóticos y la fractalidad. Las ecuaciones de Lorenz constituyen un ejemplo de sistema caótico, y haremos un análisis de la región de parámetros en la que presentan ese carácter caótico. Posteriormente, describiremos en qué consisten los atractores extraños y justificaremos su estructura fractal. Por último, indagaremos brevemente en las diferentes definiciones de dimensión fractal, y calcularemos la dimensión del conjunto de Cantor y la dimensión de correlación del atractor extraño de Lorenz.
Dirección
MIGUEZ MACHO, GONZALO (Tutoría)
MIGUEZ MACHO, GONZALO (Tutoría)
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Fluctuaciones críticas en superconductores laminares de pocos planos: Extensión de las predicciones teóricas de conductividad eléctrica
Autoría
F.L.S.
Grado en Física
F.L.S.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Se presenta un estudio teórico en que se calculan varias expresiones novedosas para la conductividad eléctrica en el estado precursor de superconductores compuestos por un número finito pequeño de planos paralelos (few-layer superconductors). En particular, a través de un tratamiento matricial del funcional Ginzburg-Landau superconductor adaptado a la geometría a estudiar, se obtienen expresiones explícitas para las contribuciones directas e indirectas a la paraconductividad, mientras que cálculos anteriores (que precisaban del cálculo de los autovalores de la energía de dicho funcional) no alcanzaban los casos de un número arbitrario de planos ni las contribuciones indirectas. Asímismo, estas expresiones se comparan, obteniéndose un buen acuerdo, con datos existentes de sistemas few-layer de Bi3O2S3, cuyo estado precursor hasta nuestro conocimiento nunca había sido analizado con anterioridad.
Se presenta un estudio teórico en que se calculan varias expresiones novedosas para la conductividad eléctrica en el estado precursor de superconductores compuestos por un número finito pequeño de planos paralelos (few-layer superconductors). En particular, a través de un tratamiento matricial del funcional Ginzburg-Landau superconductor adaptado a la geometría a estudiar, se obtienen expresiones explícitas para las contribuciones directas e indirectas a la paraconductividad, mientras que cálculos anteriores (que precisaban del cálculo de los autovalores de la energía de dicho funcional) no alcanzaban los casos de un número arbitrario de planos ni las contribuciones indirectas. Asímismo, estas expresiones se comparan, obteniéndose un buen acuerdo, con datos existentes de sistemas few-layer de Bi3O2S3, cuyo estado precursor hasta nuestro conocimiento nunca había sido analizado con anterioridad.
Dirección
VAZQUEZ RAMALLO, MANUEL (Tutoría)
VAZQUEZ RAMALLO, MANUEL (Tutoría)
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Terapias de control en modelos de crecimiento tumoral con radioterapia
Autoría
A.L.R.
Grado en Física
A.L.R.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Tras una pequeña introducción sobre la dinámica general y los aspectos más básicos del cáncer, el trabajo propuesto parte de un breve estudio bibliográfico de diversos modelos de crecimiento tumoral (exponencial, Gompertz y Verhulst) y de respuesta a la radioterapia (modelo Linear-Quadratic), en los que se aprecian dinámicas de competición entre dos poblaciones (células sanas y cancerígenas). De este modo, se hace un análisis de su formulación matemática, determinándose cuál reproduce mejor los resultados de la literatura. Asimismo, se combinan dichos modelos con la ecuación de difusión, obteniéndose así simulaciones numéricas en 1D y 2D en la dimensión espacial y temporal. El resto del trabajo se centra en mejorar y optimizar todo lo visto con anterioridad, tratando de minimizar la dosis de radioterapia recibida por el paciente durante la ventana de tratamiento. Para ello, se emplean estrategias de control óptimo sobre un sistema de dos ecuaciones diferenciales acopladas y descritas por un modelo de Verhulst levemente modificado. Esto nos permite comparar los tres escenarios posibles y sus diagramas de estabilidad: sin controlar, con control constante y con control óptimo. En esencia, en este trabajo se va construyendo progresivamente un modelo matemático simple sobre el cáncer, que se va corrigiendo y mejorando, involucrando métodos de resolución numéricos y un estudio bibliográfico y matemático.
Tras una pequeña introducción sobre la dinámica general y los aspectos más básicos del cáncer, el trabajo propuesto parte de un breve estudio bibliográfico de diversos modelos de crecimiento tumoral (exponencial, Gompertz y Verhulst) y de respuesta a la radioterapia (modelo Linear-Quadratic), en los que se aprecian dinámicas de competición entre dos poblaciones (células sanas y cancerígenas). De este modo, se hace un análisis de su formulación matemática, determinándose cuál reproduce mejor los resultados de la literatura. Asimismo, se combinan dichos modelos con la ecuación de difusión, obteniéndose así simulaciones numéricas en 1D y 2D en la dimensión espacial y temporal. El resto del trabajo se centra en mejorar y optimizar todo lo visto con anterioridad, tratando de minimizar la dosis de radioterapia recibida por el paciente durante la ventana de tratamiento. Para ello, se emplean estrategias de control óptimo sobre un sistema de dos ecuaciones diferenciales acopladas y descritas por un modelo de Verhulst levemente modificado. Esto nos permite comparar los tres escenarios posibles y sus diagramas de estabilidad: sin controlar, con control constante y con control óptimo. En esencia, en este trabajo se va construyendo progresivamente un modelo matemático simple sobre el cáncer, que se va corrigiendo y mejorando, involucrando métodos de resolución numéricos y un estudio bibliográfico y matemático.
Dirección
Pérez Muñuzuri, Alberto (Tutoría)
López Pedrares, Javier Cotutoría
Pérez Muñuzuri, Alberto (Tutoría)
López Pedrares, Javier Cotutoría
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Aprendizaje automático para la selección de mesones B en el experimento LHCb
Autoría
M.L.R.
Grado en Física
M.L.R.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Las discrepancias actuales en las razones semileptónicas R(D) frente al Modelo Estándar ponen de manifiesto la necesidad de muestras de señal extremadamente puras. Tras presentar brevemente el contexto teórico y el experimento LHCb, nos centramos en el estudio del canal hadrónico B0 a D(menos) pi(mas) pi(menos) pi(mas) con D(menos) a pi(menos) K(mas) pi(menos), empleando datos reales de LHCb (Run 2, 2016 hasta 2018) junto con simulaciones Monte Carlo. Seleccionamos las variables con mayor contraste entre señal simulada y fondo real, y probamos distintas arquitecturas del perceptrón multicapa (MLP) con scikit learn con el objetivo de conseguir una red neuronal capaz de encontrar el corte óptimo que rechace el mayor número de eventos de fondo posible manteniendo una alta eficiencia de la señal en nuestros datos. El clasificador alcanzó un AUC de 0.97 y mejoró la relación señal fondo del 82 por ciento al 288 por ciento, conservando más del 96 por ciento de la señal. Posteriormente, con la muestra purificada, ajustamos la distribución de masa del mesón B0 mediante ROOT RooFit, obteniendo m(B0) igual a 5280,00 MeV por c2 con una incertidumbre de 0,13 MeV por c2, en concordancia con las referencias existentes. Estos resultados muestran el potencial de las redes neuronales para preparar muestras de alta pureza, clave en futuras mediciones semileptónicas y en la búsqueda de nueva física.
Las discrepancias actuales en las razones semileptónicas R(D) frente al Modelo Estándar ponen de manifiesto la necesidad de muestras de señal extremadamente puras. Tras presentar brevemente el contexto teórico y el experimento LHCb, nos centramos en el estudio del canal hadrónico B0 a D(menos) pi(mas) pi(menos) pi(mas) con D(menos) a pi(menos) K(mas) pi(menos), empleando datos reales de LHCb (Run 2, 2016 hasta 2018) junto con simulaciones Monte Carlo. Seleccionamos las variables con mayor contraste entre señal simulada y fondo real, y probamos distintas arquitecturas del perceptrón multicapa (MLP) con scikit learn con el objetivo de conseguir una red neuronal capaz de encontrar el corte óptimo que rechace el mayor número de eventos de fondo posible manteniendo una alta eficiencia de la señal en nuestros datos. El clasificador alcanzó un AUC de 0.97 y mejoró la relación señal fondo del 82 por ciento al 288 por ciento, conservando más del 96 por ciento de la señal. Posteriormente, con la muestra purificada, ajustamos la distribución de masa del mesón B0 mediante ROOT RooFit, obteniendo m(B0) igual a 5280,00 MeV por c2 con una incertidumbre de 0,13 MeV por c2, en concordancia con las referencias existentes. Estos resultados muestran el potencial de las redes neuronales para preparar muestras de alta pureza, clave en futuras mediciones semileptónicas y en la búsqueda de nueva física.
Dirección
ROMERO VIDAL, ANTONIO (Tutoría)
NÓVOA FERNÁNDEZ, JULIO Cotutoría
ROMERO VIDAL, ANTONIO (Tutoría)
NÓVOA FERNÁNDEZ, JULIO Cotutoría
Tribunal
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
HERNANDO MORATA, JOSE ANGEL (Presidente/a)
SERANTES ABALO, DAVID (Secretario/a)
MENDEZ MORALES, TRINIDAD (Vocal)
Eficiencia de colección en cámaras de ionización
Autoría
L.L.S.
Grado en Física
L.L.S.
Grado en Física
Fecha de la defensa
17.07.2025 10:00
17.07.2025 10:00
Resumen
La radioterapia FLASH, emergente en el ámbito oncológico, se presenta como una herramienta prometedora, aunque acompañada de importantes desafíos dosimétricos. Este trabajo aborda el funcionamiento de las cámaras de ionización y los procesos físicos asociados, así como el estudio de su eficiencia de colección bajo las condiciones extremas de este régimen, donde las altas dosis por pulso desafían a la física de la recombinación y evidencian las limitaciones de los modelos tradicionales. Con este propósito, se analizan los datos obtenidos en el acelerador MELAF del PTB de Alemania y se contrastan con las predicciones de un modelo numérico existente que incorpora efectos relevantes no contemplados por las formulaciones clásicas. Este enfoque combinado permite evaluar la consistencia de los modelos actuales y profundizar en la comprensión del rendimiento real de las cámaras de ionización en FLASH, avanzando hacia una dosimetría más precisa que pueda acompañar el potencial terapéutico de esta técnica.
La radioterapia FLASH, emergente en el ámbito oncológico, se presenta como una herramienta prometedora, aunque acompañada de importantes desafíos dosimétricos. Este trabajo aborda el funcionamiento de las cámaras de ionización y los procesos físicos asociados, así como el estudio de su eficiencia de colección bajo las condiciones extremas de este régimen, donde las altas dosis por pulso desafían a la física de la recombinación y evidencian las limitaciones de los modelos tradicionales. Con este propósito, se analizan los datos obtenidos en el acelerador MELAF del PTB de Alemania y se contrastan con las predicciones de un modelo numérico existente que incorpora efectos relevantes no contemplados por las formulaciones clásicas. Este enfoque combinado permite evaluar la consistencia de los modelos actuales y profundizar en la comprensión del rendimiento real de las cámaras de ionización en FLASH, avanzando hacia una dosimetría más precisa que pueda acompañar el potencial terapéutico de esta técnica.
Dirección
GOMEZ RODRIGUEZ, FAUSTINO (Tutoría)
Paz Martín, José Cotutoría
GOMEZ RODRIGUEZ, FAUSTINO (Tutoría)
Paz Martín, José Cotutoría
Tribunal
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
MIRA PEREZ, JORGE (Presidente/a)
CID VIDAL, XABIER (Secretario/a)
MOSQUEIRA REY, JESUS MANUEL (Vocal)
Aplicación del mecanismo de pistón a reacciones de arranque de protón
Autoría
M.L.F.
Grado en Física
M.L.F.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
En este trabajo se estudia la aplicabilidad del mecanismo del pistón en desintegraciones nucleares con emisión de dos neutrones, originadas tras reacciones de knockout. Mediante un modelo de mezcla de configuraciones nucleares y su evolución temporal, se analiza en qué condiciones puede desarrollarse este mecanismo y dar lugar a oscilaciones coherentes entre estados cuánticos. El estudio se enmarca en el contexto de experimentos actuales en el GSI con detectores de neutrones de alta resolución, que permiten observar correlaciones entre partículas en los productos de desintegración. Se identifican los parámetros clave que determinan la relevancia física del mecanismo, como la vida media del estado excitado, el período de oscilación y el grado de mezcla entre configuraciones.
En este trabajo se estudia la aplicabilidad del mecanismo del pistón en desintegraciones nucleares con emisión de dos neutrones, originadas tras reacciones de knockout. Mediante un modelo de mezcla de configuraciones nucleares y su evolución temporal, se analiza en qué condiciones puede desarrollarse este mecanismo y dar lugar a oscilaciones coherentes entre estados cuánticos. El estudio se enmarca en el contexto de experimentos actuales en el GSI con detectores de neutrones de alta resolución, que permiten observar correlaciones entre partículas en los productos de desintegración. Se identifican los parámetros clave que determinan la relevancia física del mecanismo, como la vida media del estado excitado, el período de oscilación y el grado de mezcla entre configuraciones.
Dirección
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
FEIJOO FONTAN, MARTINA Cotutoría
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
FEIJOO FONTAN, MARTINA Cotutoría
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Poniendo a prueba la observación conjunta madiante ondas gravitacionales y electromagnéticas del evento GW190521 mediante medidas de spin y retroceso gravitacional.
Autoría
U.M.R.
Grado en Física
U.M.R.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
El objetivo de este trabajo será evaluar la hipótesis de origen común para la señal de onda gravitacional GW190521 y su contrapartida electromagnética candidata ZTF19abanrhr. Introduciremos el formalismo estadístico que emplearemos para llevar a cabo el análisis de datos y presentaremos las restricciones que se impondrán a los parámetros estudiados. En primer lugar haremos el análisis centrándonos solamente en la localización en el cielo y en la distancia de luminosidad de las fuentes para después introducir restricciones adicionales relacionadas con el mecanismo de emisión de la señal electromagnética.
El objetivo de este trabajo será evaluar la hipótesis de origen común para la señal de onda gravitacional GW190521 y su contrapartida electromagnética candidata ZTF19abanrhr. Introduciremos el formalismo estadístico que emplearemos para llevar a cabo el análisis de datos y presentaremos las restricciones que se impondrán a los parámetros estudiados. En primer lugar haremos el análisis centrándonos solamente en la localización en el cielo y en la distancia de luminosidad de las fuentes para después introducir restricciones adicionales relacionadas con el mecanismo de emisión de la señal electromagnética.
Dirección
CALDERON BUSTILLO, JUAN (Tutoría)
CALDERON BUSTILLO, JUAN (Tutoría)
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Modelización del comportamiento térmico de suelos afectados por incendios forestales.
Autoría
J.J.M.B.
Grado en Física
J.J.M.B.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
En este Trabajo de Fin de Grado se propone un avance en el estudio del comportamiento térmico de suelos afectados por incendios forestales mediante la modelización de los termogramas de suelos obtenidos previamente por Calorimetría Diferencial de Barrido (DSC). El objetivo principal es la separación de los procesos térmicos que ocurren en la materia orgánica del suelo y analizar sus cambios como consecuencia de un calentamiento en laboratorio, aplicando diferentes funciones matemáticas Para ello, se ha desarrollado un software en Python que permite el ajuste de curvas térmicas a partir de datos experimentales, integrando herramientas de suavizado, corrección de ruido, detección de mínimos y ajuste de parámetros mediante el algoritmo de Levenberg-Marquardt. Se han analizado muestras de un suelo de la zona de Antela (Xinzo de Limia, Ourense), tanto sin tratar como sometidas a tratamiento térmico de 300 grados Celsius. Los resultados muestran que la suma de tres funciones gaussianas es el modelo más eficaz y estadísticamente robusto (Coeficiente de determinación mayor que 0.999) para describir las curvas DSC, identificando tres eventos exotérmcios principales: combustión de la materia orgánica lábil (200-300 grados Celsius), combustión de la materia orgánica recalcitrante (300-400 grados Celsius) y degradación de compuestos generados durante la propia combustión (mayor que 400 grados Celsius). Se concluye que el modelo propuesto permite caracterizar con precisión el estado térmico del suelo, facilitando la identificación del daño sufrido y su posible recuperación. Esta metodología constituye una herramienta replicable y transferible para la evaluación de suelos post-incendio, con aplicaciones potenciales en la restauración ecológica y la gestión forestal.
En este Trabajo de Fin de Grado se propone un avance en el estudio del comportamiento térmico de suelos afectados por incendios forestales mediante la modelización de los termogramas de suelos obtenidos previamente por Calorimetría Diferencial de Barrido (DSC). El objetivo principal es la separación de los procesos térmicos que ocurren en la materia orgánica del suelo y analizar sus cambios como consecuencia de un calentamiento en laboratorio, aplicando diferentes funciones matemáticas Para ello, se ha desarrollado un software en Python que permite el ajuste de curvas térmicas a partir de datos experimentales, integrando herramientas de suavizado, corrección de ruido, detección de mínimos y ajuste de parámetros mediante el algoritmo de Levenberg-Marquardt. Se han analizado muestras de un suelo de la zona de Antela (Xinzo de Limia, Ourense), tanto sin tratar como sometidas a tratamiento térmico de 300 grados Celsius. Los resultados muestran que la suma de tres funciones gaussianas es el modelo más eficaz y estadísticamente robusto (Coeficiente de determinación mayor que 0.999) para describir las curvas DSC, identificando tres eventos exotérmcios principales: combustión de la materia orgánica lábil (200-300 grados Celsius), combustión de la materia orgánica recalcitrante (300-400 grados Celsius) y degradación de compuestos generados durante la propia combustión (mayor que 400 grados Celsius). Se concluye que el modelo propuesto permite caracterizar con precisión el estado térmico del suelo, facilitando la identificación del daño sufrido y su posible recuperación. Esta metodología constituye una herramienta replicable y transferible para la evaluación de suelos post-incendio, con aplicaciones potenciales en la restauración ecológica y la gestión forestal.
Dirección
SALGADO CARBALLO, JOSEFA (Tutoría)
PARAJO VIEITO, JUAN JOSE Cotutoría
SALGADO CARBALLO, JOSEFA (Tutoría)
PARAJO VIEITO, JUAN JOSE Cotutoría
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Estudio de la turbulencia débil en las ecuaciones de Einstein
Autoría
A.M.F.
Grado en Física
A.M.F.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
Este trabajo explora la dinámica no lineal de un campo estocástico de ondas gravitacionales, un escenario físico relevante para el universo primordial. Partiendo de las ecuaciones de Einstein en el vacío bajo la métrica de Hadad-Zakharov, se aplica el método de las múltiples escalas temporales para superar las limitaciones de las teorías perturbativas estándar, que fracasan debido a la aparición de términos seculares. El objetivo principal es la derivación de la ecuación cinética que gobierna la evolución estadística del espectro de acción de onda para un sistema dominado por interacciones de cuatro ondas. Una vez obtenida la ecuación cinética, se analizan sus soluciones estacionarias, identificando dos familias: los espectros de equilibrio termodinámico de Rayleigh-Jeans y los de no-equilibrio de Kolmogorov-Zakharov. El resultado más significativo es la predicción de una doble cascada: una cascada directa de energía hacia las escalas pequeñas y una cascada inversa de acción de onda hacia las escalas grandes.
Este trabajo explora la dinámica no lineal de un campo estocástico de ondas gravitacionales, un escenario físico relevante para el universo primordial. Partiendo de las ecuaciones de Einstein en el vacío bajo la métrica de Hadad-Zakharov, se aplica el método de las múltiples escalas temporales para superar las limitaciones de las teorías perturbativas estándar, que fracasan debido a la aparición de términos seculares. El objetivo principal es la derivación de la ecuación cinética que gobierna la evolución estadística del espectro de acción de onda para un sistema dominado por interacciones de cuatro ondas. Una vez obtenida la ecuación cinética, se analizan sus soluciones estacionarias, identificando dos familias: los espectros de equilibrio termodinámico de Rayleigh-Jeans y los de no-equilibrio de Kolmogorov-Zakharov. El resultado más significativo es la predicción de una doble cascada: una cascada directa de energía hacia las escalas pequeñas y una cascada inversa de acción de onda hacia las escalas grandes.
Dirección
FARIÑA BIASI, ANXO (Tutoría)
FARIÑA BIASI, ANXO (Tutoría)
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Estudio teórico-computacional de mezclas de líquidos iónicos, carbonatos y sales de litio.
Autoría
P.M.N.
Grado en Física
P.M.N.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
Los líquidos iónicos (LI) son compuestos de gran interés en el campo del almacenamiento energético y unos candidatos para sustituir los electrolitos habitualmente utilizados. En este estudio se analizarán tanto experimental como computacionalmente mezclas ternarias entre el LI 1-etil-3-metilimidazolio bis(trifluorometilsulfonil)imida (EMIM-TFSI), una sal de litio (Li-TFSI) y carbonato de etileno (EC) como cosolvente. En particular obtendremos valores para la conductividad eléctrica de las mezclas y realizaremos una comparativa entre los resultados obtenidos.
Los líquidos iónicos (LI) son compuestos de gran interés en el campo del almacenamiento energético y unos candidatos para sustituir los electrolitos habitualmente utilizados. En este estudio se analizarán tanto experimental como computacionalmente mezclas ternarias entre el LI 1-etil-3-metilimidazolio bis(trifluorometilsulfonil)imida (EMIM-TFSI), una sal de litio (Li-TFSI) y carbonato de etileno (EC) como cosolvente. En particular obtendremos valores para la conductividad eléctrica de las mezclas y realizaremos una comparativa entre los resultados obtenidos.
Dirección
MENDEZ MORALES, TRINIDAD (Tutoría)
PARAJO VIEITO, JUAN JOSE Cotutoría
MENDEZ MORALES, TRINIDAD (Tutoría)
PARAJO VIEITO, JUAN JOSE Cotutoría
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Estudio de las desintegraciones al estado final Ds+pi+pi- con los datos del Run 3 tomados por el experimento LHCb del CERN.
Autoría
H.M.F.
Grado en Física
H.M.F.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
Los hadrones Ds1(2460)+ y Ds1(2536)+ son estados excitados, con el mismo sabor, pero con mayor masa que el Ds+. El Ds1(2460)+ es un hadrón candidato a tetraquark debido a cualidades como su pequeña anchura y su proximidad al umbral D*K. Por lo tanto, el objetivo de este trabajo es estudiar la naturaleza del Ds1(2460)+ mediante su producción usando como referencia el Ds1(2536)+, al ser este un mesón común. Para ello, usaremos las desintegraciones DsJ a Ds+pi+pi-, que nos proporciona un canal más limpio al solo tener hadrones en el estado final. Gracias al aumento de luminosidad y las mejoras en la reconstrucción de hadrones en el reciente Upgrade I del experimento LHCb se espera una mayor eficiencia de detección de estas desintegraciones, lo que permite suplir su relativa baja tasa de desintegración. Entonces, usaremos los nuevos datos del Run 3 del experimento LHCb, los comprobaremos y haremos un test del detector para este tipo de análisis. Para el estudio, lo primero es hacer una selección con cortes cinemáticos e identificativos mientras reconstruimos el mesón Ds+ mediante la desintegración Ds+ a K+K-pi+. Posteriormente reconstruiremos los mesones Ds1(2460)+ y Ds1(2536)+ y haremos un ajuste en masa invariante para obtener los sucesos de señal. Repetiremos este proceso en función de unos bines de pT y así conseguimos un cociente de la señal de los hadrones en función del pT que tomaremos como resultado final del análisis.
Los hadrones Ds1(2460)+ y Ds1(2536)+ son estados excitados, con el mismo sabor, pero con mayor masa que el Ds+. El Ds1(2460)+ es un hadrón candidato a tetraquark debido a cualidades como su pequeña anchura y su proximidad al umbral D*K. Por lo tanto, el objetivo de este trabajo es estudiar la naturaleza del Ds1(2460)+ mediante su producción usando como referencia el Ds1(2536)+, al ser este un mesón común. Para ello, usaremos las desintegraciones DsJ a Ds+pi+pi-, que nos proporciona un canal más limpio al solo tener hadrones en el estado final. Gracias al aumento de luminosidad y las mejoras en la reconstrucción de hadrones en el reciente Upgrade I del experimento LHCb se espera una mayor eficiencia de detección de estas desintegraciones, lo que permite suplir su relativa baja tasa de desintegración. Entonces, usaremos los nuevos datos del Run 3 del experimento LHCb, los comprobaremos y haremos un test del detector para este tipo de análisis. Para el estudio, lo primero es hacer una selección con cortes cinemáticos e identificativos mientras reconstruimos el mesón Ds+ mediante la desintegración Ds+ a K+K-pi+. Posteriormente reconstruiremos los mesones Ds1(2460)+ y Ds1(2536)+ y haremos un ajuste en masa invariante para obtener los sucesos de señal. Repetiremos este proceso en función de unos bines de pT y así conseguimos un cociente de la señal de los hadrones en función del pT que tomaremos como resultado final del análisis.
Dirección
GALLAS TORREIRA, ABRAHAM ANTONIO (Tutoría)
Cambón Bouzas, José Iván Cotutoría
GALLAS TORREIRA, ABRAHAM ANTONIO (Tutoría)
Cambón Bouzas, José Iván Cotutoría
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Caracterización de un tubo de rayos X de potencial constante.
Autoría
D.M.C.
Grado en Física
D.M.C.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
Este trabajo presenta una caracterización experimental completa de un tubo de rayos X de potencial constante, centrada en la determinación de su capa hemirreductora (HVL) y el perfil espacial del haz emitido. La HVL, que cuantifica la capacidad de penetración del haz y permite evaluar su calidad, se obtiene mediante métodos directos utilizando una cámara de ionización, y también se estima de forma indirecta a partir de espectros de energía registrados con un detector semiconductor de CdTe. Para corregir las distorsiones en los espectros medidos (debidas a efectos de escape, coincidencias aleatorias y dispersión Compton), se ha desarrollado y aplicado una matriz de respuesta específica del detector obtenida mediante simulaciones tipo Montecarlo. El estudio se complementa con comparaciones entre los resultados experimentales y modelos espectrales generados con el software SpekPy, lo que permite estimar parámetros como la filtración inherente del tubo y evaluar la influencia de la geometría del ánodo (efecto talón) sobre la distribución del haz. Asimismo, se analiza el perfil del haz en direcciones ortogonales empleando una bancada lineal motorizada, observándose la influencia de componentes estructurales y de la inclinación del ánodo sobre la homogeneidad del campo. Este trabajo proporciona una visión detallada del comportamiento real de un tubo de rayos X frente a modelos ideales, subrayando la importancia de combinar mediciones experimentales, simulaciones y modelos analíticos para una caracterización precisa. Los resultados son relevantes tanto desde el punto de vista de la dosimetría como para aplicaciones clínicas o experimentales donde se requiere un control riguroso de la calidad del haz.
Este trabajo presenta una caracterización experimental completa de un tubo de rayos X de potencial constante, centrada en la determinación de su capa hemirreductora (HVL) y el perfil espacial del haz emitido. La HVL, que cuantifica la capacidad de penetración del haz y permite evaluar su calidad, se obtiene mediante métodos directos utilizando una cámara de ionización, y también se estima de forma indirecta a partir de espectros de energía registrados con un detector semiconductor de CdTe. Para corregir las distorsiones en los espectros medidos (debidas a efectos de escape, coincidencias aleatorias y dispersión Compton), se ha desarrollado y aplicado una matriz de respuesta específica del detector obtenida mediante simulaciones tipo Montecarlo. El estudio se complementa con comparaciones entre los resultados experimentales y modelos espectrales generados con el software SpekPy, lo que permite estimar parámetros como la filtración inherente del tubo y evaluar la influencia de la geometría del ánodo (efecto talón) sobre la distribución del haz. Asimismo, se analiza el perfil del haz en direcciones ortogonales empleando una bancada lineal motorizada, observándose la influencia de componentes estructurales y de la inclinación del ánodo sobre la homogeneidad del campo. Este trabajo proporciona una visión detallada del comportamiento real de un tubo de rayos X frente a modelos ideales, subrayando la importancia de combinar mediciones experimentales, simulaciones y modelos analíticos para una caracterización precisa. Los resultados son relevantes tanto desde el punto de vista de la dosimetría como para aplicaciones clínicas o experimentales donde se requiere un control riguroso de la calidad del haz.
Dirección
GOMEZ RODRIGUEZ, FAUSTINO (Tutoría)
GOMEZ RODRIGUEZ, FAUSTINO (Tutoría)
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Desarrollo y caracterización de un detector de fuentes de ignición en el rango del ultravioleta
Autoría
C.N.L.
Grado en Física
C.N.L.
Grado en Física
Fecha de la defensa
17.07.2025 10:30
17.07.2025 10:30
Resumen
En este trabajo se presenta el desarrollo y caracterización de un sistema de detección de radiación en el rango ultravioleta (UV), cuyo elemento principal es el UVTron R13192 de Hamamatsu. Dicho dispositivo permite detectar en un rango de 185 a 260 nm y cuenta con una alta velocidad de respuesta, sensibilidad y capacidad de operación sin interferencia de la luz solar. El estudio incluye la construcción de un montaje experimental haciendo uso de un circuito C10807 y un osciloscopio y Arduino para la toma de medidas. Se realiza una calibración con una fuente alfa de americio gracias a la radioluminiscencia inducida en el nitrógeno del aire y se consigue un valor estimado para el número de fotones por pulso al cual es sensible el detector. Se analiza la sensibilidad tanto espacial como angular del sistema a partir de una fuente UV (lámpara L9657-03) de forma experimental y se completa con el desarrollo de una simulación en Geant4. Esta última permite reproducir el comportamiento del detector bajo diferentes configuraciones geométricas de forma versátil y sencilla. Por último, se proponen una serie de mejoras mediante un colimador recubierto de PTFE y se exploran tecnologías más avanzadas como los detectores S-RETGEM. Estos nuevos sistemas ofrecen una mayor sensibilidad y adaptabilidad a aplicaciones más exigentes, como la detección de incendios forestales. Esta investigación concluye y verifica la eficacia del UVTron para la detección de fuentes de ignición, además de ofrecer alternativas de mejoras futuras.
En este trabajo se presenta el desarrollo y caracterización de un sistema de detección de radiación en el rango ultravioleta (UV), cuyo elemento principal es el UVTron R13192 de Hamamatsu. Dicho dispositivo permite detectar en un rango de 185 a 260 nm y cuenta con una alta velocidad de respuesta, sensibilidad y capacidad de operación sin interferencia de la luz solar. El estudio incluye la construcción de un montaje experimental haciendo uso de un circuito C10807 y un osciloscopio y Arduino para la toma de medidas. Se realiza una calibración con una fuente alfa de americio gracias a la radioluminiscencia inducida en el nitrógeno del aire y se consigue un valor estimado para el número de fotones por pulso al cual es sensible el detector. Se analiza la sensibilidad tanto espacial como angular del sistema a partir de una fuente UV (lámpara L9657-03) de forma experimental y se completa con el desarrollo de una simulación en Geant4. Esta última permite reproducir el comportamiento del detector bajo diferentes configuraciones geométricas de forma versátil y sencilla. Por último, se proponen una serie de mejoras mediante un colimador recubierto de PTFE y se exploran tecnologías más avanzadas como los detectores S-RETGEM. Estos nuevos sistemas ofrecen una mayor sensibilidad y adaptabilidad a aplicaciones más exigentes, como la detección de incendios forestales. Esta investigación concluye y verifica la eficacia del UVTron para la detección de fuentes de ignición, además de ofrecer alternativas de mejoras futuras.
Dirección
AYYAD LIMONGE, FRANCESC YASSID (Tutoría)
CABO LANDEIRA, CRISTINA Cotutoría
AYYAD LIMONGE, FRANCESC YASSID (Tutoría)
CABO LANDEIRA, CRISTINA Cotutoría
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Propiedades Tribológicas de Nanofluidos de Transmisión para Vehículos Eléctricos y su Compatibilidad con Elastómeros
Autoría
P.N.P.
Grado en Física
P.N.P.
Grado en Física
Fecha de la defensa
17.07.2025 16:00
17.07.2025 16:00
Resumen
En este Trabajo Fin de Grado (TFG) se ha realizado un estudio tribológico de ocho nanolubricantes preparados a partir de un aceite base (PAO6) aditivado con nanopartículas (NPs) de Carburo de Titanio (TiC) o Carburo de Zirconio (ZrC). Se ha analizado el comportamiento antifricción y antidesgaste de ambas NPs mediante la medida del coeficiente de fricción en un tribómetro y de la huella de desgaste en un perfilómetro óptico. Para el nanolubricante con NPs de TiC solo se ha logrado una mejora del coeficiente de fricción del 8%, mientras que el que contiene NPs de ZrC ha reducido tanto el coeficiente de fricción en un 10% como el área de desgaste en un 17%. La concentración óptima para la cual se consiguió la mayor reducción de estos parámetros con respecto a la PAO6 fue del 0.01 wt% de NPs de ZrC. Con las dos dispersiones de concentración óptima se ha realizado un estudio de compatibilidad con tres elastómeros (cauchos de silicona, FKM y EPDM) efectuando tests de tracción y variación de volumen.
En este Trabajo Fin de Grado (TFG) se ha realizado un estudio tribológico de ocho nanolubricantes preparados a partir de un aceite base (PAO6) aditivado con nanopartículas (NPs) de Carburo de Titanio (TiC) o Carburo de Zirconio (ZrC). Se ha analizado el comportamiento antifricción y antidesgaste de ambas NPs mediante la medida del coeficiente de fricción en un tribómetro y de la huella de desgaste en un perfilómetro óptico. Para el nanolubricante con NPs de TiC solo se ha logrado una mejora del coeficiente de fricción del 8%, mientras que el que contiene NPs de ZrC ha reducido tanto el coeficiente de fricción en un 10% como el área de desgaste en un 17%. La concentración óptima para la cual se consiguió la mayor reducción de estos parámetros con respecto a la PAO6 fue del 0.01 wt% de NPs de ZrC. Con las dos dispersiones de concentración óptima se ha realizado un estudio de compatibilidad con tres elastómeros (cauchos de silicona, FKM y EPDM) efectuando tests de tracción y variación de volumen.
Dirección
FERNANDEZ PEREZ, JOSEFA (Tutoría)
GARCIA GUIMAREY, MARIA JESUS Cotutoría
FERNANDEZ PEREZ, JOSEFA (Tutoría)
GARCIA GUIMAREY, MARIA JESUS Cotutoría
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Desarrollo y caracterización de un sistema de transmisión de energía usando fibra óptica
Autoría
A.O.D.A.
Grado en Física
A.O.D.A.
Grado en Física
Fecha de la defensa
17.07.2025 16:00
17.07.2025 16:00
Resumen
A lo largo de los últimos años, hubo grandes avances en torno a la transmisión de energía mediante el uso de la luz. Los llamados sistema PBL (Power By Light) son una solución a la transmisión de energía que permiten un mayor control y seguridad haciendo que sean útiles en muchos ámbitos y ambientes. En este trabajo recogemos un proceso detallado de desarrollo y caracterización de un sistema de transmisión láser por fibra óptica basado en una célula de GaAs con una estructura epitaxial vertical (VEHSA) con un número total de 6 uniones p/n.
A lo largo de los últimos años, hubo grandes avances en torno a la transmisión de energía mediante el uso de la luz. Los llamados sistema PBL (Power By Light) son una solución a la transmisión de energía que permiten un mayor control y seguridad haciendo que sean útiles en muchos ámbitos y ambientes. En este trabajo recogemos un proceso detallado de desarrollo y caracterización de un sistema de transmisión láser por fibra óptica basado en una célula de GaAs con una estructura epitaxial vertical (VEHSA) con un número total de 6 uniones p/n.
Dirección
GARCIA LOUREIRO, ANTONIO JESUS (Tutoría)
FERNANDEZ LOZANO, JAVIER Cotutoría
GARCIA LOUREIRO, ANTONIO JESUS (Tutoría)
FERNANDEZ LOZANO, JAVIER Cotutoría
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Oleaje en Sistemas Costeros
Autoría
A.P.G.
Grado en Física
A.P.G.
Grado en Física
Fecha de la defensa
17.07.2025 16:00
17.07.2025 16:00
Resumen
Las características lineales del oleaje en nuestras costas se pueden estudiar mediante un problema de ondas de gravedad superficiales en el marco de los medios continuos. Estudiaremos la propagación del oleaje, su relación de dispersión y las características dinámicas y cinemáticas del flujo de partículas. Además, explicaremos fenómenos cotidianos como el asomeramiento, la refracción y la agrupación de olas en series apoyándonos en las propiedades de las ondas, que ejemplificaremos mediante simulaciones en SWAN, uno de los modelos espectrales de oleaje que se utilizan en MeteoGalicia.
Las características lineales del oleaje en nuestras costas se pueden estudiar mediante un problema de ondas de gravedad superficiales en el marco de los medios continuos. Estudiaremos la propagación del oleaje, su relación de dispersión y las características dinámicas y cinemáticas del flujo de partículas. Además, explicaremos fenómenos cotidianos como el asomeramiento, la refracción y la agrupación de olas en series apoyándonos en las propiedades de las ondas, que ejemplificaremos mediante simulaciones en SWAN, uno de los modelos espectrales de oleaje que se utilizan en MeteoGalicia.
Dirección
MIGUEZ MACHO, GONZALO (Tutoría)
MIGUEZ MACHO, GONZALO (Tutoría)
Tribunal
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
MERINO GAYOSO, CARLOS MIGUEL (Presidente/a)
PRIETO BLANCO, XESUS (Secretario/a)
Martinez Hernandez, Diego (Vocal)
Formación de Singularidades en las Ecuaciones de Euler: La Implosión de un Fluido
Autoría
A.P.O.
Grado en Física
A.P.O.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Con el fin de ilustrar una serie de técnicas y métodos utilizados para el estudio de singularidades, se analizan las ecuaciones de Euler para un gas isoentrópico y compresible mediante soluciones autosimilares que representan la implosión del fluido. Este hecho simplifica el sistema acoplado y permite analizarlo mediante un sistema autónomo en el que aparecen una serie de singularidades. Las trayectorias posibles se consiguen a partir de una integración numérica, que permite determinar los perfiles de densidad y velocidad para cualquier tiempo ante una compresión.
Con el fin de ilustrar una serie de técnicas y métodos utilizados para el estudio de singularidades, se analizan las ecuaciones de Euler para un gas isoentrópico y compresible mediante soluciones autosimilares que representan la implosión del fluido. Este hecho simplifica el sistema acoplado y permite analizarlo mediante un sistema autónomo en el que aparecen una serie de singularidades. Las trayectorias posibles se consiguen a partir de una integración numérica, que permite determinar los perfiles de densidad y velocidad para cualquier tiempo ante una compresión.
Dirección
FARIÑA BIASI, ANXO (Tutoría)
FARIÑA BIASI, ANXO (Tutoría)
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Estudio de la decoherencia y determinismo con blancos activos
Autoría
P.P.B.
Grado en Física
P.P.B.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Este trabajo presenta un estudio de la decoherencia cuántica, centrado en su manifestación en interferometría de onda-materia y su papel en la transición entre los regímenes cuántico y clásico. En particular, se analiza la decoherencia inducida por colisiones, a partir del desarrollo teórico de Hornberger et al., basado en interferometría con moléculas de fullereno en presencia de un gas de fondo. A partir del análisis de la visibilidad del patrón de interferencia en un interferómetro Talbot-Lau, se reproducen los cálculos del artículo mencionado para obtener la presión característica de decoherencia en distintos gases. El objetivo principal es extrapolar estos resultados a haces de electrones y estudiar las condiciones de aplicabilidad de dicha aproximación. Además, se estudia la viabilidad de implementar un sistema interferométrico para haces de electrones dentro de una cámara de proyección temporal con blancos activos, con el fin de posibilitar estudios experimentales de decoherencia en condiciones controladas. Finalmente, se exponen brevemente algunas aplicaciones tecnológicas relevantes del estudio de la decoherencia, tanto con electrones como con moléculas, así como posibles líneas de investigación abiertas en este ámbito.
Este trabajo presenta un estudio de la decoherencia cuántica, centrado en su manifestación en interferometría de onda-materia y su papel en la transición entre los regímenes cuántico y clásico. En particular, se analiza la decoherencia inducida por colisiones, a partir del desarrollo teórico de Hornberger et al., basado en interferometría con moléculas de fullereno en presencia de un gas de fondo. A partir del análisis de la visibilidad del patrón de interferencia en un interferómetro Talbot-Lau, se reproducen los cálculos del artículo mencionado para obtener la presión característica de decoherencia en distintos gases. El objetivo principal es extrapolar estos resultados a haces de electrones y estudiar las condiciones de aplicabilidad de dicha aproximación. Además, se estudia la viabilidad de implementar un sistema interferométrico para haces de electrones dentro de una cámara de proyección temporal con blancos activos, con el fin de posibilitar estudios experimentales de decoherencia en condiciones controladas. Finalmente, se exponen brevemente algunas aplicaciones tecnológicas relevantes del estudio de la decoherencia, tanto con electrones como con moléculas, así como posibles líneas de investigación abiertas en este ámbito.
Dirección
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Aplicación del principio de distribuciones colapsadas a la síntesis y diagnóstico de agrupaciones planas de antenas
Autoría
D.M.P.O.
Grado en Física
D.M.P.O.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Este trabajo presenta dos aplicaciones del principio de las distribuciones colapsadas. Este principio afirma que cada corte acimutal de un patrón de radiación producido por una agrupación plana de antenas, con phi = phi_o, es equivalente al patrón producido por una agrupación lineal. Esta agrupación lineal se obtiene proyectando las excitaciones de todos los elementos de la agrupación plana sobre el eje phi = phi_o. La primera aplicación utiliza esta idea con el fin de sintetizar una pequeña antena plana de 32 elementos en rejilla rectangular, contorno circular, y simetría en octantes. La solución a este problema requiere resolver un sistema lineal sobredeterminado de seis ecuaciones y cuatro incógnitas. Con este fin, hemos empleado un algorítmo de optimización híbrido de Simulated Annealing y Downhill Simplex para obtener una solución aproximada. La segunda aplicación presenta un nuevo algoritmo para la detección de elementos defectuosos en agrupaciones planas dañadas, que solo considera el caso de defectos tipo on-off. El método utiliza muestras complejas de campo lejano sobre los cortes acimutales, con phi = 0, 45 y 90 grados, del patrón de radiación afectado. Estas muestras se utilizan para realizar una búsqueda exhaustiva que encuentra las tres agrupaciones lineales colapsadas, a lo largo de las direcciones mencionadas, que mejor recrean los valores de las muestras de la agrupación plana dañada. De esta manera se pueden obtener las coordenadas de los elementos defectuosos a lo largo de estos tres ejes. Hemos aplicado este algoritmo para diagnosticar una antena de 76 elementos en rejilla rectangular con contorno circular y simetría en cuadrantes.
Este trabajo presenta dos aplicaciones del principio de las distribuciones colapsadas. Este principio afirma que cada corte acimutal de un patrón de radiación producido por una agrupación plana de antenas, con phi = phi_o, es equivalente al patrón producido por una agrupación lineal. Esta agrupación lineal se obtiene proyectando las excitaciones de todos los elementos de la agrupación plana sobre el eje phi = phi_o. La primera aplicación utiliza esta idea con el fin de sintetizar una pequeña antena plana de 32 elementos en rejilla rectangular, contorno circular, y simetría en octantes. La solución a este problema requiere resolver un sistema lineal sobredeterminado de seis ecuaciones y cuatro incógnitas. Con este fin, hemos empleado un algorítmo de optimización híbrido de Simulated Annealing y Downhill Simplex para obtener una solución aproximada. La segunda aplicación presenta un nuevo algoritmo para la detección de elementos defectuosos en agrupaciones planas dañadas, que solo considera el caso de defectos tipo on-off. El método utiliza muestras complejas de campo lejano sobre los cortes acimutales, con phi = 0, 45 y 90 grados, del patrón de radiación afectado. Estas muestras se utilizan para realizar una búsqueda exhaustiva que encuentra las tres agrupaciones lineales colapsadas, a lo largo de las direcciones mencionadas, que mejor recrean los valores de las muestras de la agrupación plana dañada. De esta manera se pueden obtener las coordenadas de los elementos defectuosos a lo largo de estos tres ejes. Hemos aplicado este algoritmo para diagnosticar una antena de 76 elementos en rejilla rectangular con contorno circular y simetría en cuadrantes.
Dirección
ARES PENA, FRANCISCO JOSE (Tutoría)
ARES PENA, FRANCISCO JOSE (Tutoría)
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Interacciones fármaco-albúmina: un estudio termodinámico
Autoría
C.P.G.
Grado en Física
C.P.G.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
La albúmina sérica humana (HSA, por sus siglas en inglés) es la principal proteína de la sangre y la que funciona como medio de transporte para una gran variedad de moléculas, incluido fármacos. La clomipramina es un fármaco del grupo de los antidepresivos cíclicos que ha demostrado una gran eficacia para tratar a pacientes con trastorno obsesivo-compulsivo. Cuenta con una compleja farmacocinética y elevada unión a proteínas lo que condicionan su eficacia clínica y generan una variabilidad muy amplia según el paciente. Los nanoclusters de metales nobles son agregados de decenas de átomos que tienen propiedades ópticas únicas y generan un importante fenómeno de fluorescencia. Se han sintetizado con éxito conjugados estables (con un promedio de 45 átomos de oro por proteína) que presentan una fluorescencia característica en rojo (620 nm). Se ha caracterizado fisicoquímicamente el conjugado para comprobar como la presencia de los nanoclusters de oro afectan al comportamiento de la clomipramina. Se ha demostrado que el conjugado mantiene la capacidad para unirse a la clomipramina con una afinidad similar a la HSA nativa y con una estequiometría de 1:1. Termodinámicamente, se ha demostrado mediante ITC que la unión es espontánea y exotérmica en ambos casos. Aunque para el conjugado se obtiene una contribución entálpica menos favorable compensada por una penalización entrópica menor, lo que implica que la proteína se vuelve más rígida y requiere un menor orden de reordenamiento. Estos resultados validan al conjugado HSA-AuNCs como un análogo funcional de la HSA que puede ser utilizado como sonda óptica para futuras aplicaciones de bioimagen.
La albúmina sérica humana (HSA, por sus siglas en inglés) es la principal proteína de la sangre y la que funciona como medio de transporte para una gran variedad de moléculas, incluido fármacos. La clomipramina es un fármaco del grupo de los antidepresivos cíclicos que ha demostrado una gran eficacia para tratar a pacientes con trastorno obsesivo-compulsivo. Cuenta con una compleja farmacocinética y elevada unión a proteínas lo que condicionan su eficacia clínica y generan una variabilidad muy amplia según el paciente. Los nanoclusters de metales nobles son agregados de decenas de átomos que tienen propiedades ópticas únicas y generan un importante fenómeno de fluorescencia. Se han sintetizado con éxito conjugados estables (con un promedio de 45 átomos de oro por proteína) que presentan una fluorescencia característica en rojo (620 nm). Se ha caracterizado fisicoquímicamente el conjugado para comprobar como la presencia de los nanoclusters de oro afectan al comportamiento de la clomipramina. Se ha demostrado que el conjugado mantiene la capacidad para unirse a la clomipramina con una afinidad similar a la HSA nativa y con una estequiometría de 1:1. Termodinámicamente, se ha demostrado mediante ITC que la unión es espontánea y exotérmica en ambos casos. Aunque para el conjugado se obtiene una contribución entálpica menos favorable compensada por una penalización entrópica menor, lo que implica que la proteína se vuelve más rígida y requiere un menor orden de reordenamiento. Estos resultados validan al conjugado HSA-AuNCs como un análogo funcional de la HSA que puede ser utilizado como sonda óptica para futuras aplicaciones de bioimagen.
Dirección
TOPETE CAMACHO, ANTONIO (Tutoría)
TOPETE CAMACHO, ANTONIO (Tutoría)
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
El efecto Hanbury Brown y Twiss: Simulación con moteado láser
Autoría
G.A.P.C.
Grado en Física
G.A.P.C.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Este Trabajo de Fin de Grado aborda la interferometría de intensidad al estilo de Hanbury Brown y Twiss (HBT) inicialmente desarrollada para la medida del tamaño angular de estrellas. Revisamos primero el marco clásico: la correlación de intensidad entre dos puntos de un fuente de orden procedente para una fuente térmica deriva, su descenso con la separación entre puntos (línea base) permite recuperar el diámetro estelar sin necesidad de información de fase. También mostramos cómo la teoría cuántica predice anticorrelación para estados de fotón único. Este experimento ilustra el contraste entre luz clásica y luz cuántica. Simulamos la fuente caótica en laboratorio con un láser y un difusor rotativo que nos permite controlar la coherencia temporal generando un moteado láser (speckle), una pequeña apertura simula la extensión de la estrella y cada par de píxeles de una cámara simula una configuración del observatorio astronómico de HBT. Los resultados son consistentes con las predicciones clásicas de Hanbury Brown y Twiss
Este Trabajo de Fin de Grado aborda la interferometría de intensidad al estilo de Hanbury Brown y Twiss (HBT) inicialmente desarrollada para la medida del tamaño angular de estrellas. Revisamos primero el marco clásico: la correlación de intensidad entre dos puntos de un fuente de orden procedente para una fuente térmica deriva, su descenso con la separación entre puntos (línea base) permite recuperar el diámetro estelar sin necesidad de información de fase. También mostramos cómo la teoría cuántica predice anticorrelación para estados de fotón único. Este experimento ilustra el contraste entre luz clásica y luz cuántica. Simulamos la fuente caótica en laboratorio con un láser y un difusor rotativo que nos permite controlar la coherencia temporal generando un moteado láser (speckle), una pequeña apertura simula la extensión de la estrella y cada par de píxeles de una cámara simula una configuración del observatorio astronómico de HBT. Los resultados son consistentes con las predicciones clásicas de Hanbury Brown y Twiss
Dirección
PRIETO BLANCO, XESUS (Tutoría)
BARRAL RAÑA, DAVID Cotutoría
PRIETO BLANCO, XESUS (Tutoría)
BARRAL RAÑA, DAVID Cotutoría
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Cálculo de la producción de núcleos exóticos con el nuevo haz de 186W en FAIR
Autoría
V.P.R.
Grado en Física
V.P.R.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
En la nueva instalación FAIR, aún en desenvolvimiento, se planea emplear un nuevo haz primario partiendo de una fuente de 186W que permitirá realizar mediciones de núcleos muy ricos en neutrones, cerca de la drip-line para elementos en la zona Z=69. En este caso, emplearemos reacciones de fragmentación de proyectiles de 186W a 1GeV/u inducidos por un blanco de Be. Para realizar estes experimentos, es preciso hacer cálculos previos sobre cuales serán las seccións eficaces de producción. A partir de estas secciones, se estimará la tasa de producción de una amplia gama de nucleidos comprendidos entre Z=55 y Z=72. Estes cálculos de produción de núcleos exóticos se harán gracias al código de simulación INCL+ABLA, de forma que se pueda concluír que esta nueva fuente se trata de una alternativa viable y de gran interés para futuros experimentos elaborados con el SUPER-FRS. Una vez producidos, los núcleos exóticos pueden enviarse a través de un espectrómetro de masas a diferentes áreas experimentais presentes en FAIR para estudiar sus propiedades: masa, desintegraciones, estrutura...
En la nueva instalación FAIR, aún en desenvolvimiento, se planea emplear un nuevo haz primario partiendo de una fuente de 186W que permitirá realizar mediciones de núcleos muy ricos en neutrones, cerca de la drip-line para elementos en la zona Z=69. En este caso, emplearemos reacciones de fragmentación de proyectiles de 186W a 1GeV/u inducidos por un blanco de Be. Para realizar estes experimentos, es preciso hacer cálculos previos sobre cuales serán las seccións eficaces de producción. A partir de estas secciones, se estimará la tasa de producción de una amplia gama de nucleidos comprendidos entre Z=55 y Z=72. Estes cálculos de produción de núcleos exóticos se harán gracias al código de simulación INCL+ABLA, de forma que se pueda concluír que esta nueva fuente se trata de una alternativa viable y de gran interés para futuros experimentos elaborados con el SUPER-FRS. Una vez producidos, los núcleos exóticos pueden enviarse a través de un espectrómetro de masas a diferentes áreas experimentais presentes en FAIR para estudiar sus propiedades: masa, desintegraciones, estrutura...
Dirección
ALVAREZ POL, HECTOR (Tutoría)
FEIJOO FONTAN, MARTINA Cotutoría
ALVAREZ POL, HECTOR (Tutoría)
FEIJOO FONTAN, MARTINA Cotutoría
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Explorando el límite físico de la resolución temporal en detectores gaseosos
Autoría
D.P.R.
Grado en Física
D.P.R.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
As RPCs (Resistive Plate Chambers) son un tipo de detectores usados actualmente en colisionadores coma o LHC do CERN entre outros, para a detección de partículas cargadas como muóns ou pións. No traballo contaremos como se desenvolveu o concepto das RPC partindo dos Geiger-Müller pasando por detectores de chispas PSC ata chegar aos modelos actuais das RPC. Ademais, estudiaremos os distintos posibles procesos que poderían acontecer dentro do detector; entre todos estes centrarémonos na aparición de avalanchas de portadores. Describiremos matematicamente tanto como se producen estas avalanchas e como evolucionan co tempo, tendo en conta as condicións do detector, obtendo á súa vez expresións coas que poder realizar simulacións de Monte Carlo do sistema. Tamén describiremos efectos importantes nas RPC, como a aparición de ‘streamers’ ou chispas e como se construíran os detectores tendo en conta ditos efectos. Por outro lado, partindo da expresión da intensidade inducida polo movemento de portadores no detector encontraremos expresións analíticas para obter a eficiencia e a resolución temporal do detector, para ambas magnitudes conseguiremos resultados de casos realistas e os compararemos cos achegados por publicacións para comprobar a veracidade de ditas expresións. Para finalizar utilizaremos o visto anteriormente nun caso particular, os detectores PICOSEC, que se están desenvolvendo estes últimos anos. Estes detectores usan a tecnoloxía das RCPs nun caso particular onde os electróns que son transportados no interior do detector son foto-electróns xerados por radiación Cherenkov. Isto último provocará certos cambios no estudio da resolución temporal do detector, cousa que nós comprobaremos obtendo a resolución para este tipo de detectores. Ao igual que coas RPCs comprobaremos a expresión usándoa en casos reais e comparando con resultados de publicacións.
As RPCs (Resistive Plate Chambers) son un tipo de detectores usados actualmente en colisionadores coma o LHC do CERN entre outros, para a detección de partículas cargadas como muóns ou pións. No traballo contaremos como se desenvolveu o concepto das RPC partindo dos Geiger-Müller pasando por detectores de chispas PSC ata chegar aos modelos actuais das RPC. Ademais, estudiaremos os distintos posibles procesos que poderían acontecer dentro do detector; entre todos estes centrarémonos na aparición de avalanchas de portadores. Describiremos matematicamente tanto como se producen estas avalanchas e como evolucionan co tempo, tendo en conta as condicións do detector, obtendo á súa vez expresións coas que poder realizar simulacións de Monte Carlo do sistema. Tamén describiremos efectos importantes nas RPC, como a aparición de ‘streamers’ ou chispas e como se construíran os detectores tendo en conta ditos efectos. Por outro lado, partindo da expresión da intensidade inducida polo movemento de portadores no detector encontraremos expresións analíticas para obter a eficiencia e a resolución temporal do detector, para ambas magnitudes conseguiremos resultados de casos realistas e os compararemos cos achegados por publicacións para comprobar a veracidade de ditas expresións. Para finalizar utilizaremos o visto anteriormente nun caso particular, os detectores PICOSEC, que se están desenvolvendo estes últimos anos. Estes detectores usan a tecnoloxía das RCPs nun caso particular onde os electróns que son transportados no interior do detector son foto-electróns xerados por radiación Cherenkov. Isto último provocará certos cambios no estudio da resolución temporal do detector, cousa que nós comprobaremos obtendo a resolución para este tipo de detectores. Ao igual que coas RPCs comprobaremos a expresión usándoa en casos reais e comparando con resultados de publicacións.
Dirección
GONZALEZ DIAZ, DIEGO (Tutoría)
GONZALEZ DIAZ, DIEGO (Tutoría)
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Desigualdades de Mermin en Ordenadores Cuánticos
Autoría
A.R.B.
Grado en Física
A.R.B.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
Este traballo explora o uso das desigualdades de Mermin, unha xeneralización multipartita das desigualdades de Bell, como ferramenta de dobre propósito: por unha banda, verificar experimentalmente a non-localidade da mecánica cuántica en sistemas con múltiples qubits; e por outra, avaliar a fidelidade dos computadores cuánticos actuais segundo a súa capacidade para xerar correlacións cuánticas multipartitas. Co gallo disto, propóñense dúas implementacións posíbeis en forma de circuítos cuánticos, inspiradas nos experimentos bipartitos de Clauser, Horne, Shimony e Holt (CHSH) e Aspect. Estas compleméntanse con métodos de mitigación de erros e unha rutina adaptábel para a xeración do estado GHZ, un estado cuántico altamente entrelazado que maximiza a violación das desigualdades. Por último, execútanse os experimentos tanto en emuladores de circuítos cuánticos como en computadores cuánticos reais.
Este traballo explora o uso das desigualdades de Mermin, unha xeneralización multipartita das desigualdades de Bell, como ferramenta de dobre propósito: por unha banda, verificar experimentalmente a non-localidade da mecánica cuántica en sistemas con múltiples qubits; e por outra, avaliar a fidelidade dos computadores cuánticos actuais segundo a súa capacidade para xerar correlacións cuánticas multipartitas. Co gallo disto, propóñense dúas implementacións posíbeis en forma de circuítos cuánticos, inspiradas nos experimentos bipartitos de Clauser, Horne, Shimony e Holt (CHSH) e Aspect. Estas compleméntanse con métodos de mitigación de erros e unha rutina adaptábel para a xeración do estado GHZ, un estado cuántico altamente entrelazado que maximiza a violación das desigualdades. Por último, execútanse os experimentos tanto en emuladores de circuítos cuánticos como en computadores cuánticos reais.
Dirección
MAS SOLE, JAVIER (Tutoría)
Díaz Camacho, Guillermo Cotutoría
MAS SOLE, JAVIER (Tutoría)
Díaz Camacho, Guillermo Cotutoría
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Espectrómetro de rayos X basado en detectores pasivos
Autoría
J.A.R.L.
Grado en Física
J.A.R.L.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
La producción de rayos X mediante pulsos láser ultra-cortos y de alta intensidad es una técnica emergente con aplicaciones prometedoras en medicina e investigación. Sin embargo, la caracterización espectral de este tipo de fuentes presenta algunos desafíos, debido a la gran intensidad y brevedad de los pulsos de radiación emitida, lo que limita el uso de detectores activos convencionales por fenómenos como el pile-up. En este trabajo se propone un sistema de espectroscopia basado en los detectores pasivos Image Plates (IPs), que no se ven afectados por dicha limitación. Para ello hemos realizado una calibración absoluta de estos detectores mediante la fluorescencia de rayos X de diversos materiales. Finalmente, hemos desarrollado una función de reconstrucción que permite recuperar el espectro original a partir de mediciones realizadas con filtros de distintos grosores interpuestos entre la fuente y las IPs.
La producción de rayos X mediante pulsos láser ultra-cortos y de alta intensidad es una técnica emergente con aplicaciones prometedoras en medicina e investigación. Sin embargo, la caracterización espectral de este tipo de fuentes presenta algunos desafíos, debido a la gran intensidad y brevedad de los pulsos de radiación emitida, lo que limita el uso de detectores activos convencionales por fenómenos como el pile-up. En este trabajo se propone un sistema de espectroscopia basado en los detectores pasivos Image Plates (IPs), que no se ven afectados por dicha limitación. Para ello hemos realizado una calibración absoluta de estos detectores mediante la fluorescencia de rayos X de diversos materiales. Finalmente, hemos desarrollado una función de reconstrucción que permite recuperar el espectro original a partir de mediciones realizadas con filtros de distintos grosores interpuestos entre la fuente y las IPs.
Dirección
ALEJO ALONSO, AARON JOSE (Tutoría)
ALEJO ALONSO, AARON JOSE (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Reconstrucción de trazas en NEXT utilizando redes neuronales
Autoría
M.R.M.
Grado en Física
M.R.M.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El experimento NEXT tiene como objetivo detectar la desintegración doble beta sin emisión de neutrinos, cuya observación podría tener importantes implicaciones en física de partículas. Para ello, se emplea el detector NEXT-100, una cámara de proyección temporal (Time Projection Chamber, TPC) con gas xenón a alta presión, ubicada en el Laboratorio Subterráneo de Canfranc (LSC). Este detector permite una reconstrucción tridimensional de las trazas dejadas por las partículas. Sin embargo, estas trazas reconstruidas presentan un aspecto difuso debido a efectos instrumentales. Para ello, se propone el uso de una red neuronal convolucional basada en segmentación semántica, con el objetivo de reconstruir una traza lo más similar posible a la original, eliminando las distorsiones introducidas por el detector. Se entrenaron varios modelos con distintas configuraciones, evaluando su desempeño a lo largo del proceso mediante la función de pérdida y la métrica Intersection over Union. Tras el entrenamiento y validación de la red, se aplicó el modelo a datos de prueba para generar predicciones. Finalmente, se estableció un umbral de decisión para evaluar los resultados, utilizando las métricas IoU y Accuracy para determinar el rendimiento del modelo y su capacidad para recuperar la traza original.
El experimento NEXT tiene como objetivo detectar la desintegración doble beta sin emisión de neutrinos, cuya observación podría tener importantes implicaciones en física de partículas. Para ello, se emplea el detector NEXT-100, una cámara de proyección temporal (Time Projection Chamber, TPC) con gas xenón a alta presión, ubicada en el Laboratorio Subterráneo de Canfranc (LSC). Este detector permite una reconstrucción tridimensional de las trazas dejadas por las partículas. Sin embargo, estas trazas reconstruidas presentan un aspecto difuso debido a efectos instrumentales. Para ello, se propone el uso de una red neuronal convolucional basada en segmentación semántica, con el objetivo de reconstruir una traza lo más similar posible a la original, eliminando las distorsiones introducidas por el detector. Se entrenaron varios modelos con distintas configuraciones, evaluando su desempeño a lo largo del proceso mediante la función de pérdida y la métrica Intersection over Union. Tras el entrenamiento y validación de la red, se aplicó el modelo a datos de prueba para generar predicciones. Finalmente, se estableció un umbral de decisión para evaluar los resultados, utilizando las métricas IoU y Accuracy para determinar el rendimiento del modelo y su capacidad para recuperar la traza original.
Dirección
HERNANDO MORATA, JOSE ANGEL (Tutoría)
PEREZ MANEIRO, MARTIN Cotutoría
HERNANDO MORATA, JOSE ANGEL (Tutoría)
PEREZ MANEIRO, MARTIN Cotutoría
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
La profundidad atmosférica de producción de muones en cascadas producidas por neutrinos en el Observatorio Pierre Auger
Autoría
P.R.R.
Grado en Física
P.R.R.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Los procesos astrofísicos extremos pueden producir partículas de altísima energía que llegan a la Tierra, entre ellas neutrinos. Como son partículas neutras, los neutrinos no son desviados por los campos magnéticos del cosmos en su reccorrido, y llegan apuntando directamente a su dirección de origen. Debido a su baja sección eficaz, la detección de estas partículas requiere detectores de un volumen enorme. El Observatorio Pierre Auger tiene la capacidad de detectar las cascadas atmosféricas producidas por las partículas primarias que llegan a la atmósfera. Los neutrinos, por ser capaces de atravesar grandes porciones de atmósfera sin interactuar, pueden iniciar cascadas a profundidades mucho mayores que las partículas primarias cargadas como los protones. La determinación de una cascada atmosférica a mucha profundidad permitiría su identificación como evento de neutrino. A medida que el ángulo de incidencia aumenta, crece la cantidad de atmósfera que pueden recorrer; lo que nos interesa, por tanto, es estudiar estos eventos altamente inclinados. En este trabajo vamos a analizar si el algoritmo de la reconstrucción de la distribución de Profundidad de Producción de Muones (MPD) funciona para eventos con un ángulo de inclinación elevado (mayores que 60 grados). Buscamos analizar a partir de estas reconstrucciones si la profundidad de producción de muones sirve como discriminador entre eventos de neutrino y de partículas primarias cargadas, y usar la MPD en eventos reales detectados en el Observatorio Pierre Auger, candidatos de ser iniciados por neutrinos.
Los procesos astrofísicos extremos pueden producir partículas de altísima energía que llegan a la Tierra, entre ellas neutrinos. Como son partículas neutras, los neutrinos no son desviados por los campos magnéticos del cosmos en su reccorrido, y llegan apuntando directamente a su dirección de origen. Debido a su baja sección eficaz, la detección de estas partículas requiere detectores de un volumen enorme. El Observatorio Pierre Auger tiene la capacidad de detectar las cascadas atmosféricas producidas por las partículas primarias que llegan a la atmósfera. Los neutrinos, por ser capaces de atravesar grandes porciones de atmósfera sin interactuar, pueden iniciar cascadas a profundidades mucho mayores que las partículas primarias cargadas como los protones. La determinación de una cascada atmosférica a mucha profundidad permitiría su identificación como evento de neutrino. A medida que el ángulo de incidencia aumenta, crece la cantidad de atmósfera que pueden recorrer; lo que nos interesa, por tanto, es estudiar estos eventos altamente inclinados. En este trabajo vamos a analizar si el algoritmo de la reconstrucción de la distribución de Profundidad de Producción de Muones (MPD) funciona para eventos con un ángulo de inclinación elevado (mayores que 60 grados). Buscamos analizar a partir de estas reconstrucciones si la profundidad de producción de muones sirve como discriminador entre eventos de neutrino y de partículas primarias cargadas, y usar la MPD en eventos reales detectados en el Observatorio Pierre Auger, candidatos de ser iniciados por neutrinos.
Dirección
CAZON BOADO, LORENZO (Tutoría)
CAZON BOADO, LORENZO (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Inteligencia Artificial y Simulación Molecular: Herramientas para el Desarrollo de Nuevos Antibióticos
Autoría
L.R.D.L.F.
Doble Grado en Física y en Química
L.R.D.L.F.
Doble Grado en Física y en Química
Fecha de la defensa
15.07.2025 09:00
15.07.2025 09:00
Resumen
La resistencia a los antibióticos se ha convertido en una crisis sanitaria mundial, con proyecciones alarmantes que estiman hasta 10 millones de muertes anuales para 2050 si no se desarrollan alternativas terapéuticas efectivas. Entre estas alternativas, los péptidos antimicrobianos (AMPs) destacan por su capacidad para interactuar selectivamente con membranas bacterianas gracias a su carga positiva y naturaleza anfipática, así como su menor tendencia a inducir resistencia. Sin embargo, su estudio estructural presenta desafíos únicos, ya que muchos AMPs solo adoptan su conformación funcional (típicamente Alpha-helicoidal) al entrar en contacto con entornos lipídicos, permaneciendo desestructurados en solución acuosa. En este estudio, empleamos dinámica molecular atomística para caracterizar la estabilidad estructural del péptido Lasioglosina III (LL-III) en una bicapa lipídica modelo (POPC:POPG 80:20), que simula la composición aniónica de membranas bacterianas. Mediante simulaciones de 200 ns y réplicas independientes, comparamos configuraciones superficiales y preinsertadas (parcialmente inmersas en la membrana). Los resultados muestran que la inserción en la membrana favorece la conservación de la estructura helicoidal, mientras que la adsorción superficial induce desorganización conformacional. Además, se observó una marcada dependencia de la orientación inicial del péptido en su evolución estructural. Estos hallazgos demuestran que la dinámica molecular puede capturar el plegamiento inducido por membrana, superando limitaciones de métodos como AlphaFold (entrenado con proteínas globulares en disolución acuosa). Futuros trabajos podrían integrar estos datos en modelos de aprendizaje automático para diseñar nuevos antimicrobianos.
La resistencia a los antibióticos se ha convertido en una crisis sanitaria mundial, con proyecciones alarmantes que estiman hasta 10 millones de muertes anuales para 2050 si no se desarrollan alternativas terapéuticas efectivas. Entre estas alternativas, los péptidos antimicrobianos (AMPs) destacan por su capacidad para interactuar selectivamente con membranas bacterianas gracias a su carga positiva y naturaleza anfipática, así como su menor tendencia a inducir resistencia. Sin embargo, su estudio estructural presenta desafíos únicos, ya que muchos AMPs solo adoptan su conformación funcional (típicamente Alpha-helicoidal) al entrar en contacto con entornos lipídicos, permaneciendo desestructurados en solución acuosa. En este estudio, empleamos dinámica molecular atomística para caracterizar la estabilidad estructural del péptido Lasioglosina III (LL-III) en una bicapa lipídica modelo (POPC:POPG 80:20), que simula la composición aniónica de membranas bacterianas. Mediante simulaciones de 200 ns y réplicas independientes, comparamos configuraciones superficiales y preinsertadas (parcialmente inmersas en la membrana). Los resultados muestran que la inserción en la membrana favorece la conservación de la estructura helicoidal, mientras que la adsorción superficial induce desorganización conformacional. Además, se observó una marcada dependencia de la orientación inicial del péptido en su evolución estructural. Estos hallazgos demuestran que la dinámica molecular puede capturar el plegamiento inducido por membrana, superando limitaciones de métodos como AlphaFold (entrenado con proteínas globulares en disolución acuosa). Futuros trabajos podrían integrar estos datos en modelos de aprendizaje automático para diseñar nuevos antimicrobianos.
Dirección
GARCIA FANDIÑO, REBECA (Tutoría)
PIÑEIRO GUILLEN, ANGEL Cotutoría
GARCIA FANDIÑO, REBECA (Tutoría)
PIÑEIRO GUILLEN, ANGEL Cotutoría
Tribunal
SAA RODRIGUEZ, CARLOS EUGENIO (Presidente/a)
SOUSA PEDRARES, ANTONIO (Secretario/a)
GARCIA DEIBE, ANA MARIA (Vocal)
SAA RODRIGUEZ, CARLOS EUGENIO (Presidente/a)
SOUSA PEDRARES, ANTONIO (Secretario/a)
GARCIA DEIBE, ANA MARIA (Vocal)
Plegamiento de péptidos en interfases entre medios de diferente polaridad mediante computación cuántica
Autoría
L.R.D.L.F.
Doble Grado en Física y en Química
L.R.D.L.F.
Doble Grado en Física y en Química
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
En este trabajo analizamos el potencial de la computación cuántica como herramienta innovadora para el estudio del plegamiento tridimensional de péptidos antimicrobianos (AMPs) en interfases entre medios de distinta polaridad que simulan la superficie de una membrana celular. Para ello, utilizamos el algoritmo Variational Quantum Eigensolver (VQE) junto con el sistema de computación híbrido QMIO del CESGA. El proyecto se enmarca en el contexto de la urgente problemática sanitaria causada por la resistencia bacteriana, enfatizando la importancia de conocer a nivel atómico la estructura funcional de los AMPs para desarrollar moléculas terapéuticas más eficaces. Metodológicamente, se utiliza un modelo coarse-grained basado en el potencial de Miyazawa- Jernigan modificado para capturar efectos de gradientes polares y transiciones de fase, combinado con circuitos cuánticos parametrizados y técnicas de optimización híbrida. Se evalúan tres secuencias prototipo (P1 hidrofóbica, P2 cargada y P3 anfipática) para comparar cómo la orientación y la distancia entre el péptido y la interfase, el gradiente de polaridad entre los dos medios considerados y la distribución de residuos del péptido afectan al plegamiento. Los resultados obtenidos mediante simuladores cuánticos ideales muestran conformaciones coherentes con las características fisicoquímicas específicas de cada secuencia: P1 adopta configuraciones extendidas en medios apolares, P2 se orienta hacia fases polares, mientras que P3 forma núcleos hidrofóbicos internos con exposición selectiva de residuos polares, sugiriendo una estabilización preferente en la interfase. Por otro lado, el uso del QMIO revela la necesidad de mitigar la presencia de ruido cuántico para obtener resultados realistas. Nuestro estudio evidencia el potencial de integrar métodos cuánticos y clásicos para superar las limitaciones actuales en dinámica molecular, acelerando la búsqueda de conformaciones estables y facilitando el diseño racional de AMPs. Hay varios retos clave a resolver, como la necesidad de mejorar las estrategias de corrección y mitigación de errores, desarrollar ansatz más eficientes para los circuitos VQE y optimizar la escalabilidad del hardware cuántico.
En este trabajo analizamos el potencial de la computación cuántica como herramienta innovadora para el estudio del plegamiento tridimensional de péptidos antimicrobianos (AMPs) en interfases entre medios de distinta polaridad que simulan la superficie de una membrana celular. Para ello, utilizamos el algoritmo Variational Quantum Eigensolver (VQE) junto con el sistema de computación híbrido QMIO del CESGA. El proyecto se enmarca en el contexto de la urgente problemática sanitaria causada por la resistencia bacteriana, enfatizando la importancia de conocer a nivel atómico la estructura funcional de los AMPs para desarrollar moléculas terapéuticas más eficaces. Metodológicamente, se utiliza un modelo coarse-grained basado en el potencial de Miyazawa- Jernigan modificado para capturar efectos de gradientes polares y transiciones de fase, combinado con circuitos cuánticos parametrizados y técnicas de optimización híbrida. Se evalúan tres secuencias prototipo (P1 hidrofóbica, P2 cargada y P3 anfipática) para comparar cómo la orientación y la distancia entre el péptido y la interfase, el gradiente de polaridad entre los dos medios considerados y la distribución de residuos del péptido afectan al plegamiento. Los resultados obtenidos mediante simuladores cuánticos ideales muestran conformaciones coherentes con las características fisicoquímicas específicas de cada secuencia: P1 adopta configuraciones extendidas en medios apolares, P2 se orienta hacia fases polares, mientras que P3 forma núcleos hidrofóbicos internos con exposición selectiva de residuos polares, sugiriendo una estabilización preferente en la interfase. Por otro lado, el uso del QMIO revela la necesidad de mitigar la presencia de ruido cuántico para obtener resultados realistas. Nuestro estudio evidencia el potencial de integrar métodos cuánticos y clásicos para superar las limitaciones actuales en dinámica molecular, acelerando la búsqueda de conformaciones estables y facilitando el diseño racional de AMPs. Hay varios retos clave a resolver, como la necesidad de mejorar las estrategias de corrección y mitigación de errores, desarrollar ansatz más eficientes para los circuitos VQE y optimizar la escalabilidad del hardware cuántico.
Dirección
PIÑEIRO GUILLEN, ANGEL (Tutoría)
CONDE TORRES, DANIEL Cotutoría
PIÑEIRO GUILLEN, ANGEL (Tutoría)
CONDE TORRES, DANIEL Cotutoría
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Búsqueda de Partículas de Larga Vida en Dark Sectors a través de algoritmos de Machine Learning
Autoría
A.R.G.
Grado en Física
A.R.G.
Grado en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
El Modelo Estándar (SM) es una teoría extremadamente precisa para describir las interacciones fundamentales entre partículas. No obstante, sabemos que no es completo al no ser capaz de acomodar la gravedad, explicar el origen de la materia oscura y energía oscura, o el origen de la asimetría materia-antimateria en el Universo; entre otros problemas que nos motivan a buscar modelos de nueva física (NP) o física más allá del SM (BSM). En este contexto, las partículas de larga vida (LLPs) emergen como solución natural al poder pasar desapercibidas en los experimentos debido a las limitaciones geométricas de los detectores. Ciertos modelos de NP incorporan los ''sectores oscuros'' y predicen la existencia de LLPs débilmente acopladas al SM. En este trabajo se estudiará el decaimiento de un hadrón oscuro, pi_v to Ks0 (to pi+ pi-) K+ pi-, con una masa de 2.5 GeV/c2, propuesto por uno de estos modelos, utilizando datos reales del LHCb y un algoritmo XGBoost para discriminar el fondo de la señal de interés. LHCb es un detector adecuado para realizar esta búsqueda gracias a su excelente resolución en la reconstrucción de vértices desplazados, su capacidad de identificación de partículas y su baja luminosidad en comparación con ATLAS y CMS, que facilita el tratamiento de fondos a baja masa.
El Modelo Estándar (SM) es una teoría extremadamente precisa para describir las interacciones fundamentales entre partículas. No obstante, sabemos que no es completo al no ser capaz de acomodar la gravedad, explicar el origen de la materia oscura y energía oscura, o el origen de la asimetría materia-antimateria en el Universo; entre otros problemas que nos motivan a buscar modelos de nueva física (NP) o física más allá del SM (BSM). En este contexto, las partículas de larga vida (LLPs) emergen como solución natural al poder pasar desapercibidas en los experimentos debido a las limitaciones geométricas de los detectores. Ciertos modelos de NP incorporan los ''sectores oscuros'' y predicen la existencia de LLPs débilmente acopladas al SM. En este trabajo se estudiará el decaimiento de un hadrón oscuro, pi_v to Ks0 (to pi+ pi-) K+ pi-, con una masa de 2.5 GeV/c2, propuesto por uno de estos modelos, utilizando datos reales del LHCb y un algoritmo XGBoost para discriminar el fondo de la señal de interés. LHCb es un detector adecuado para realizar esta búsqueda gracias a su excelente resolución en la reconstrucción de vértices desplazados, su capacidad de identificación de partículas y su baja luminosidad en comparación con ATLAS y CMS, que facilita el tratamiento de fondos a baja masa.
Dirección
CID VIDAL, XABIER (Tutoría)
Rodríguez Fernández, Emilio Xosé Cotutoría
CID VIDAL, XABIER (Tutoría)
Rodríguez Fernández, Emilio Xosé Cotutoría
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Análisis de la desintegración semileptónica B a tau nu en el experimento LHCb
Autoría
L.R.L.
Grado en Física
L.R.L.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
La desintegración B a tau nu es relativamente sencilla de entender desde un punto de vista teórico, al presentar una contribución de un diagrama de tipo árbol. La probabilidad de esta desintegración es bien conocida en el Modelo Estándar, y es muy sensible a alteraciones si existiesen otras nuevas partículas que pudiesen mediar dicha interacción. Por otro lado, desde un punto de vista experimental, la desintegración es un reto ya que el estado final más favorable, en el cual el leptón tau decae a tres piones y un neutrino, presenta dos neutrinos. Su reconstrucción resulta especialmente complicada en el contexto de los experimentos situados en colisionadores hadrónicos, como el LHCb, en el cual no se detectan dichos neutrinos. El objetivo del trabajo consistirá en desarrollar una serie de estrategias cinemáticas que permitan reconstruir la cadena B tau nu con tau a pi pi pi nu. Se estudiará el efecto de la reconstrucción en un canal similar Ds a tau nu con tau a pi pi pi nu y si se pueden separar ambas contribuciones, con el objetivo de aislar este fondo en un análisis de datos posterior. Se busca así, o bien aumentar la precisión a nivel experimental de la fracción de desintegración, o bien la del elemento de matriz CKM correspondiente. Si la fracción de desintegración no siguiese lo establecido por el Modelo Estándar podría ser un indicio de nueva física.
La desintegración B a tau nu es relativamente sencilla de entender desde un punto de vista teórico, al presentar una contribución de un diagrama de tipo árbol. La probabilidad de esta desintegración es bien conocida en el Modelo Estándar, y es muy sensible a alteraciones si existiesen otras nuevas partículas que pudiesen mediar dicha interacción. Por otro lado, desde un punto de vista experimental, la desintegración es un reto ya que el estado final más favorable, en el cual el leptón tau decae a tres piones y un neutrino, presenta dos neutrinos. Su reconstrucción resulta especialmente complicada en el contexto de los experimentos situados en colisionadores hadrónicos, como el LHCb, en el cual no se detectan dichos neutrinos. El objetivo del trabajo consistirá en desarrollar una serie de estrategias cinemáticas que permitan reconstruir la cadena B tau nu con tau a pi pi pi nu. Se estudiará el efecto de la reconstrucción en un canal similar Ds a tau nu con tau a pi pi pi nu y si se pueden separar ambas contribuciones, con el objetivo de aislar este fondo en un análisis de datos posterior. Se busca así, o bien aumentar la precisión a nivel experimental de la fracción de desintegración, o bien la del elemento de matriz CKM correspondiente. Si la fracción de desintegración no siguiese lo establecido por el Modelo Estándar podría ser un indicio de nueva física.
Dirección
VIEITES DIAZ, MARIA (Tutoría)
Brea Rodríguez, Alexandre Cotutoría
VIEITES DIAZ, MARIA (Tutoría)
Brea Rodríguez, Alexandre Cotutoría
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Optimización de un sistema de polimerización de dos fotones para modificación de superficies de materiales biocompatibles
Autoría
M.R.L.
Grado en Física
M.R.L.
Grado en Física
Fecha de la defensa
16.07.2025 09:00
16.07.2025 09:00
Resumen
En este trabajo se optimizó un sistema de polimerización de dos fotones (2PP) para la fabricación de microestructuras biocompatibles, con el objetivo final de aplicarlas al cultivo celular de fibroblastos (células del tejido conectivo). Esta técnica se basa en un proceso óptico no lineal de absorción simultánea de dos fotones y permite la fabricación de estructuras en materiales fotosensibles con una resolución muy superior a la de técnicas convencionales. Esto, junto a su gran versatilidad, la convierte en una herramienta prometedora en ámbitos como la biomedicina y la óptica. Se empleó la resina SZ2080 por su alta biocompatibilidad, estabilidad y fotosensibilidad. Con ella se fabricaron redes combinando distintas velocidades y potencias del láser, con el fin de estudiar el efecto de estos parámetros sobre el grosor y la altura de las estructuras polimerizadas. La caracterización se llevó a cabo mediante microscopía óptica, confocal y electrónica (FESEM), lo que permitió un análisis preciso de las dimensiones y la integridad de las estructuras. Posteriormente, se evaluó la viabilidad del sistema mediante el cultivo de fibroblastos humanos sobre las redes fabricadas. En conclusión, se adquirieron conocimientos técnicos clave sobre la técnica 2PP y se identificaron líneas de mejora tanto en el proceso de fabricación, incluyendo tratado del sustrato, procesado y revelado, como en los protocolos del cultivo celular.
En este trabajo se optimizó un sistema de polimerización de dos fotones (2PP) para la fabricación de microestructuras biocompatibles, con el objetivo final de aplicarlas al cultivo celular de fibroblastos (células del tejido conectivo). Esta técnica se basa en un proceso óptico no lineal de absorción simultánea de dos fotones y permite la fabricación de estructuras en materiales fotosensibles con una resolución muy superior a la de técnicas convencionales. Esto, junto a su gran versatilidad, la convierte en una herramienta prometedora en ámbitos como la biomedicina y la óptica. Se empleó la resina SZ2080 por su alta biocompatibilidad, estabilidad y fotosensibilidad. Con ella se fabricaron redes combinando distintas velocidades y potencias del láser, con el fin de estudiar el efecto de estos parámetros sobre el grosor y la altura de las estructuras polimerizadas. La caracterización se llevó a cabo mediante microscopía óptica, confocal y electrónica (FESEM), lo que permitió un análisis preciso de las dimensiones y la integridad de las estructuras. Posteriormente, se evaluó la viabilidad del sistema mediante el cultivo de fibroblastos humanos sobre las redes fabricadas. En conclusión, se adquirieron conocimientos técnicos clave sobre la técnica 2PP y se identificaron líneas de mejora tanto en el proceso de fabricación, incluyendo tratado del sustrato, procesado y revelado, como en los protocolos del cultivo celular.
Dirección
Gómez Varela, Ana Isabel (Tutoría)
BAO VARELA, Mª CARMEN Cotutoría
Gómez Varela, Ana Isabel (Tutoría)
BAO VARELA, Mª CARMEN Cotutoría
Tribunal
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
MIRAMONTES ANTAS, JOSE LUIS (Presidente/a)
SANTAMARINA RIOS, CIBRAN (Secretario/a)
Prieto Estévez, Gerardo (Vocal)
Variedades con estructura de producto deformado
Autoría
A.R.S.
Doble Grado en Matemáticas y en Física
A.R.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
16.07.2025 12:15
16.07.2025 12:15
Resumen
Las variedades pseudo-Riemannianas con estructura local de producto han desempeñado un papel fundamental en la resolución de una amplia gama de problemas geométricos y físicos. En particular, este tipo de variedades constituye una de las técnicas más utilizadas para la construcción de métricas Riemannianas de Einstein y forma la estructura subyacente de la mayoría de los espaciotiempos relativistas. El objetivo de este trabajo es realizar un estudio sistemático de las variedades con estructura local de producto deformado centrado en el análisis de sus propiedades de curvatura.
Las variedades pseudo-Riemannianas con estructura local de producto han desempeñado un papel fundamental en la resolución de una amplia gama de problemas geométricos y físicos. En particular, este tipo de variedades constituye una de las técnicas más utilizadas para la construcción de métricas Riemannianas de Einstein y forma la estructura subyacente de la mayoría de los espaciotiempos relativistas. El objetivo de este trabajo es realizar un estudio sistemático de las variedades con estructura local de producto deformado centrado en el análisis de sus propiedades de curvatura.
Dirección
GARCIA RIO, EDUARDO (Tutoría)
CAEIRO OLIVEIRA, SANDRO Cotutoría
GARCIA RIO, EDUARDO (Tutoría)
CAEIRO OLIVEIRA, SANDRO Cotutoría
Tribunal
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
GARCIA RODICIO, ANTONIO (Presidente/a)
CAO LABORA, DANIEL (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Propagación de rayos cósmicos de muy altas energías en el Universo
Autoría
A.R.S.
Doble Grado en Matemáticas y en Física
A.R.S.
Doble Grado en Matemáticas y en Física
Fecha de la defensa
17.07.2025 09:30
17.07.2025 09:30
Resumen
Los rayos cósmicos de muy altas energías (UHECRs) son las partículas más energéticas detectadas hasta la fecha en el Universo, alcanzando energías del orden del exaelectronvoltio (EeV). Su estudio resulta fundamental para explorar la física más allá del modelo estándar, analizar la estructura del campo magnético galáctico y abordar cuestiones relevantes en el ámbito de la cosmología. En la actualidad, existen múltiples líneas de investigación centradas en la comprensión de estos eventos, y observatorios como el Observatorio Pierre Auger o el Telescope Array se dedican a la detección de este tipo de partículas extragalácticas. Este trabajo estudia la propagación de estos rayos cósmicos dentro de la Galaxia, con el objetivo de analizar cómo influye el campo magnético galáctico en dicha propagación y cómo podrían identificarse las fuentes de las que provienen. Para ello, se utiliza el marco de simulación astrofísica CRPropa, que permite realizar simulaciones a través de su interfaz en Python. De este modo, se llevan a cabo simulaciones de la retropropagación de los UHECRs detectados por el Observatorio Pierre Auger, obteniendo tanto su dirección de llegada a la frontera galáctica como la deflexión experimentada durante su trayectoria. El estudio se centra en realizar simulaciones variando las componentes del campo magnético empleadas dentro del modelo JF12 [1, 2], considerando tanto la presencia de turbulencia aleatoria a pequeña escala como su ausencia, así como el tipo de partícula que se propaga.
Los rayos cósmicos de muy altas energías (UHECRs) son las partículas más energéticas detectadas hasta la fecha en el Universo, alcanzando energías del orden del exaelectronvoltio (EeV). Su estudio resulta fundamental para explorar la física más allá del modelo estándar, analizar la estructura del campo magnético galáctico y abordar cuestiones relevantes en el ámbito de la cosmología. En la actualidad, existen múltiples líneas de investigación centradas en la comprensión de estos eventos, y observatorios como el Observatorio Pierre Auger o el Telescope Array se dedican a la detección de este tipo de partículas extragalácticas. Este trabajo estudia la propagación de estos rayos cósmicos dentro de la Galaxia, con el objetivo de analizar cómo influye el campo magnético galáctico en dicha propagación y cómo podrían identificarse las fuentes de las que provienen. Para ello, se utiliza el marco de simulación astrofísica CRPropa, que permite realizar simulaciones a través de su interfaz en Python. De este modo, se llevan a cabo simulaciones de la retropropagación de los UHECRs detectados por el Observatorio Pierre Auger, obteniendo tanto su dirección de llegada a la frontera galáctica como la deflexión experimentada durante su trayectoria. El estudio se centra en realizar simulaciones variando las componentes del campo magnético empleadas dentro del modelo JF12 [1, 2], considerando tanto la presencia de turbulencia aleatoria a pequeña escala como su ausencia, así como el tipo de partícula que se propaga.
Dirección
ALVAREZ MUÑIZ, JAIME (Tutoría)
ALVAREZ MUÑIZ, JAIME (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Propiedades ópticas de multiplicadores gaseosos de electrones
Autoría
D.R.T.
Grado en Física
D.R.T.
Grado en Física
Fecha de la defensa
18.07.2025 16:00
18.07.2025 16:00
Resumen
El objetivo de este trabajo es caracterizar las propiedades difractivas y respuesta óptica de estructuras tipo GEM(Gas Electron Multiplier) en un entorno de avalancha de gases, con el objetivo final de comprender el diseño óptimo de estas estructuras para su uso en en una cámara de proyección temporal para física de neutrinos, como en el experimento DUNE.
El objetivo de este trabajo es caracterizar las propiedades difractivas y respuesta óptica de estructuras tipo GEM(Gas Electron Multiplier) en un entorno de avalancha de gases, con el objetivo final de comprender el diseño óptimo de estas estructuras para su uso en en una cámara de proyección temporal para física de neutrinos, como en el experimento DUNE.
Dirección
GONZALEZ DIAZ, DIEGO (Tutoría)
GONZALEZ DIAZ, DIEGO (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Espectroscopía de alta resolución de atmósferas de exoplanetas
Autoría
H.R.F.
Grado en Física
H.R.F.
Grado en Física
Fecha de la defensa
18.07.2025 16:00
18.07.2025 16:00
Resumen
Este trabajo está centrado en la espectroscopía de alta resolución de atmósferas de exoplanetas. Para ello tomamos como caso de estudio el super-Neptuno/sub-Saturno cálido WASP-107b, descubierto en 2017 por el proyecto WASP, y que se trata de uno de los exoplanetas de menor densidad conocidos a día de hoy. El objetivo principal del proyecto es el estudio de la presencia (o ausencia) de 4 moléculas en la atmósfera de dicho planeta: H2O, CO, CO2 y CH4. Para este estudio se utilizaron 3 simulaciones de la atmósfera de este exoplaneta con diferentes cantidades de ruido, basadas en observaciones reales realizadas con el instrumento CRIRES+ en el Very Large Telescope (VLT) en Chile. Este instrumento es fundamental tanto por su alto poder de resolución como por su capacidad de operar en el rango infrarrojo, imprescindible para la detección de las moléculas mencionadas, ya que estas presentan fuertes transiciones en esta región. Para el procesamiento de los datos se usaron 2 métodos. En primer lugar se pasaron los datos por el pipeline de reducción del CRIRES+. Posteriormente se utilizaron 2 algoritmos de reducción de datos diferentes: SYSREM Y PCA. Cualquiera de los 2 sirve para eliminar las líneas espectrales de la estrella anfitriona (WASP-107) y de la atmósfera terrestre. Por último se utilizó la técnica de la correlación cruzada, la cual compara el espectro planetario con modelos de las 4 moléculas que buscamos detectar. En primer lugar estudiamos los resultados de la utilización de SYSREM y correlación cruzada, los cuales revelan la presencia únicamente de agua en nuestras simulaciones de la atmósfera de WASP-107b. Debido a esto, luego solo se realizó el estudio con PCA y correlación cruzada para esta molécula, cuyos resultados confirmaron los del procedimiento anterior.
Este trabajo está centrado en la espectroscopía de alta resolución de atmósferas de exoplanetas. Para ello tomamos como caso de estudio el super-Neptuno/sub-Saturno cálido WASP-107b, descubierto en 2017 por el proyecto WASP, y que se trata de uno de los exoplanetas de menor densidad conocidos a día de hoy. El objetivo principal del proyecto es el estudio de la presencia (o ausencia) de 4 moléculas en la atmósfera de dicho planeta: H2O, CO, CO2 y CH4. Para este estudio se utilizaron 3 simulaciones de la atmósfera de este exoplaneta con diferentes cantidades de ruido, basadas en observaciones reales realizadas con el instrumento CRIRES+ en el Very Large Telescope (VLT) en Chile. Este instrumento es fundamental tanto por su alto poder de resolución como por su capacidad de operar en el rango infrarrojo, imprescindible para la detección de las moléculas mencionadas, ya que estas presentan fuertes transiciones en esta región. Para el procesamiento de los datos se usaron 2 métodos. En primer lugar se pasaron los datos por el pipeline de reducción del CRIRES+. Posteriormente se utilizaron 2 algoritmos de reducción de datos diferentes: SYSREM Y PCA. Cualquiera de los 2 sirve para eliminar las líneas espectrales de la estrella anfitriona (WASP-107) y de la atmósfera terrestre. Por último se utilizó la técnica de la correlación cruzada, la cual compara el espectro planetario con modelos de las 4 moléculas que buscamos detectar. En primer lugar estudiamos los resultados de la utilización de SYSREM y correlación cruzada, los cuales revelan la presencia únicamente de agua en nuestras simulaciones de la atmósfera de WASP-107b. Debido a esto, luego solo se realizó el estudio con PCA y correlación cruzada para esta molécula, cuyos resultados confirmaron los del procedimiento anterior.
Dirección
ALVAREZ POL, HECTOR (Tutoría)
Morello , Giuseppe Cotutoría
ALVAREZ POL, HECTOR (Tutoría)
Morello , Giuseppe Cotutoría
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Búsqueda del decaimiento B+ - gamma pi+pi-pi+ con el detector LHCb
Autoría
J.P.S.T.
Grado en Física
J.P.S.T.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
Este informe se centra en el estudio de dos canales de desintegración de los mesones B+ en estados finales que contienen un fotón de alta energía y tres hadrones (dos piones y un kaón cargados o tres piones cargados). El objetivo principal es comparar ambos canales y determinar la presencia del segundo en datos del LHCb. Para lograr este objetivo, se utilizan tanto muestras de datos obtenidos durante la toma de datos del RunII del LHCb como simulaciones Monte Carlo. La eficiencia de la selección se evalúa ajustando la distribución de la masa invariante de los eventos seleccionados, comparando las características de los datos seleccionados en ambos canales de desintegración y realizando una prueba de razón de similitud en el segundo canal. Desde una perspectiva técnica, se emplearon nociones de Python-ROOT, técnicas de análisis con redes neuronales y módulos de visualización y ajuste de datos.
Este informe se centra en el estudio de dos canales de desintegración de los mesones B+ en estados finales que contienen un fotón de alta energía y tres hadrones (dos piones y un kaón cargados o tres piones cargados). El objetivo principal es comparar ambos canales y determinar la presencia del segundo en datos del LHCb. Para lograr este objetivo, se utilizan tanto muestras de datos obtenidos durante la toma de datos del RunII del LHCb como simulaciones Monte Carlo. La eficiencia de la selección se evalúa ajustando la distribución de la masa invariante de los eventos seleccionados, comparando las características de los datos seleccionados en ambos canales de desintegración y realizando una prueba de razón de similitud en el segundo canal. Desde una perspectiva técnica, se emplearon nociones de Python-ROOT, técnicas de análisis con redes neuronales y módulos de visualización y ajuste de datos.
Dirección
SANTAMARINA RIOS, CIBRAN (Tutoría)
VIEITES DIAZ, MARIA Cotutoría
SANTAMARINA RIOS, CIBRAN (Tutoría)
VIEITES DIAZ, MARIA Cotutoría
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Estudio de una desintegración rara del 40K: Implicaciones en geocronología.
Autoría
L.S.M.
Grado en Física
L.S.M.
Grado en Física
Fecha de la defensa
18.07.2025 16:00
18.07.2025 16:00
Resumen
En este trabajo se analiza una desintegración nuclear rara del isótopo 40K, la captura electrónica directa al estado fundamental del 40Ar, una transición nuclear prohibida de tercer orden. Aunque esta desintegración había sido predicha teóricamente, su detección experimental no se consiguió hasta 2023, gracias al experimento KDK (Potassium Decay). Su observación representa un hito en física nuclear, ya que es la única captura electrónica prohibida de tercer orden observada hasta la fecha. El estudio se centra en los fundamentos físicos del proceso, en la medición experimental hecha por KDK, y en las implicaciones de este descubrimiento en distintos ámbitos. En primer lugar, se analiza su impacto en experimentos de detección de materia oscura, como DAMA/LIBRA, ya que los electrones Auger y rayos X generados por esta rara desintegración pueden confundirse con señales esperadas de materia oscura. En segundo lugar, se estudia su relación con la desintegración doble beta sin neutrinos, proporcionando datos clave para refinar los modelos nucleares que predicen su vida media, hasta ahora subestimada. Por último, se evalúan las consecuencias en geocronología, ya que la nueva rama de desintegración altera el cálculo de la edad de una muestras mediante el método de datación 40K/40Ar. La inclusión de esta nueva rama de desintegración implica una ligera reducción en las edades geológicas estimadas con alta precisión, especialmente en muestras de gran antigüedad. Se presenta una simulación cuantitativa del impacto de esta corrección en función de la razón isotópica 40K/40Ar. En conjunto, este trabajo muestra cómo un hallazgo experimental en física nuclear puede tener consecuencias significativas y transversales, desde la búsqueda de nueva física hasta la mejora en la precisión de las escalas temporales geológicas.
En este trabajo se analiza una desintegración nuclear rara del isótopo 40K, la captura electrónica directa al estado fundamental del 40Ar, una transición nuclear prohibida de tercer orden. Aunque esta desintegración había sido predicha teóricamente, su detección experimental no se consiguió hasta 2023, gracias al experimento KDK (Potassium Decay). Su observación representa un hito en física nuclear, ya que es la única captura electrónica prohibida de tercer orden observada hasta la fecha. El estudio se centra en los fundamentos físicos del proceso, en la medición experimental hecha por KDK, y en las implicaciones de este descubrimiento en distintos ámbitos. En primer lugar, se analiza su impacto en experimentos de detección de materia oscura, como DAMA/LIBRA, ya que los electrones Auger y rayos X generados por esta rara desintegración pueden confundirse con señales esperadas de materia oscura. En segundo lugar, se estudia su relación con la desintegración doble beta sin neutrinos, proporcionando datos clave para refinar los modelos nucleares que predicen su vida media, hasta ahora subestimada. Por último, se evalúan las consecuencias en geocronología, ya que la nueva rama de desintegración altera el cálculo de la edad de una muestras mediante el método de datación 40K/40Ar. La inclusión de esta nueva rama de desintegración implica una ligera reducción en las edades geológicas estimadas con alta precisión, especialmente en muestras de gran antigüedad. Se presenta una simulación cuantitativa del impacto de esta corrección en función de la razón isotópica 40K/40Ar. En conjunto, este trabajo muestra cómo un hallazgo experimental en física nuclear puede tener consecuencias significativas y transversales, desde la búsqueda de nueva física hasta la mejora en la precisión de las escalas temporales geológicas.
Dirección
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Constante de acoplamiento y cargas efectivas en Cromodinámica Cuántica
Autoría
J.S.F.
Grado en Física
J.S.F.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
La Cromodinámica Cuántica (QCD) es la teoría del Modelo Estándar que describe la interacción fuerte. En este trabajo se repasan los conceptos fundamentales de QCD y, en particular, la constante de acoplamiento fuerte, alpha_s, cuya dependencia con el momento transferido es esencial para comprender la dinámica de quarks y gluones. A altos momentos transferidos, esta constante puede calcularse mediante teoría de perturbaciones, gracias a la propiedad de libertad asintótica. Sin embargo, a bajos momentos transferidos la teoría de perturbaciones deja de ser válida, y es necesario recurrir a métodos no perturbativos. Estos métodos permiten describir fenómenos como la generación de masa de los hadrones y el confinamiento de quarks, que están profundamente relacionados con el comportamiento infrarrojo de alpha_s. Además, se introduce el concepto de carga efectiva, una forma alternativa de definir la constante a partir de observables físicos, y se presentan distintas definiciones relevantes en QCD que permiten extender el análisis de alpha_s más allá del régimen perturbativo, evitando ambigüedades asociadas al esquema de renormalización. Finalmente, se comentarán las perspectivas de futuro en el estudio de QCD que podrían contribuir a una comprensión más profunda de la interacción fuerte.
La Cromodinámica Cuántica (QCD) es la teoría del Modelo Estándar que describe la interacción fuerte. En este trabajo se repasan los conceptos fundamentales de QCD y, en particular, la constante de acoplamiento fuerte, alpha_s, cuya dependencia con el momento transferido es esencial para comprender la dinámica de quarks y gluones. A altos momentos transferidos, esta constante puede calcularse mediante teoría de perturbaciones, gracias a la propiedad de libertad asintótica. Sin embargo, a bajos momentos transferidos la teoría de perturbaciones deja de ser válida, y es necesario recurrir a métodos no perturbativos. Estos métodos permiten describir fenómenos como la generación de masa de los hadrones y el confinamiento de quarks, que están profundamente relacionados con el comportamiento infrarrojo de alpha_s. Además, se introduce el concepto de carga efectiva, una forma alternativa de definir la constante a partir de observables físicos, y se presentan distintas definiciones relevantes en QCD que permiten extender el análisis de alpha_s más allá del régimen perturbativo, evitando ambigüedades asociadas al esquema de renormalización. Finalmente, se comentarán las perspectivas de futuro en el estudio de QCD que podrían contribuir a una comprensión más profunda de la interacción fuerte.
Dirección
MERINO GAYOSO, CARLOS MIGUEL (Tutoría)
MERINO GAYOSO, CARLOS MIGUEL (Tutoría)
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Estudio Ab Initio de heteroestructuras semiconductor semiconductor y semiconductor metal
Autoría
P.S.R.
Grado en Física
P.S.R.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
Las heteroestructuras de distintos materiales son fundamentales para la electrónica moderna permitiendo ampliar la configuración de distintos parámetros de las propiedades electrónicas de distintos dispositivos empleados en toda la tecnología de vanguardia. En este trabajo estudiaremos a nivel de estructura electrónica las heteroestructuras semiconductor semiconductor y semiconductor metal a partir de semiconductores como Si y Ge y metales como Ca y Ag. Para llevar a cabo el estudio nos valdremos de cálculos DFT amplamente utilizados na física computacional da Física da Materia Condensada a través del software Wien2K uno de los más utilizados y de mayor importancia a nivel de investigación científica en este ámbito. Así indagaremos en el comportamiento de portadores y los estados electrónicos cuando provocamos diferentes heterouniones a partir de un entorno computacional de altas prestaciones acompañándolo de un estudio cualitativo de los resultados.
Las heteroestructuras de distintos materiales son fundamentales para la electrónica moderna permitiendo ampliar la configuración de distintos parámetros de las propiedades electrónicas de distintos dispositivos empleados en toda la tecnología de vanguardia. En este trabajo estudiaremos a nivel de estructura electrónica las heteroestructuras semiconductor semiconductor y semiconductor metal a partir de semiconductores como Si y Ge y metales como Ca y Ag. Para llevar a cabo el estudio nos valdremos de cálculos DFT amplamente utilizados na física computacional da Física da Materia Condensada a través del software Wien2K uno de los más utilizados y de mayor importancia a nivel de investigación científica en este ámbito. Así indagaremos en el comportamiento de portadores y los estados electrónicos cuando provocamos diferentes heterouniones a partir de un entorno computacional de altas prestaciones acompañándolo de un estudio cualitativo de los resultados.
Dirección
PARDO CASTRO, VICTOR (Tutoría)
PARDO CASTRO, VICTOR (Tutoría)
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Caracterización del plasma de Quarks y Gluones y sus señales
Autoría
G.S.R.
Grado en Física
G.S.R.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
El estudio de la materia regida por la interacción fuerte a altas temperaturas y densidades es un tema de gran actualidad, debido a su producción en colisiones entre iones pesados en aceleradores como el Large Hadron Collider (LHC) del CERN, y por sus implicaciones en la cosmología y en el comportamiento de objetos astrofísicos masivos como las estrellas de neutrones. El trabajo se centrará en la descripción del Plasma de Quarks y Gluones (QGP), analizando su transición de fase entre esta y la materia hadrónica y determinando la temperatura crítica a la que se produce este cambio. En particular, será útil el modelo de la bolsa del MIT, ya que permite obtener los valores de la temperatura a potencial químico nulo y de la densidad bariónica a temperatura nula en los que se produce el desconfinamiento.
El estudio de la materia regida por la interacción fuerte a altas temperaturas y densidades es un tema de gran actualidad, debido a su producción en colisiones entre iones pesados en aceleradores como el Large Hadron Collider (LHC) del CERN, y por sus implicaciones en la cosmología y en el comportamiento de objetos astrofísicos masivos como las estrellas de neutrones. El trabajo se centrará en la descripción del Plasma de Quarks y Gluones (QGP), analizando su transición de fase entre esta y la materia hadrónica y determinando la temperatura crítica a la que se produce este cambio. En particular, será útil el modelo de la bolsa del MIT, ya que permite obtener los valores de la temperatura a potencial químico nulo y de la densidad bariónica a temperatura nula en los que se produce el desconfinamiento.
Dirección
GONZALEZ FERREIRO, ELENA (Tutoría)
GONZALEZ FERREIRO, ELENA (Tutoría)
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Aproximación de Skyrmiones por la holonomía de instantones en una teoría de Yang-Mills
Autoría
C.S.H.
Grado en Física
C.S.H.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
El modelo de Skyrme fue propuesto por el físico matemático inglés Tony Skyrme como un modelo efectivo de los bariones descritos por solitones de un campo que toma valores en el grupo de Lie SU(2) (Skyrmiones). Posteriormente, Atiyah y Manton publicaron un artículo en el que obtenían tales solitones a partir de otras configuraciones de tipo solitón de un campo de Yang-Mills en cuatro dimensiones euclídeas (instantones). En este trabajo se revisará la relación entre Skyrmiones e instantones, reproduciendo los resultados obtenidos por Atiyah y Manton.
El modelo de Skyrme fue propuesto por el físico matemático inglés Tony Skyrme como un modelo efectivo de los bariones descritos por solitones de un campo que toma valores en el grupo de Lie SU(2) (Skyrmiones). Posteriormente, Atiyah y Manton publicaron un artículo en el que obtenían tales solitones a partir de otras configuraciones de tipo solitón de un campo de Yang-Mills en cuatro dimensiones euclídeas (instantones). En este trabajo se revisará la relación entre Skyrmiones e instantones, reproduciendo los resultados obtenidos por Atiyah y Manton.
Dirección
ADAM , CHRISTOPH (Tutoría)
García Martín-Caro, Alberto Cotutoría
ADAM , CHRISTOPH (Tutoría)
García Martín-Caro, Alberto Cotutoría
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Tomografía de neutrones potenciada por IA para la inspección avanzada de materiales
Autoría
R.S.D.
Grado en Física
R.S.D.
Grado en Física
Fecha de la defensa
18.07.2025 16:00
18.07.2025 16:00
Resumen
Este trabajo explora la viabilidad de utilizar redes neuronales convolucionales (CNN) para resolver el problema inverso en la caracterización de materiales mediante transmisión de neutrones. El objetivo es determinar la composición isotópica de una muestra a partir de su espectro de transmitancia energética. Para ello, se ha desarrollado un doble enfoque. Primero, se implementó una simulación en Geant4 para generar datos de transmitancia de alta fidelidad. Segundo, se construyó un modelo de inteligencia artificial en Python con Keras y TensorFlow, entrenado con un gran dataset de curvas teóricas generadas mediante la ley de Beer-Lambert y datos de secciones eficaces de la base de datos EXFOR. Los resultados demuestran que el modelo de IA es capaz de predecir la composición de mezclas isotópicas con un error absoluto medio muy bajo en condiciones de simulación ideales (alta colimación). Se ha cuantificado la degradación del rendimiento al reducir la colimación, validando que el efecto de build-up es una fuente de error sistemático. Adicionalmente, se ha analizado la robustez del modelo frente a la incertidumbre energética, concluyendo que el entrenamiento con datos ruidosos mejora su generalización. El estudio de escalabilidad muestra que la precisión se mantiene alta para mezclas de múltiples componentes, identificando que el límite principal del método no es el número de isótopos, sino el solapamiento entre sus firmas espectrales. Se establece así una base sólida que demuestra el potencial de la combinación de la simulación Monte Carlo y el machine learning para el desarrollo de nuevas técnicas de inspección no destructivas mediante tomografía de neutrones.
Este trabajo explora la viabilidad de utilizar redes neuronales convolucionales (CNN) para resolver el problema inverso en la caracterización de materiales mediante transmisión de neutrones. El objetivo es determinar la composición isotópica de una muestra a partir de su espectro de transmitancia energética. Para ello, se ha desarrollado un doble enfoque. Primero, se implementó una simulación en Geant4 para generar datos de transmitancia de alta fidelidad. Segundo, se construyó un modelo de inteligencia artificial en Python con Keras y TensorFlow, entrenado con un gran dataset de curvas teóricas generadas mediante la ley de Beer-Lambert y datos de secciones eficaces de la base de datos EXFOR. Los resultados demuestran que el modelo de IA es capaz de predecir la composición de mezclas isotópicas con un error absoluto medio muy bajo en condiciones de simulación ideales (alta colimación). Se ha cuantificado la degradación del rendimiento al reducir la colimación, validando que el efecto de build-up es una fuente de error sistemático. Adicionalmente, se ha analizado la robustez del modelo frente a la incertidumbre energética, concluyendo que el entrenamiento con datos ruidosos mejora su generalización. El estudio de escalabilidad muestra que la precisión se mantiene alta para mezclas de múltiples componentes, identificando que el límite principal del método no es el número de isótopos, sino el solapamiento entre sus firmas espectrales. Se establece así una base sólida que demuestra el potencial de la combinación de la simulación Monte Carlo y el machine learning para el desarrollo de nuevas técnicas de inspección no destructivas mediante tomografía de neutrones.
Dirección
AYYAD LIMONGE, FRANCESC YASSID (Tutoría)
AYYAD LIMONGE, FRANCESC YASSID (Tutoría)
Tribunal
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
ACOSTA PLAZA, EVA MARIA (Presidente/a)
VIEITES DIAZ, MARIA (Secretario/a)
Wu , Bin (Vocal)
Uso de GNN para mejorar el alcance de LHCb buscando partículas de larga duración
Autoría
R.S.R.
Grado en Física
R.S.R.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
En este Trabajo de Fin de Grado se estudia la reconstrucción de trayectorias de partículas cargadas en el experimento LHCb mediante redes neuronales de grafos (GNN). Las eficiencias de reconstrucción obtenidas para trayectorias con impactos en el localizador de vértices (VELO) son elevadas, comparables a las correspondientes al proyecto de software de LHCb conocido como Allen. La segunda etapa de este Trabajo consiste en la aplicación del conocimiento adquirido a la reconstrucción de trayectorias T, aquellas que solo presentan impactos en el detector SciFi, instalado a varios metros de separación del VELO. Esto supone dificultades añadidas, al abordar un problema con mayor multiplicidad, es decir, con una mayor densidad de trayectorias a reconstruir. En consecuencia, las eficiencias que se consiguen son inferiores. Sin embargo, es un ejercicio interesante debido a dos motivos principales: su carácter novedoso, con resultados nunca antes obtenidos, y la potencial importancia de las trayectorias T, habitualmente excluidas de los análisis, a la hora de extender la capacidad del experimento LHCb en la búsqueda de partículas de larga vida, tanto dentro como más allá del Modelo Estándar de la Física de Partículas.
En este Trabajo de Fin de Grado se estudia la reconstrucción de trayectorias de partículas cargadas en el experimento LHCb mediante redes neuronales de grafos (GNN). Las eficiencias de reconstrucción obtenidas para trayectorias con impactos en el localizador de vértices (VELO) son elevadas, comparables a las correspondientes al proyecto de software de LHCb conocido como Allen. La segunda etapa de este Trabajo consiste en la aplicación del conocimiento adquirido a la reconstrucción de trayectorias T, aquellas que solo presentan impactos en el detector SciFi, instalado a varios metros de separación del VELO. Esto supone dificultades añadidas, al abordar un problema con mayor multiplicidad, es decir, con una mayor densidad de trayectorias a reconstruir. En consecuencia, las eficiencias que se consiguen son inferiores. Sin embargo, es un ejercicio interesante debido a dos motivos principales: su carácter novedoso, con resultados nunca antes obtenidos, y la potencial importancia de las trayectorias T, habitualmente excluidas de los análisis, a la hora de extender la capacidad del experimento LHCb en la búsqueda de partículas de larga vida, tanto dentro como más allá del Modelo Estándar de la Física de Partículas.
Dirección
CID VIDAL, XABIER (Tutoría)
FERNANDEZ GOMEZ, MIGUEL Cotutoría
CID VIDAL, XABIER (Tutoría)
FERNANDEZ GOMEZ, MIGUEL Cotutoría
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Generalizaciones del modelo Jaynes-Cummings.
Autoría
R.S.L.
Grado en Física
R.S.L.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
El modelo Jaynes-Cummings es una herramienta simple utilizada para describir la interacción entre un átomo de Rydberg (con dos niveles energéticos) y la radiación electromagnética cuantizada. En su versión más elemental, el modelo es soluble de forma exacta y se ha utilizado con el objetivo de representar la electrodinámica cuántica en cavidades y para demostrar algunas propiedades fundamentales de la mecánica cuántica. En este trabajo, nos enfocamos en la generalización donde el acoplamiento entre el átomo y el campo es función del tiempo, lo que permite el estudio efectos dinámicos y la exploración de nuevas posibilidades en el control de la interacción radiación-materia. El interés en esta generalización radica en su aplicabilidad en circuitos superconductores y cavidades ópticas donde la modulación del acoplamiento puede implementarse experimentalmente. A su vez, la dependencia temporal del acoplamiento introduce fenómenos como la generación controlada de entrelazamiento y la ingeniería de estados cuánticos.
El modelo Jaynes-Cummings es una herramienta simple utilizada para describir la interacción entre un átomo de Rydberg (con dos niveles energéticos) y la radiación electromagnética cuantizada. En su versión más elemental, el modelo es soluble de forma exacta y se ha utilizado con el objetivo de representar la electrodinámica cuántica en cavidades y para demostrar algunas propiedades fundamentales de la mecánica cuántica. En este trabajo, nos enfocamos en la generalización donde el acoplamiento entre el átomo y el campo es función del tiempo, lo que permite el estudio efectos dinámicos y la exploración de nuevas posibilidades en el control de la interacción radiación-materia. El interés en esta generalización radica en su aplicabilidad en circuitos superconductores y cavidades ópticas donde la modulación del acoplamiento puede implementarse experimentalmente. A su vez, la dependencia temporal del acoplamiento introduce fenómenos como la generación controlada de entrelazamiento y la ingeniería de estados cuánticos.
Dirección
Vázquez Ramallo, Alfonso (Tutoría)
Vázquez Ramallo, Alfonso (Tutoría)
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Modelización matemática del sistema vestibular: correlaciones entre membranas reales y simuladas mediante geometría diferencial
Autoría
U.T.B.
Grado en Física
U.T.B.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
El Vértigo Posicional Paroxístico Benigno (VPPB) se produce por el desplazamiento de otoconias en el sistema vestibular y aunque la maniobra de Epley es el tratamiento estándar, falla en un 12.5% de los casos, principalmente por diferencias anatómicas individuales. Ante esto se propuso un enfoque personalizado mediante la reconstrucción matemática del laberinto membranoso, difícil de visualizar directamente por su tamaño y fragilidad. El proceso se fundamenta en el empleo del laberinto óseo como referencia anatómica y en el uso de centerlines para describir la geometría de los canales semicirculares, incorporando un triedro móvil modificado que mejora la estabilidad numérica frente al sistema tradicional de Frenet-Serret. Lo que permite representar con mayor precisión la geometría compleja del oído interno, evitando los posibles errores derivados de las coordenadas globales. El análisis de los cinco oídos muestra una mayor consistencia en las correlaciones angulares entre los vectores del triedro móvil que entre sus módulos. Además, se vio que las discrepancias entre las estructuras simuladas y reales se concentran en regiones localizadas, manteniendo una coherencia general en la orientación de las membranas. Los resultados validan el uso de técnicas de geometría diferencial para adaptar los tratamientos del VPPB a cada paciente, permitiendo una mayor precisión en la planificación de maniobras terapéuticas. Este tratamiento personalizado podría reducir significativamente los fallos del convencional y aumentar así su eficacia representando una mejora prometedora en la lucha contra VPPB.
El Vértigo Posicional Paroxístico Benigno (VPPB) se produce por el desplazamiento de otoconias en el sistema vestibular y aunque la maniobra de Epley es el tratamiento estándar, falla en un 12.5% de los casos, principalmente por diferencias anatómicas individuales. Ante esto se propuso un enfoque personalizado mediante la reconstrucción matemática del laberinto membranoso, difícil de visualizar directamente por su tamaño y fragilidad. El proceso se fundamenta en el empleo del laberinto óseo como referencia anatómica y en el uso de centerlines para describir la geometría de los canales semicirculares, incorporando un triedro móvil modificado que mejora la estabilidad numérica frente al sistema tradicional de Frenet-Serret. Lo que permite representar con mayor precisión la geometría compleja del oído interno, evitando los posibles errores derivados de las coordenadas globales. El análisis de los cinco oídos muestra una mayor consistencia en las correlaciones angulares entre los vectores del triedro móvil que entre sus módulos. Además, se vio que las discrepancias entre las estructuras simuladas y reales se concentran en regiones localizadas, manteniendo una coherencia general en la orientación de las membranas. Los resultados validan el uso de técnicas de geometría diferencial para adaptar los tratamientos del VPPB a cada paciente, permitiendo una mayor precisión en la planificación de maniobras terapéuticas. Este tratamiento personalizado podría reducir significativamente los fallos del convencional y aumentar así su eficacia representando una mejora prometedora en la lucha contra VPPB.
Dirección
Pérez Muñuzuri, Alberto (Tutoría)
SAAVEDRA LOPEZ, MARTIN Cotutoría
Pérez Muñuzuri, Alberto (Tutoría)
SAAVEDRA LOPEZ, MARTIN Cotutoría
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
Estudo del núcleo no ligado 10Li con ACTAR TPC
Autoría
D.V.L.
Grado en Física
D.V.L.
Grado en Física
Fecha de la defensa
17.07.2025 09:00
17.07.2025 09:00
Resumen
Este trabajo se centra en el estudio de la función de onda del estado fundamental del 11Li y en el estudio de la estructura del núcleo 10Li mediante la reacción de transferencia 11Li(d,t)10Li. Esta reacción permite determinar las distintas proporciones de los orbitales 2s1/2 y 1p1/2 presentes en el estado fundamental del 11Li y medir la espectroscopía del 10Li. Se utilizó el detector ACTAR TPC, que permite registrar con gran precisión las trazas de las partículas gracias a su funcionamiento en cinemática inversa y al uso de un gas activo que actúa como objetivo y medio de detección. Además, se dispone de muros de detectores de silicio que permiten medir la energía residual de las partículas salientes, clave para reconstruir la energía de excitación de 10Li. La simulación desarrollada, basada en métodos de Monte Carlo, tuvo en cuenta efectos como el straggling, la resolución energética de los detectores y la resolución angular. Los resultados obtenidos muestran que la resolución angular es la principal fuente de incertidumbre, limitando la capacidad de separar claramente los estados 2s1/2 y 1p1/2. Mejorar esta precisión permitiría una caracterización más detallada de los estados resonantes de 10Li y, por extensión, del halo de 11Li. También se observan perspectivas de mejora de la estadística a través de la reconstrucción de trazas con el detector ACTAR TPC. Este estudio contribuye a la mejora de los modelos fenomenológicos que describen núcleos exóticos cerca de la dripline, fundamentales para comprender los procesos de nucleosíntesis de elementos pesados en el universo.
Este trabajo se centra en el estudio de la función de onda del estado fundamental del 11Li y en el estudio de la estructura del núcleo 10Li mediante la reacción de transferencia 11Li(d,t)10Li. Esta reacción permite determinar las distintas proporciones de los orbitales 2s1/2 y 1p1/2 presentes en el estado fundamental del 11Li y medir la espectroscopía del 10Li. Se utilizó el detector ACTAR TPC, que permite registrar con gran precisión las trazas de las partículas gracias a su funcionamiento en cinemática inversa y al uso de un gas activo que actúa como objetivo y medio de detección. Además, se dispone de muros de detectores de silicio que permiten medir la energía residual de las partículas salientes, clave para reconstruir la energía de excitación de 10Li. La simulación desarrollada, basada en métodos de Monte Carlo, tuvo en cuenta efectos como el straggling, la resolución energética de los detectores y la resolución angular. Los resultados obtenidos muestran que la resolución angular es la principal fuente de incertidumbre, limitando la capacidad de separar claramente los estados 2s1/2 y 1p1/2. Mejorar esta precisión permitiría una caracterización más detallada de los estados resonantes de 10Li y, por extensión, del halo de 11Li. También se observan perspectivas de mejora de la estadística a través de la reconstrucción de trazas con el detector ACTAR TPC. Este estudio contribuye a la mejora de los modelos fenomenológicos que describen núcleos exóticos cerca de la dripline, fundamentales para comprender los procesos de nucleosíntesis de elementos pesados en el universo.
Dirección
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
LOZANO GONZALEZ, MIGUEL Cotutoría
FERNANDEZ DOMINGUEZ, BEATRIZ (Tutoría)
LOZANO GONZALEZ, MIGUEL Cotutoría
Tribunal
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)
RUSO VEIRAS, JUAN MANUEL (Presidente/a)
CAZON BOADO, LORENZO (Secretario/a)
AYYAD LIMONGE, FRANCESC YASSID (Vocal)