Tesis en depósito público
Presentación de alegaciones a una tesis doctoral en el plazo de exposición pública
De acuerdo con la Normativa Académica de los Estudios de Doctorado, los doctores y doctoras pueden solicitar el acceso a una tesis doctoral en depósito para consultarla y, si las hay, hacer llegar a la Comisión Permanente de la Escuela de Doctorado las observaciones y alegaciones que consideren oportunas sobre el contenido.
ARQUITECTURA DE COMPUTADORES
- BANCHELLI GRACIA, FABIO FRANCISCO: Evaluation and methods to increase efficiency of HPC systems with different maturity levelsAutor/a: BANCHELLI GRACIA, FABIO FRANCISCO
Tesis completa: (contacta con la Escuela de Doctorado para confirmar que eres un doctor acreditado y obtener el enlace a la tesis)
Programa: ARQUITECTURA DE COMPUTADORES
Departamento: Departamento de Arquitectura de Computadores (DAC)
Modalidad: Normal
Fecha de depósito: 12/11/2025
Fecha de FINAL de depósito: 25/11/2025
Director/a de tesis: MANTOVANI, FILIPPO | GARCIA GASULLA, MARTA
Resumen de tesis: La Computación de Alto Rendimiento (HPC) ha entrado en una era de creciente diversidad y complejidad arquitectónica, con sistemas que van desde prototipos experimentales hasta máquinas de producción a gran escala. Esta evolución presenta un desafío fundamental: cómo evaluar de manera consistente el rendimiento, la escalabilidad y la eficiencia en plataformas con diferentes niveles de madurez tecnológica. Los métodos de evaluación tradicionales, aunque efectivos para sistemas completamente desplegados, a menudo no son suficientes cuando se aplican a prototipos en etapas tempranas donde las pilas de software están incompletas o el hardware aún está en desarrollo.Esta tesis propone y desarrolla una metodología de evaluación integral capaz de abordar estos desafíos. El enfoque ofrece una perspectiva en múltiples capas sobre el rendimiento y está estructurado en torno a tres niveles complementarios: micro-benchmarks, benchmarks estándar de HPC y aplicaciones científicas completas. Se introducen los Niveles de Preparación Tecnológica (TRL) como un concepto orientador, lo que permite adaptar la metodología según la madurez del sistema en estudio. En niveles altos de TRL, la metodología permite evaluaciones comparativas de supercomputadoras de producción, mientras que en niveles bajos de TRL, ayuda a identificar cuellos de botella y oportunidades de optimización en las primeras etapas del ciclo de diseño.La tesis contribuye tanto con herramientas conceptuales como prácticas. Formaliza modelos de rendimiento y eficiencia (incluyendo Roofline, Top-Down y métricas de eficiencia) y demuestra su uso en múltiples arquitecturas. Además, amplía las capacidades de trazado y monitoreo para procesadores emergentes, introduce métodos para acceder e interpretar contadores de hardware en arquitecturas novedosas como \riscv, y evalúa la integración de hardware experimental a través de Vehículos de Desarrollo de Software (SDVs) y emulación basada en FPGA. Estas herramientas se validan a través de estudios de caso en sistemas de producción, como la supercomputadora MareNostrum 5 y otros clústeres de HPC desplegados en el Centro de Supercomputación de Barcelona (BSC), así como en prototipos de proyectos europeos, como EPAC.Los resultados muestran que la metodología propuesta proporciona información útil en todos los niveles de madurez: desde guiar el co-diseño de hardware y software en procesadores en etapas tempranas hasta permitir comparaciones de rendimiento reproducibles en sistemas pre-exascale. Más allá de la evaluación, proporciona retroalimentación valiosa para arquitectos de hardware, desarrolladores de software de sistema y científicos de aplicaciones por igual. Al cerrar la brecha entre prototipos de bajo TRL y sistemas de HPC listos para producción, este trabajo contribuye a construir un marco consistente para evaluar y mejorar la eficiencia de las futuras supercomputadoras europeas y globales.
- BARRERA HERRERA, JAVIER ENRIQUE: Improving Time Predictability and Code Coverage of Embedded GPUs for Real-Time SystemsAutor/a: BARRERA HERRERA, JAVIER ENRIQUE
Tesis completa: (contacta con la Escuela de Doctorado para confirmar que eres un doctor acreditado y obtener el enlace a la tesis)
Programa: ARQUITECTURA DE COMPUTADORES
Departamento: Departamento de Arquitectura de Computadores (DAC)
Modalidad: Normal
Fecha de depósito: 07/11/2025
Fecha de FINAL de depósito: 20/11/2025
Director/a de tesis: CAZORLA ALMEIDA, FRANCISCO JAVIER | KOSMIDIS, LEONIDAS
Resumen de tesis: Esta Tesis aborda retos existentes en la adopción de GPUs en sistemas embebidos críticos (CES), concretamente la predictibilidad temporal y la cobertura de código. Los distintos campos que implementan CES añaden constantemente funciones basadas en inteligencia artificial (IA), como la conducción autónoma, que exigen un alto rendimiento. Los sistemas en chip multiprocesador (MPSoC) son utilizados para proveer dicho rendimiento al estar equipados con aceleradores, siendo las unidades de procesamiento gráfico (GPUs) una opción habitual. Sin embargo, los CES deben superar un riguroso proceso de verificación y validación (V&V), garantizando un cierto nivel de determinismo del tiempo de ejecución (ETD). El uso de varias tareas para aumentar la utilización general introduce conflictos en los recursos compartidos, lo que introduce variabilidad. Para garantizar ETD, la variabilidad del tiempo debe mitigarse o rastrearse y controlarse. Otro reto para la adopción de GPU en CES es que el proceso de V&V exige pruebas de la exhaustividad de la fase de pruebas, para lo cual se utiliza la cobertura de código como indicador de calidad. Sin embargo, la cobertura de código, tal y como se entiende tradicionalmente para CES secuenciales, no cubre todos los escenarios posibles en los que podría ejecutarse un hilo de GPU.Para CES de baja criticidad y criticidad mixta, sostenemos que las tareas pueden compartir la caché de último nivel (LLC) si se provee de soporte hardware para el rastreo de conflictos. Entender cómo las tareas compiten entre sí permite a los desarrolladores de CES equilibrar el rendimiento y la predictibilidad. En el caso de los CES de alta criticidad, es común utilizar particionado de LLC, permitiendo a las tareas acceder a LLC sin sufrir conflictos; sin embargo, las tareas pueden sufrir una pérdida de rendimiento por falta de recursos. En esta Tesis proponemos los contadores de degradación, una técnica que realiza un rastreo exhaustivo de cuánto se ha degradado cada tarea hasta su expulsión de la LLC, cuantificando su impacto en el CES. Finalmente, evaluamos el uso de la función Multi-Instance GPU (MIG) de NVIDIA como medio para mejorar el ETD en CES de alta criticidad.La cobertura de código se utiliza como indicador de calidad de las pruebas para demostrar la exhaustividad requerida por el proceso de V&V. Sin embargo, el concepto tradicional ignora la dimensión de hilos de las GPU. Los hilos tienen regiones privadas de memoria, así como regiones compartidas a distintos niveles. Esto implica que los errores que son inocuos para un hilo son potencialmente perjudiciales para otro, por lo que no cubre todos los casos posibles en los que pueden ejecutarse los hilos de la GPU. En esta Tesis, proponemos el uso de la cobertura de sentencias por hilo (PTSC), que realiza un rastreo de la cobertura de código a nivel de hilo. Con el fin de mitigar las sobrecargas causadas por PTSC, también se proponen variantes que aplican distintas optimizaciones ortogonales. Por último, evaluamos los posibles beneficios de utilizar soporte hardware para PTSC, mitigando el consumo de memoria de PTSC, así como el impacto en el tiempo de ejecución en la fase de despliegue.En resumen, esta Tesis avanza en el estado del arte en la adopción de GPUs en CES. La propuesta de soporte hardware para el rastreo de conflictos y la evaluación de MIG de NVIDIA, como medios para mejorar ETD, afronta de manera eficaz el desafío de la predictibilidad en LLC compartida. La propuesta software de PTSC proporciona a los diseñadores de CES una visión completa de la ejecución para GPUs disponibles en el mercado. El uso de soporte hardware para PTSC mitiga las sobrecargas de PTSC en la fase de despliegue, mientras que las distintas técnicas de compresión reducen el volumen de la información durante la fase de prueba sin pérdida de datos. Por ende, esta Tesis proporciona medios para afrontar los retos de la predictibilidad temporal y la cobertura de código en GPUs en CES.
- SABRI ABREBEKOH, MOHAMMAD: Improving Efficiency of ReRAM-Based Accelerators for Cognitive Computing WorkloadsAutor/a: SABRI ABREBEKOH, MOHAMMAD
Tesis completa: (contacta con la Escuela de Doctorado para confirmar que eres un doctor acreditado y obtener el enlace a la tesis)
Programa: ARQUITECTURA DE COMPUTADORES
Departamento: Departamento de Arquitectura de Computadores (DAC)
Modalidad: Normal
Fecha de depósito: 07/11/2025
Fecha de FINAL de depósito: 20/11/2025
Director/a de tesis: GONZÁLEZ COLÁS, ANTONIO MARIA | RIERA VILLANUEVA, MARC
Resumen de tesis: Las redes neuronales profundas (DNN) han logrado un éxito notable en una amplia variedad de aplicaciones. La operación principal en las DNN es el producto punto entre activaciones de entrada cuantizadas y pesos. Trabajos previos han propuesto arquitecturas centradas en la memoria basadas en el paradigma de Procesamiento-en-Memoria (PuM). La tecnología ReRAM resulta especialmente atractiva para aceleradores de DNN basados en PuM debido a su alta densidad para almacenamiento de pesos, bajo consumo por fuga, baja latencia de lectura y capacidad para realizar productos punto de DNN de manera masiva y en paralelo dentro de los crossbars de ReRAM. Sin embargo, existen tres cuellos de botella principales en los aceleradores basados en ReRAM.Primero, los convertidores analógico-digital (ADC) de alto consumo necesarios para cálculos analógicos en ReRAM reducen la eficiencia y el rendimiento de PuM. Para mejorar la eficiencia energética, se presenta ReDy, un acelerador hardware que implementa un esquema novedoso de cuantización dinámica centrado en ReRAM, aprovechando la transmisión y procesamiento bit a bit de activaciones. El consumo energético de los aceleradores basados en ReRAM es proporcional a la precisión numérica de las activaciones de entrada en cada capa. ReDy aprovecha que las activaciones en capas convolucionales suelen agruparse según el tamaño de los filtros y de los crossbars. Cuantiza cada grupo de activaciones sobre la marcha con diferentes niveles de precisión según una heurística basada en su distribución estadística. En conjunto, ReDy reduce significativamente la actividad de los crossbars y el número de conversiones A/D frente a la cuantización uniforme estática de 8 bits. Evaluado en varias CNN modernas, ReDy logra un ahorro energético promedio del 13% respecto a un acelerador tipo ISAAC, con un impacto mínimo en área.Segundo, el costoso proceso de escritura de las celdas ReRAM ha llevado a diseñar aceleradores con capacidad suficiente para almacenar modelos DNN completos. Dado el continuo crecimiento de los tamaños de los modelos, este enfoque es inviable o ineficiente debido a los enormes requisitos de hardware, y carece de flexibilidad frente a distintos modelos. Para superar esto, se propone ARAS, un acelerador ReRAM rentable que emplea un planificador inteligente para adaptar diferentes DNN a hardware con recursos limitados. ARAS solapa el cálculo de una capa con la escritura de pesos de otras para mitigar la alta latencia de escritura de ReRAM. Además, introduce optimizaciones como la recodificación de pesos para aumentar la similitud entre capas y reducir la energía en la sobreescritura. Evaluado en varios modelos, ARAS logra hasta 2,2× de velocidad y 45% de ahorro energético respecto a un acelerador PuM sin optimizaciones, y hasta 1,5× de velocidad y 62% de ahorro frente a un acelerador tipo TPU.Tercero, las celdas ReRAM presentan resistencia limitada debido al desgaste por múltiples actualizaciones durante la inferencia, reduciendo la vida útil de los aceleradores. Para abordar esto, se propone Hamun, un método de computación aproximada que extiende la vida útil mediante varias optimizaciones. Hamun detecta y retira celdas defectuosas, aplica técnicas de nivelación de desgaste en diferentes niveles de abstracción y un esquema de ejecución por lotes que maximiza la utilización de las celdas. Además, aprovecha la tolerancia a fallos de las DNN para retrasar la retirada de celdas desgastadas, reduciendo penalizaciones de rendimiento y extendiendo aún más la vida útil. Evaluado en varios modelos, Hamun mejora la vida útil hasta 13,2× respecto a un referente, con contribuciones principales de la gestión de fallos (4,6×) y ejecución por lotes (2,6×).
AUTOMÁTICA, ROBÓTICA Y VISIÓN
- SHEIKHSAMAD, MOHAMMAD: Learning Methods in Planning and Control for Autonomous Vehicles and Robotic ManipulationAutor/a: SHEIKHSAMAD, MOHAMMAD
Tesis completa: (contacta con la Escuela de Doctorado para confirmar que eres un doctor acreditado y obtener el enlace a la tesis)
Programa: AUTOMÁTICA, ROBÓTICA Y VISIÓN
Departamento: Instituto de Organización y Control de Sistemas Industriales (IOC)
Modalidad: Normal
Fecha de depósito: 11/11/2025
Fecha de FINAL de depósito: 24/11/2025
Director/a de tesis: SUAREZ FEIJOO, RAUL | ROSELL GRATACOS, JOAN
Resumen de tesis: Este trabajo de tesis trata sobre la aplicación de técnicas de aprendizaje automático (ML) y aprendizaje profundo (DL) para mejorar las tareas de planificación y control en distintos ámbitos, particularmente en vehículos autónomos y manos robóticas. En particular, aborda el desarrollo, basado en aprendizaje, de un controlador robusto de seguimiento de trayectorias para vehículos autónomos, un planificador de trayectorias adaptativo para manos robóticas que permite manipulación diestra, y un controlador con el humano en el bucle para manos robóticas mioeléctricas que garantiza una regulación precisa de la fuerza de prensión.En el ámbito de los vehículos autónomos, la tesis desarrolla un controlador Takagi–Sugeno (TS) utilizando el Sistema de Inferencia Neuro-Difuso Adaptativo (ANFIS) como un enfoque basado en aprendizaje para inferir una estrategia de control a partir de los datos de entrada–salida de un controlador ya existente. La estabilidad en lazo cerrado del sistema se analiza mediante la teoría de Lyapunov y Desigualdades Matriciales Lineales (LMIs). El controlador propuesto elimina la necesidad de optimización en línea, reduce significativamente el coste computacional y mejora el rendimiento en tiempo real. Su efectividad se valida a través de simulaciones de un vehículo autónomo a pequeña escala.En el ámbito de la manipulación robótica diestra, la tesis introduce tres planificadores de trayectorias basados en aprendizaje que emplean ANFIS y Redes Neuronales Profundas (DNNs) para aprender heurísticas de un planificador analítico y autoajustar sus parámetros en función de la experiencia previa. Este enfoque permiten a los robots manipular objetos de distintas formas, tamaños y propiedades materiales. Los planificadores propuestos se validan mediante experimentos en el mundo real utilizando una mano robótica Allegro, demostrando robustez frente al ruido de sensores y perturbaciones del entorno.En el ámbito de la prensión robótica, la tesis presenta un sistema mio-controlado con el humano en el bucle (HITL) para la regulación precisa de la fuerza de prensión. El sistema integra tanto controladores de fuerza basados en DNN como controladores basados en lógica difusa. El controlador difuso emplea lógica difusa, con una optimización de parámetros guiada por las preferencias del usuario recopiladas a través de una interfaz gráfica (GUI) mediante el método de Aprendizaje Global de Estrategias Entrada–Salida a partir de Preferencias por Pares (GLISp). Estos controladores se comparan con controladores heurísticos basados en modelos, y el sistema se valida mediante experimentos reales con la mano robótica AR10, mostrando una mayor adaptabilidad y capacidades de regulación fina de fuerza.Los resultados de esta investigación contribuyen al avance de los sistemas inteligentes de planificación y control en múltiples áreas de aplicación, allanando el camino hacia una automatización más eficiente, adaptativa y estable en escenarios del mundo real.
FÍSICA COMPUTACIONAL Y APLICADA
- MIRZAY SHAHIM, MAAHIN: Catalytic Properties of Amorphous Alloys Autor/a: MIRZAY SHAHIM, MAAHIN
Tesis completa: (contacta con la Escuela de Doctorado para confirmar que eres un doctor acreditado y obtener el enlace a la tesis)
Programa: FÍSICA COMPUTACIONAL Y APLICADA
Departamento: Departamento de Física (FIS)
Modalidad: Normal
Fecha de depósito: 17/11/2025
Fecha de FINAL de depósito: 28/11/2025
Director/a de tesis: PINEDA SOLER, ELOY | SOLER TURU, LLUIS
Resumen de tesis: Esta tesis explora el potencial catalítico de los vidrios metálicos (Metallic Glasses, MG, en inglés) y su combinación con óxido de cerio (CeO2) para la oxidación de monóxido de carbono (CO) a baja temperatura y para la reacción de oxidación preferencial de CO (COPrOx). Los vidrios metálicos, gracias a su estructura no cristalina y a una composición fácilmente modificable, pueden convertirse en una opción prometedora para el diseño de nuevos materiales para aplicaciones de catálisis. El estudio se centra en tres sistemas principales de MGs: Ce65Al35, Pd77Si16.5Cu6.5 y Cu48Zr48Al4, examinando sus características estructurales y el comportamiento catalítico. Los resultados de este trabajo han mostrado que el vidrio metálico Ce65Al35 tiene una actividad catalítica limitada, incluso después de varios tratamientos de activación como la molienda mecánica, la calcinación o la combinación con CeO₂. Sin embargo, dopar el sistema binario Ce-Al con Pd, obteniendo la aleación Ce61Al35Pd4, mejoró notablemente el rendimiento, alcanzando una conversión del 100 % de CO a 300 °C tras la molienda. Curiosamente, mezclar este MG ternario con CeO2 no aportó ninguna mejora adicional, lo que indica que el papel del Pd es dominante y no sinérgico con los cristales de ceria. El vidrio metálico Pd77Si16.5Cu6.5 resultó ser el catalizador más eficaz por sí solo, logrando una conversión completa de CO a solo 240 °C, lo que podría atribuirse a la presencia de Pd y su distribución optimizada dentro de la matriz amorfa. Experimentos de control con aleaciones binarias (Pd77Si23 y Cu6Si94) destacaron la importancia tanto de la composición como del procesamiento, especialmente la necesidad de técnicas de solidificación rápida, como el melt spinning, y la molienda mecánica para generar estructuras activas de partículas finas.Otra contribución relevante de este trabajo es el desarrollo y la caracterización detallada de los materiales compuestos combinando MGs con contenido de Cu y CeO2, en particular usando la aleación Cu48Zr48Al4. Estos sistemas mostraron una elevada actividad catalítica y estabilidad en las reacciones de CO y COPrOx, con un rendimiento mejorado mediante la molienda mecánica. Los análisis estructurales in operando (XPS, EXAFS, NEXAFS y XRD) confirmaron una reorganización superficial de los catalizadores durante la reacción, estabilizando átomos de Cu(I) catalíticamente activos. La observación de un fenómeno de envejecimiento espontáneo y de un cambio similar generado por un pretratamiento de reducción con hidrógeno sugiere una evolución dinámica de los sitios activos en condiciones reales de operación. Este estudio demuestra que la síntesis mecanoquímica y el diseño estructural cuidadoso de los compuestos MG/CeO2 permiten desarrollar catalizadores de oxidación eficientes, estables y de bajo coste. Estos resultados ofrecen nuevas estrategias para crear materiales altamente activos para el control de la contaminación y tecnologías de purificación de hidrógeno, abriendo el camino al uso de metales amorfos para aplicaciones de catálisis heterogénea.
INGENIERÍA DE LA CONSTRUCCIÓN
- POSADA CÁRCAMO, HÉCTOR JOSÉ: Digital Twins for Concrete Building Construction ProcessesAutor/a: POSADA CÁRCAMO, HÉCTOR JOSÉ
Tesis completa: (contacta con la Escuela de Doctorado para confirmar que eres un doctor acreditado y obtener el enlace a la tesis)
Programa: INGENIERÍA DE LA CONSTRUCCIÓN
Departamento: Departamento de Ingeniería Civil y Ambiental (DECA)
Modalidad: Normal
Fecha de depósito: 12/11/2025
Fecha de FINAL de depósito: 25/11/2025
Director/a de tesis: CHACÓN FLORES, ROLANDO ANTONIO
Resumen de tesis: Esta tesis investiga el uso de la tecnología de Gemelos Digitales (GD) para mejorar la gestión de la construcción en edificios de hormigón, ofreciendo un análisis de los flujos de trabajo, herramientas y marcos relacionados. Contribuye al ámbito académico al abordar desafíos de investigación y respaldar el avance de los GD desde una perspectiva teórica y práctica.La tesis explora los conceptos fundamentales que sustentan los GD, proporcionando una revisión de su desarrollo conceptual y evolución en los últimos años dentro del sector. Identifica y desarrolla los principales habilitadores tecnológicos cruciales para esta investigación: i) OpenBIM (estándar IFC), ii) Diseño Computacional, iii) Internet de las Cosas (IoT), iv) bases de datos en forma de grafos de conocimiento, y v) interfaces humano-gemelo (plataformas de GD).Se presta especial atención al estado actual y a los retos de integrar el análisis estructural dentro de los marcos de GD.La investigación se basa en un caso de estudio real: la construcción de un edificio de oficinas de hormigón. Para este demostrador se desarrollaron seis flujos de información de gemelización, para definir el viaje de los datos desde las mediciones in situ hasta la obtención de Indicadores de Rendimiento. Estos flujos fueron cruciales para identificar cuatro desafíos de investigación abordados en este trabajo:A) ¿Cómo puede generarse, prepararse y optimizarse información multicapa relacionada con la construcción en hormigón, asegurando la interoperabilidad para los GD?B) ¿Qué roles y flujos de trabajo deben asumir los agentes implicados para permitir una implementación coordinada del GD?C) ¿Cómo puede integrarse eficazmente el análisis estructural en los sistemas de GD de forma escalable e interoperable?D) ¿Qué tipo de arquitectura de sistema puede unificar diversas capas y flujos de información para apoyar la toma de decisiones oportuna y basada en datos?El desafío de investigación A se aborda mediante el desarrollo de MatchFEM. Concebido como un complemento dentro de una herramienta de Diseño Computacional, optimiza los procesos fragmentados de modelado 4D IFC-BIM, integración de datos IoT y análisis estructural, unificándolos dentro de un entorno paramétrico.El desafío de investigación B comprende un mapa mental general y dos flujos de trabajo complementarios. Estos delinean los roles esenciales implicados en la creación y operación de GD durante la construcción de edificios. Además, se propone un marco conceptual para el rol emergente del Gestor del GD, destacando su importancia en la coordinación de las actividades relacionadas con el Gemelo Digital.Para integrar el análisis estructural en los GD (desafío C), se proponen dos modelos de datos: O-SAM (Open Structural Analysis Models), un esquema en formato JSON para codificar y transferir datos de simulación estructural a través de plataformas web, y SSO (Structural Simulation Ontology), una ontología diseñada para representar los datos O-SAM como un grafo, permitiendo su integración dentro de GD basados en grafos de conocimiento.Finalmente, se presenta un sistema de GD conectado a simulaciones estructurales en tiempo real durante la construcción en hormigón. Este sistema aborda el desafío de investigación D y consolida los conocimientos, herramientas y marcos desarrollados a lo largo de la tesis. Se destaca la implementación de grafos de conocimiento, junto con el desarrollo de una interfaz humano-gemelo que proporciona Indicadores de Rendimiento a los Gestores de Construcción. El sistema se valida mediante la implementación de un flujo de trabajo de gestión de obra: el Método de Madurez para losas de hormigón.La tesis concluye con una reflexión sobre los hallazgos y las contribuciones al campo, detallando las limitaciones encontradas y las futuras líneas de investigación, con la visión de los GD como asistentes basados en datos que impulsan la productividad y la sostenibilidad en el sector de la construcción.
INGENIERÍA SÍSMICA Y DINÁMICA ESTRUCTURAL
- WANG, FUMIN: A Simplified Approach for the Seismic Analysis of Compliant Soil SlopesAutor/a: WANG, FUMIN
Tesis completa: (contacta con la Escuela de Doctorado para confirmar que eres un doctor acreditado y obtener el enlace a la tesis)
Programa: INGENIERÍA SÍSMICA Y DINÁMICA ESTRUCTURAL
Departamento: Departamento de Ingeniería Civil y Ambiental (DECA)
Modalidad: Normal
Fecha de depósito: 07/11/2025
Fecha de FINAL de depósito: 20/11/2025
Director/a de tesis:
Resumen de tesis: En las últimas décadas, las investigaciones posteriores a los terremotos han revelado daños significativos tanto en laderas naturales como en laderas artificiales, incluyendo deslizamientos de tierra, colapsos de taludes y otras formas de inestabilidad. Estas observaciones ponen de manifiesto la necesidad urgente de mejorar la comprensión del comportamiento de las laderas bajo cargas sísmicas y de perfeccionar los enfoques analíticos para la evaluación de su estabilidad. Esta tesis desarrolla robustos métodos simplificados para evaluar la estabilidad sísmica y el comportamiento dinámico de las laderas, equilibrando la interpretación física con la eficiencia analítica.El Capítulo 2 revisa los marcos analíticos existentes —incluyendo el modelo clásico de bloque rígido de Newmark, los análisis desacoplados y los acoplados— utilizados para estimar la estabilidad y las respuestas dinámicas de las laderas sometidas a excitación sísmica. Se comparan sus desempeños, se identifican las limitaciones y se señalan las principales necesidades de investigación.El Capítulo 3 propone una formulación simplificada y computacionalmente eficiente para estimar el factor de seguridad (FS) de laderas sísmicas con comportamiento elástico, considerando explícitamente la geometría del talud, la dirección del movimiento del terreno y los efectos del agua subterránea. El método clarifica las diferencias entre los análisis acoplados y los del tipo Newmark, e introduce una aceleración de fluencia modificada para laderas deformables. La validación mediante datos experimentales, numéricos y de campo confirma su simplicidad y precisión.El Capítulo 4 presenta, asimismo, un análisis lineal acoplado basado en un modelo simplificado de dos bloques flexibles sometidos a excitación sísmica armónica. Se derivan y verifican soluciones analíticas y numéricas, y los análisis de sensibilidad revelan la influencia de la dirección del movimiento sísmico, la amplitud de la excitación, la relación de amortiguamiento y las propiedades del talud. Se proponen límites superiores simplificados para la aceleración y el desplazamiento máximos durante el primer ciclo en laderas rígidas y deformables, demostrando la capacidad predictiva del modelo pese a su simplicidad.El Capítulo 5 examina el comportamiento de los modelos discretos clásicos de masas concentradas en comparación con las formulaciones continuas basadas en la ecuación de ondas, bajo cargas sísmicas sinusoidales sin deslizamiento. Ambos enfoques producen resultados coherentes en términos de desplazamiento relativo y esfuerzo cortante, y predicen patrones de fallo similares, destacando el papel de la cohesión en el desplazamiento de la superficie crítica de deslizamiento hacia mayores profundidades. La incorporación de un amortiguamiento tipo Maxwell en el modelo continuo demuestra ser una alternativa válida al modelo tradicional de Kelvin–Voigt en los análisis lineales.En resumen, esta tesis amplía y generaliza los métodos tradicionales simplificados para el análisis sísmico de laderas de suelo, incorporando la rigidez y los efectos de amortiguamiento del material deslizado. Las metodologías propuestas, validadas mediante experimentos publicados y casos reales, ofrecen un marco eficiente y fiable para la evaluación de la estabilidad sísmica de laderas y proporcionan una base valiosa para futuras investigaciones y aplicaciones en ingeniería geotécnica.
INTELIGENCIA ARTIFICIAL
- FERRANDO MONSONÍS, JAVIER: Interpretability in Natural Language Processing and Machine TranslationAutor/a: FERRANDO MONSONÍS, JAVIER
Tesis completa: (contacta con la Escuela de Doctorado para confirmar que eres un doctor acreditado y obtener el enlace a la tesis)
Programa: INTELIGENCIA ARTIFICIAL
Departamento: Departamento de Ciencias de la Computación (CS)
Modalidad: Normal
Fecha de depósito: 13/11/2025
Fecha de FINAL de depósito: 26/11/2025
Director/a de tesis: RUIZ COSTA-JUSSA, MARTA
Resumen de tesis: Esta tesis presenta un conjunto de métodos y análisis destinados a mejorar nuestra comprensión de los mecanismos internos de los modelos basados en Transformers en el ámbito del procesamiento del lenguaje natural y la traducción automática.En primer lugar, el trabajo analiza el papel de los pesos de atención en Transformers encoder-decoder, mostrando que, aunque no proporcionan alineamientos precisos entre palabras, sí ayudan a explicar las predicciones del modelo y contribuyen a una comprensión más profunda de la calidad de la traducción.Una contribución central de esta tesis es el desarrollo de ALTI y sus extensiones, que ofrecen un nuevo enfoque para la atribución de predicciones a los tokens de entrada. Estos métodos cuestionan suposiciones previas sobre el poder explicativo de los mecanismos de atención y revelan cómo se propaga la información entre los componentes del encoder y el decoder. Al hacerlo, también arrojan luz sobre las fuentes de alucinaciones en los sistemas de traducción.Además, la tesis introduce técnicas para atribuir las predicciones a componentes y posiciones individuales, lo que permite generar explicaciones contrastivas del comportamiento lingüístico. Estas explicaciones aclaran cómo los modelos de lenguaje representan y resuelven distintos fenómenos lingüísticos.La tesis también propone una metodología para seguir el flujo de información durante la inferencia, ofreciendo una visión detallada de cómo contribuyen los distintos componentes del modelo a sus predicciones. Esto permite identificar componentes especializados por dominio y comprender mejor cómo se transforman las representaciones a lo largo de las capas.Por último, el análisis de similitudes estructurales entre circuitos en diferentes lenguas revela patrones comunes en la forma en que los modelos procesan distintos idiomas. Estos resultados apuntan a la existencia de mecanismos universales en los modelos del lenguaje.En conjunto, esta tesis supone un avance en la interpretabilidad de los modelos Transformer, al proporcionar herramientas y marcos para analizar, atribuir y comprender el comportamiento de sistemas complejos de procesamiento del lenguaje natural.
TEORÍA DE LA SEÑAL Y COMUNICACIONES
- IRAWAN, AMIR MUSTOFA: Explainable Artificial Intelligence Applied to Geoscience and Remote Sensing: Development and Application to Wild Fire Forecasting Related to Climate ChangeAutor/a: IRAWAN, AMIR MUSTOFA
Tesis completa: (contacta con la Escuela de Doctorado para confirmar que eres un doctor acreditado y obtener el enlace a la tesis)
Programa: TEORÍA DE LA SEÑAL Y COMUNICACIONES
Departamento: Departamento de Teoría de la Señal y Comunicaciones (TSC)
Modalidad: Normal
Fecha de depósito: 17/11/2025
Fecha de FINAL de depósito: 28/11/2025
Director/a de tesis: VALL-LLOSSERA FERRAN, MERCEDES MAGDALENA | LOPEZ MARTINEZ, CARLOS
Resumen de tesis: Esta tesis presenta una exploración progresiva de la predicción de incendios forestales mediante la integración del conocimiento basado en procesos con enfoques de aprendizaje automático e inferencia causal. El Capítulo 3 se centra en la importancia y sensibilidad de las variables mediante intervenciones basadas en perturbaciones, modificando factores clave como el déficit de presión de vapor (VPD), la humedad del suelo (SM) y métricas de la corriente en chorro hasta ±25 % para simular condiciones ambientales intensificadas y evaluar su impacto sobre la superficie quemada. En contraste, el Capítulo 4 emplea inferencia causal formal mediante el cálculo do, lo que permite realizar análisis contrafactuales dentro de un modelo causal estructural (SCM). A diferencia de las intervenciones continuas del Capítulo 3, aquí los escenarios se implementan mediante bootstrap de las variables de entrada, fijándolas en los percentiles 25, 50, 75 y 100. Esto permite simular el impacto de cada variable en un rango de condiciones, desde típicas hasta extremas, y cuantificar sus efectos directos e indirectos sobre la superficie quemada, especialmente para variables como ∆Z500 y v300.El Capítulo 5 amplía el razonamiento causal a escala global utilizando grafos derivados de PCMCI como estructuras causales dentro de un modelo de aprendizaje profundo. Introduce grafos dirigidos acíclicos (DAGs) específicos por régimen, generados mediante agrupamiento espacial con el algoritmo DBSCAN, lo que permite identificar interacciones tierra–atmósfera específicas de cada región. Estos grafos se integran en redes de atención de grafos (GAT), permitiendo al modelo aprender conexiones ponderadas guiadas por la estructura causal, mejorando tanto el rendimiento predictivo como la interpretabilidad física.Finalmente, el Capítulo 6 sintetiza estos avances incorporando grafos causales en una GAT para simular intervenciones complejas y multiescalares. Se incluyen escenarios contrafactuales explícitos, como un El Niño intensificado (doblando el SOI negativo) y una intensificación de la cresta en la corriente en chorro (aumento de ∆Z500, v300 y el núcleo del chorro), revelando respuestas espaciales diferenciadas del fuego. Las distintas estrategias de intervención empleadas reflejan la evolución metodológica: desde la sensibilidad a las entradas (Capítulo 3), pasando por la inferencia de mecanismos causales (Capítulo 4), la validación de estructuras causales en distintas regiones (Capítulo 5), hasta la cuantificación de escenarios contrafactuales (Capítulo 6).Sobre esta base, el Capítulo 6 presenta una GAT causal capaz de predecir la superficie quemada globalmente integrando grafos causales derivados de PCMCI. Este enfoque permite al modelo seguir interacciones tierra–atmósfera significativas, mejorando la interpretabilidad y alineando las predicciones con procesos físicos conocidos. Los resultados muestran que la GAT causal supera a modelos con grafos totalmente conectados. Los grafos densos generan sobre-suavizado, un problema común en las GNN, donde el paso de mensajes en enlaces redundantes difumina representaciones clave. Esto puede ocultar características predictivas importantes y degradar la precisión. Al eliminar conexiones espurias o poco informativas, la GAT causal conserva representaciones más nítidas y significativas, evitando la pérdida de rendimiento por sobreparametrización. En conjunto, estos avances demuestran que los modelos basados en correlación no logran capturar las interacciones complejas y no lineales entre fuentes de ignición, dinámica de la vegetación y retroalimentaciones climáticas, abogando por un cambio hacia modelos basados en procesos y aprendizaje automático que representen mejor los mecanismos multifactoriales que rigen los regímenes de incendios en un mundo en calentamiento.
Última actualización: 19/11/2025 05:30:19.