Pasar al contenido principal

De muestreo guiado a solucionadores aprendidos: modelos de difusión para problemas inversos

Fecha de inicio
Fecha de fin
Abstract: Los modelos de difusión han demostrado recientemente un éxito notable en muchos dominios de aplicación, proporcionando potentes priors generativos para resolver problemas inversos. En esta charla, discutiré un conjunto de algoritmos que aprovechan estos modelos como priors estructurales. Comenzaré presentando dos enfoques complementarios y plug-and-play para muestreo con restricciones que utilizan modelos preentrenados. El primero se basa en técnicas variacionales, lo que permite una inferencia rápida con modelos de difusión latente como Stable Diffusion. Luego, introduciré un método de muestreo con restricciones capaz de evitar activamente regiones inseguras o no deseadas en el espacio de datos, permitiendo muestrear bajo restricciones explícitas de seguridad. En la segunda parte de la charla, iré más allá del uso de modelos de difusión preentrenados y mostraré cómo aprender modelos que eliminen las aproximaciones propias de los métodos plug-and-play. Esto incluye un modelo universal basado en modelos de energía y difusión anisotrópica, capaz de abordar una amplia familia de problemas inversos lineales con un único modelo compartido. Finalmente, presentaré un método basado en flow matching para la reconstrucción de grafos. En conjunto, la charla ofrecerá una perspectiva unificada sobre cómo utilizar modelos de difusión para resolver problemas inversos en diferentes modalidades.
 
Bio: Soy candidato a doctor en Ingeniería Eléctrica y de Computadoras en la Universidad Rice, en Houston, TX. Realicé pasantías de investigación en InterDigital en Los Altos, CA (verano de 2024) y en el Center of Computational Neuroscience del Flatiron Institute en Nueva York, NY (verano de 2025). Recibí la beca Ken Kennedy–HPE Cray Graduate Fellowship en 2024.