Investigación y desarrollo · Seminarios
Las redes generativas adversariales han revolucionado desde su concepción el campo de la modelización generativa. El aprendizaje de distribuciones de probabilidad suele ser un problema de interés y la generación de datos sintéticos también resulta útil; los medios de comunicación están experimentando actualmente un silencioso cambio de paradigma propiciado, por ejemplo, por la modelización generativa. Sin embargo, en su forma original, las redes adversariales adolecen de varios problemas, como gran inestabilidad, no convergencia y colapso de modos. Se han identificado varios hechos empíricos para mejorar el entrenamiento, pero ninguno de ellos había sido respaldado teóricamente hasta que hizo su aparición la GAN de Wasserstein. En el presente trabajo, mostramos principios matemáticos para mejorar el entrenamiento de las redes generativas adversariales, estos métodos van desde la modificación de la función de valor original por una métrica más apropiada (más débil) (Wasserstein) y la penalización del gradiente, que hace cumplir las condiciones de Lipschitz necesarias. Mostramos resultados sobre datos de juguete que los ilustran y, por último, presentamos algunas aplicaciones a datos del mundo real.
YouTube – Quantil Matemáticas Aplicadas
1. Presentación
Obtén información sobre Ciencia de datos, Inteligencia Artificial, Machine Learning y más.