<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Generative_Adversarial_Nets%2Fes</id>
	<title>Generative Adversarial Nets/es - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Generative_Adversarial_Nets%2Fes"/>
	<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Generative_Adversarial_Nets/es&amp;action=history"/>
	<updated>2026-04-27T19:26:39Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.39.1</generator>
	<entry>
		<id>https://marovi.ai/index.php?title=Generative_Adversarial_Nets/es&amp;diff=6365&amp;oldid=prev</id>
		<title>DeployBot: Batch translate Generative Adversarial Nets unit 13 -&gt; es</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Generative_Adversarial_Nets/es&amp;diff=6365&amp;oldid=prev"/>
		<updated>2026-04-27T04:11:22Z</updated>

		<summary type="html">&lt;p&gt;Batch translate Generative Adversarial Nets unit 13 -&amp;gt; es&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;lt;languages /&amp;gt;&lt;br /&gt;
{{LanguageBar | page = Generative Adversarial Nets}}&lt;br /&gt;
&lt;br /&gt;
{{PaperInfobox&lt;br /&gt;
| topic_area  = Deep Learning&lt;br /&gt;
| difficulty  = Research&lt;br /&gt;
| authors     = Ian J. Goodfellow; Jean Pouget-Abadie; Mehdi Mirza; Bing Xu; David Warde-Farley; Sherjil Ozair; Aaron Courville; Yoshua Bengio&lt;br /&gt;
| year        = 2014&lt;br /&gt;
| venue       = NeurIPS&lt;br /&gt;
| arxiv_id    = 1406.2661&lt;br /&gt;
| source_url  = https://arxiv.org/abs/1406.2661&lt;br /&gt;
| pdf_url     = https://arxiv.org/pdf/1406.2661&lt;br /&gt;
}}&lt;br /&gt;
{{ContentMeta | generated_by = claude-opus | model_used = claude-opus-4-6 | generated_date = 2026-03-13}}&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Generative Adversarial Nets&amp;#039;&amp;#039;&amp;#039; es un artículo de 2014 de Goodfellow et al. que introdujo las &amp;#039;&amp;#039;&amp;#039;redes generativas adversarias&amp;#039;&amp;#039;&amp;#039; (GAN), un marco para entrenar modelos generativos mediante un proceso adversario. La idea clave consiste en entrenar simultáneamente dos redes neuronales — un &amp;#039;&amp;#039;&amp;#039;generador&amp;#039;&amp;#039;&amp;#039; que produce datos sintéticos y un &amp;#039;&amp;#039;&amp;#039;discriminador&amp;#039;&amp;#039;&amp;#039; que distingue los datos reales de los datos generados — en un juego minimax. Las GAN abrieron un nuevo paradigma para el modelado generativo y se convirtieron en el enfoque dominante para la síntesis de imágenes de alta fidelidad a lo largo de la última parte de la década de 2010.&lt;br /&gt;
&lt;br /&gt;
== Resumen ==&lt;br /&gt;
&lt;br /&gt;
El modelado generativo busca aprender la distribución subyacente de los datos de entrenamiento con el fin de generar nuevas muestras realistas. Antes de las GAN, los enfoques generativos basados en la máxima verosimilitud — como los autoencoders variacionales (VAE), las máquinas de Boltzmann y las redes de creencias profundas — enfrentaban dificultades con inferencia intratable, requerían técnicas de aproximación o producían salidas borrosas. Parametrizar y maximizar directamente la verosimilitud de distribuciones de datos de alta dimensión resultó difícil.&lt;br /&gt;
&lt;br /&gt;
Goodfellow et al. propusieron un enfoque fundamentalmente diferente: en lugar de modelar explícitamente la distribución de los datos, entrenar una red generadora para producir muestras que engañen a una red discriminadora entrenada para distinguir lo real de lo falso. Esta formulación adversaria evita la necesidad de estimación explícita de la densidad, inferencia aproximada o cadenas de Markov, requiriendo únicamente la retropropagación a través de ambas redes.&lt;br /&gt;
&lt;br /&gt;
== Contribuciones Clave ==&lt;br /&gt;
&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Marco adversario&amp;#039;&amp;#039;&amp;#039;: Un paradigma de entrenamiento novedoso en el que un generador y un discriminador se entrenan simultáneamente mediante un juego minimax de dos jugadores, con el generador aprendiendo a producir muestras cada vez más realistas.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Fundamento teórico&amp;#039;&amp;#039;&amp;#039;: Demostración de que el juego minimax tiene un óptimo global cuando la distribución del generador coincide con la distribución real de los datos, y que el procedimiento de entrenamiento converge a este óptimo bajo ciertas condiciones.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Simplicidad y generalidad&amp;#039;&amp;#039;&amp;#039;: Las GAN solo requieren redes neuronales feedforward y retropropagación, sin necesidad de cadenas de Markov, cotas variacionales o procedimientos de inferencia complejos.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Generación de muestras nítidas&amp;#039;&amp;#039;&amp;#039;: A diferencia de los VAE, que tienden a producir salidas borrosas debido a las suposiciones gaussianas en su proceso generativo, las GAN pueden producir muestras nítidas y detalladas.&lt;br /&gt;
&lt;br /&gt;
== Métodos ==&lt;br /&gt;
&lt;br /&gt;
El marco GAN consta de dos funciones diferenciables:&lt;br /&gt;
&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Generador&amp;#039;&amp;#039;&amp;#039; &amp;lt;math&amp;gt;G(z; \theta_g)&amp;lt;/math&amp;gt;: Mapea un vector latente de ruido &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; muestreado de una distribución a priori &amp;lt;math&amp;gt;p_z(z)&amp;lt;/math&amp;gt; (típicamente gaussiana o uniforme) al espacio de datos.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Discriminador&amp;#039;&amp;#039;&amp;#039; &amp;lt;math&amp;gt;D(x; \theta_d)&amp;lt;/math&amp;gt;: Produce la probabilidad de que una muestra &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; provenga de la distribución real de datos en lugar del generador.&lt;br /&gt;
&lt;br /&gt;
Las dos redes se entrenan para optimizar el &amp;#039;&amp;#039;&amp;#039;objetivo minimax&amp;#039;&amp;#039;&amp;#039;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\min_G \max_D V(D, G) = \mathbb{E}_{x \sim p_{\text{data}}(x)}[\log D(x)] + \mathbb{E}_{z \sim p_z(z)}[\log(1 - D(G(z)))]&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El discriminador se entrena para maximizar este objetivo (clasificar correctamente las muestras reales y generadas), mientras que el generador se entrena para minimizarlo (engañar al discriminador). En la práctica, en lugar de minimizar &amp;lt;math&amp;gt;\log(1 - D(G(z)))&amp;lt;/math&amp;gt;, el generador maximiza &amp;lt;math&amp;gt;\log D(G(z))&amp;lt;/math&amp;gt;, lo que proporciona gradientes más fuertes al inicio del entrenamiento, cuando el generador aún es pobre.&lt;br /&gt;
&lt;br /&gt;
El entrenamiento alterna entre actualizar el discriminador durante &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; pasos y el generador durante un paso. Los autores recomendaron &amp;lt;math&amp;gt;k = 1&amp;lt;/math&amp;gt; en la práctica.&lt;br /&gt;
&lt;br /&gt;
El artículo demostró que, para un generador fijo, el discriminador óptimo es:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;D^*_G(x) = \frac{p_{\text{data}}(x)}{p_{\text{data}}(x) + p_g(x)}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
y que cuando &amp;lt;math&amp;gt;D&amp;lt;/math&amp;gt; es óptimo, el objetivo del generador se reduce a minimizar la divergencia de Jensen-Shannon entre la distribución de los datos y la distribución del generador. El mínimo global ocurre cuando &amp;lt;math&amp;gt;p_g = p_{\text{data}}&amp;lt;/math&amp;gt;, en cuyo punto &amp;lt;math&amp;gt;D(x) = \frac{1}{2}&amp;lt;/math&amp;gt; en todas partes.&lt;br /&gt;
&lt;br /&gt;
== Resultados ==&lt;br /&gt;
&lt;br /&gt;
El artículo demostró las GAN en varios conjuntos de datos estándar:&lt;br /&gt;
&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;MNIST&amp;#039;&amp;#039;&amp;#039; (dígitos manuscritos): Las muestras generadas eran visualmente nítidas y diversas, con la columna de la derecha mostrando el ejemplo de entrenamiento más cercano para demostrar que el generador no estaba simplemente memorizando los datos de entrenamiento.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Toronto Face Database&amp;#039;&amp;#039;&amp;#039; (TFD): Las imágenes faciales generadas mostraron una estructura facial reconocible y variación.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;CIFAR-10&amp;#039;&amp;#039;&amp;#039;: Imágenes generadas a color de objetos, aunque a resolución limitada.&lt;br /&gt;
&lt;br /&gt;
La evaluación cuantitativa utilizó una estimación con ventana de Parzen gaussiana de la log-verosimilitud asignada a los datos de prueba reservados. Si bien los autores reconocieron que esta métrica era imperfecta para evaluar modelos generativos, las muestras de GAN lograron estimaciones de log-verosimilitud competitivas o superiores en comparación con otros modelos generativos de la época.&lt;br /&gt;
&lt;br /&gt;
El artículo también demostró que el espacio latente aprendido exhibía una interpolación suave — interpolar linealmente entre dos vectores latentes &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; producía transiciones semánticamente significativas entre las imágenes generadas.&lt;br /&gt;
&lt;br /&gt;
== Impacto ==&lt;br /&gt;
&lt;br /&gt;
Las GAN dieron origen a una de las áreas más activas de la investigación en aprendizaje profundo. Pocos años después de su publicación, se propusieron miles de variantes de GAN, abordando la inestabilidad del entrenamiento (WGAN, normalización espectral), permitiendo la generación condicional (cGAN, pix2pix), logrando síntesis de imágenes fotorrealistas (StyleGAN, BigGAN) y extendiéndose a video, 3D y otras modalidades. El principio del entrenamiento adversario también se aplicó a la adaptación de dominio, el aumento de datos, la superresolución y la generación de texto a imagen.&lt;br /&gt;
&lt;br /&gt;
El artículo original de Ian Goodfellow se ha convertido en una de las publicaciones más citadas en aprendizaje automático. Si bien los modelos de difusión han suplantado en gran medida a las GAN como el enfoque dominante para la generación de imágenes desde principios de la década de 2020, el marco de entrenamiento adversario sigue siendo influyente y continúa encontrando aplicaciones en muchas áreas. Yann LeCun llamó a las GAN &amp;quot;la idea más interesante de los últimos 10 años en el aprendizaje automático&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
== Véase también ==&lt;br /&gt;
&lt;br /&gt;
* [[Deep Residual Learning for Image Recognition]]&lt;br /&gt;
* [[ImageNet Classification with Deep CNNs]]&lt;br /&gt;
* [[Dropout A Simple Way to Prevent Overfitting]]&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., &amp;amp; Bengio, Y. (2014). Generative Adversarial Nets. &amp;#039;&amp;#039;Advances in Neural Information Processing Systems 27 (NeurIPS 2014)&amp;#039;&amp;#039;. [https://arxiv.org/abs/1406.2661 arXiv:1406.2661]&lt;br /&gt;
* Radford, A., Metz, L., &amp;amp; Chintala, S. (2016). Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks. &amp;#039;&amp;#039;ICLR 2016&amp;#039;&amp;#039;. arXiv:1511.06434.&lt;br /&gt;
* Arjovsky, M., Chintala, S., &amp;amp; Bottou, L. (2017). Wasserstein GAN. &amp;#039;&amp;#039;ICML 2017&amp;#039;&amp;#039;. arXiv:1701.07875.&lt;br /&gt;
&lt;br /&gt;
[[Category:Deep Learning]] [[Category:Research]] [[Category:Research Papers]]&lt;/div&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
</feed>