<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Translations%3AStochastic_Gradient_Descent%2F3%2Fes</id>
	<title>Translations:Stochastic Gradient Descent/3/es - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Translations%3AStochastic_Gradient_Descent%2F3%2Fes"/>
	<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Translations:Stochastic_Gradient_Descent/3/es&amp;action=history"/>
	<updated>2026-04-27T22:01:41Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.39.1</generator>
	<entry>
		<id>https://marovi.ai/index.php?title=Translations:Stochastic_Gradient_Descent/3/es&amp;diff=5425&amp;oldid=prev</id>
		<title>DeployBot: Batch translate Stochastic Gradient Descent unit 3 → es</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Translations:Stochastic_Gradient_Descent/3/es&amp;diff=5425&amp;oldid=prev"/>
		<updated>2026-04-27T03:38:12Z</updated>

		<summary type="html">&lt;p&gt;Batch translate Stochastic Gradient Descent unit 3 → es&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;En el {{Term|gradient descent|descenso de gradiente}} clásico, el gradiente completo de la {{Term|loss function|función de pérdida}} se calcula sobre todo el conjunto de entrenamiento antes de cada actualización de parámetros. Cuando el conjunto de datos es grande, esto se vuelve prohibitivamente costoso. SGD aborda el problema estimando el gradiente a partir de una única muestra elegida al azar (o un pequeño &amp;#039;&amp;#039;&amp;#039;{{Term|mini-batch}}&amp;#039;&amp;#039;&amp;#039;) en cada paso, intercambiando una estimación más ruidosa por un costo por iteración drásticamente menor.&lt;/div&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
</feed>