All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)where <math>F(x, \{W_i\})</math> represents the residual mapping to be learned (typically two or three {{Term|convolution|convolutional layers}} with {{Term|batch normalization}} and ReLU {{Term|activation function|activations}}). The addition is element-wise and requires that <math>F</math> and <math>x</math> have the same dimensions. When dimensions differ (e.g., at downsampling stages), a linear projection <math>W_s</math> is applied to the shortcut:
 h Spanish (es)donde <math>F(x, \{W_i\})</math> representa el mapeo residual que se va a aprender (normalmente dos o tres {{Term|convolution|capas convolucionales}} con {{Term|batch normalization|normalización por lotes}} y {{Term|activation function|activaciones}} ReLU). La suma es elemento a elemento y requiere que <math>F</math> y <math>x</math> tengan las mismas dimensiones. Cuando las dimensiones difieren (por ejemplo, en las etapas de submuestreo), se aplica una proyección lineal <math>W_s</math> al atajo:
 h Chinese (zh)其中 <math>F(x, \{W_i\})</math> 表示要学习的残差映射(通常是两到三个带有{{Term|batch normalization|批归一化}}和 ReLU {{Term|activation function|激活函数}}的{{Term|convolution|卷积层}})。加法是逐元素进行的,要求 <math>F</math> 和 <math>x</math> 具有相同的维度。当维度不同时(例如,在下采样阶段),会对捷径应用线性投影 <math>W_s</math>: