All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)* Use pretrained models (transfer learning) when labelled data is limited.
* Prefer small kernels (<math>3 \times 3</math>) stacked in depth — two <math>3 \times 3</math> layers have the same receptive field as one <math>5 \times 5</math> layer but with fewer parameters.
* Apply batch normalisation after convolution and before activation.
* Use data augmentation generously to reduce [[Overfitting and Regularization|overfitting]].
* Replace fully connected layers with global average pooling to reduce parameters.
 h Spanish (es)* Utiliza modelos preentrenados (transfer learning) cuando los datos etiquetados son limitados.
* Prefiere kernels pequeños (<math>3 \times 3</math>) apilados en profundidad — dos capas <math>3 \times 3</math> tienen el mismo campo receptivo que una capa <math>5 \times 5</math>, pero con menos parámetros.
* Aplica batch normalisation después de la convolución y antes de la activación.
* Utiliza data augmentation con generosidad para reducir el [[Overfitting and Regularization|sobreajuste]].
* Sustituye las capas totalmente conectadas por global average pooling para reducir parámetros.
 h Chinese (zh)* 当标注数据有限时,使用预训练模型(迁移学习)。
* 优先选择小卷积核(<math>3 \times 3</math>)的深度堆叠——两个 <math>3 \times 3</math> 层的感受野与一个 <math>5 \times 5</math> 层相同,但参数更少。
* 在卷积之后、激活之前应用批归一化(batch normalisation)。
* 充分使用数据增强(data augmentation)以减少[[Overfitting and Regularization|过拟合]]。
* 用全局平均池化替代全连接层以减少参数。