All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | * Use pretrained models (transfer learning) when labelled data is limited. * Prefer small kernels (<math>3 \times 3</math>) stacked in depth — two <math>3 \times 3</math> layers have the same receptive field as one <math>5 \times 5</math> layer but with fewer parameters. * Apply batch normalisation after convolution and before activation. * Use data augmentation generously to reduce [[Overfitting and Regularization|overfitting]]. * Replace fully connected layers with global average pooling to reduce parameters. |
| h Spanish (es) | * Utiliza modelos preentrenados (transfer learning) cuando los datos etiquetados son limitados. * Prefiere kernels pequeños (<math>3 \times 3</math>) apilados en profundidad — dos capas <math>3 \times 3</math> tienen el mismo campo receptivo que una capa <math>5 \times 5</math>, pero con menos parámetros. * Aplica batch normalisation después de la convolución y antes de la activación. * Utiliza data augmentation con generosidad para reducir el [[Overfitting and Regularization|sobreajuste]]. * Sustituye las capas totalmente conectadas por global average pooling para reducir parámetros. |
| h Chinese (zh) | * 当标注数据有限时,使用预训练模型(迁移学习)。 * 优先选择小卷积核(<math>3 \times 3</math>)的深度堆叠——两个 <math>3 \times 3</math> 层的感受野与一个 <math>5 \times 5</math> 层相同,但参数更少。 * 在卷积之后、激活之前应用批归一化(batch normalisation)。 * 充分使用数据增强(data augmentation)以减少[[Overfitting and Regularization|过拟合]]。 * 用全局平均池化替代全连接层以减少参数。 |