All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | On CIFAR-10, the authors trained networks with over 1,000 layers, showing that extremely deep residual networks could still be optimized, though a 1202-layer network showed mild {{Term|overfitting}} compared to a 110-layer variant due to the small dataset size. |
| h Spanish (es) | En CIFAR-10, los autores entrenaron redes con más de 1.000 capas, mostrando que las redes residuales extremadamente profundas aún podían optimizarse, aunque una red de 1202 capas mostró un leve {{Term|overfitting|sobreajuste}} en comparación con una variante de 110 capas debido al pequeño tamaño del conjunto de datos. |
| h Chinese (zh) | 在 CIFAR-10 上,作者训练了超过 1000 层的网络,表明极深的残差网络仍然可以被优化,但由于数据集规模较小,1202 层的网络相比 110 层的变体表现出轻微的{{Term|overfitting|过拟合}}。 |