All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | As neural networks grew deeper in the mid-2010s, researchers observed a counterintuitive '''degradation problem''': adding more layers to a network eventually caused training accuracy to degrade, not from {{Term|overfitting}} but from optimization difficulty. A 56-layer plain network performed worse than a 20-layer network on both training and test sets, indicating that deeper networks were harder to optimize rather than simply more prone to {{Term|overfitting}}. |
| h Spanish (es) | A medida que las redes neuronales se hicieron más profundas a mediados de la década de 2010, los investigadores observaron un contraintuitivo '''problema de degradación''': añadir más capas a una red terminaba provocando que la precisión de entrenamiento se degradara, no por {{Term|overfitting|sobreajuste}} sino por dificultad de optimización. Una red plana de 56 capas tenía un peor rendimiento que una red de 20 capas tanto en los conjuntos de entrenamiento como de prueba, lo que indicaba que las redes más profundas eran más difíciles de optimizar en lugar de simplemente más propensas al {{Term|overfitting|sobreajuste}}. |
| h Chinese (zh) | 随着神经网络在2010年代中期变得越来越深,研究人员观察到一个反直觉的'''退化问题''':向网络添加更多层最终会导致训练精度下降,原因不是{{Term|overfitting|过拟合}},而是优化困难。一个56层的普通网络在训练集和测试集上的表现都比20层的网络差,这表明更深的网络更难优化,而不是单纯地更容易出现{{Term|overfitting|过拟合}}。 |