All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)* A batch-normalized network matched the accuracy of the original Inception model in only '''7% of the training steps''' (14x acceleration).
* '''BN-Inception''' (with {{Term|batch normalization}} and other modifications) achieved a top-5 validation error of 4.82%, exceeding the accuracy of the original GoogLeNet (6.67%) and approaching human performance.
* Using {{Term|batch normalization}} allowed training with a {{Term|learning rate}} 10x higher than the baseline without divergence.
* On some configurations, {{Term|batch normalization}} eliminated the need for {{Term|dropout}} without accuracy loss, simplifying the architecture and reducing training time further.
 h Spanish (es)* Una red con normalización por lotes igualó la precisión del modelo Inception original en solo el '''7 % de los pasos de entrenamiento''' (aceleración de 14x).
* '''BN-Inception''' (con {{Term|batch normalization|normalización por lotes}} y otras modificaciones) alcanzó un error de validación top-5 del 4,82 %, superando la precisión del GoogLeNet original (6,67 %) y acercándose al rendimiento humano.
* El uso de {{Term|batch normalization|normalización por lotes}} permitió entrenar con una {{Term|learning rate|tasa de aprendizaje}} 10 veces superior a la línea base sin divergencia.
* En algunas configuraciones, la {{Term|batch normalization|normalización por lotes}} eliminó la necesidad de {{Term|dropout}} sin pérdida de precisión, simplificando la arquitectura y reduciendo aún más el tiempo de entrenamiento.
 h Chinese (zh)* 批归一化网络仅用'''7% 的训练步数'''就达到了原始 Inception 模型的精度(加速 14 倍)。
* '''BN-Inception'''(带有{{Term|batch normalization|批归一化}}和其他修改)实现了 4.82% 的 top-5 验证误差,超过了原始 GoogLeNet(6.67%)的精度,接近人类水平。
* 使用{{Term|batch normalization|批归一化}}允许使用比基线高 10 倍的{{Term|learning rate|学习率}}进行训练而不发散。
* 在某些配置上,{{Term|batch normalization|批归一化}}消除了对 {{Term|dropout}} 的需要而不损失精度,进一步简化了架构并减少了训练时间。