All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | The '''ReLU''' {{Term|activation function}} was a critical innovation. Compared to the saturating nonlinearities (sigmoid, tanh) standard at the time, ReLU enabled training to converge approximately six times faster on the same architecture: |
| h Spanish (es) | La {{Term|activation function|función de activación}} '''ReLU''' fue una innovación crítica. En comparación con las no linealidades saturantes (sigmoide, tanh) estándar en aquel momento, ReLU permitió que el entrenamiento convergiera aproximadamente seis veces más rápido en la misma arquitectura: |
| h Chinese (zh) | '''ReLU''' {{Term|activation function|激活函数}}是一项关键创新。与当时标准的饱和非线性函数(sigmoid、tanh)相比,ReLU 在相同架构下使训练收敛速度提升了大约六倍: |