All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | * '''Large-scale CNN training on GPUs''': One of the first successful demonstrations of training deep convolutional networks on GPUs, using a model split across two NVIDIA GTX 580 GPUs with 3 GB of memory each. * '''ReLU {{Term|activation function}}''': Adoption of rectified linear units (<math>f(x) = \max(0, x)</math>) instead of the traditional sigmoid or tanh {{Term|activation function|activations}}, enabling much faster training of deep networks. * '''Data augmentation''': Use of random image translations, horizontal reflections, and PCA-based color augmentation to artificially enlarge the training set and reduce {{Term|overfitting}}. * '''{{Term|dropout}} {{Term|regularization}}''': Application of {{Term|dropout}} (with probability 0.5) in the fully connected layers, one of the earliest uses of this technique in a large convolutional network. * '''Local response normalization''': A normalization scheme inspired by lateral inhibition in biological neurons, applied after ReLU {{Term|activation function|activations}}. * '''Overlapping {{Term|pooling}}''': Use of max-{{Term|pooling}} with stride smaller than the kernel size, which slightly reduced {{Term|overfitting}} compared to non-overlapping {{Term|pooling}}. |
| h Spanish (es) | * '''Entrenamiento de CNN a gran escala en GPUs''': Una de las primeras demostraciones exitosas del entrenamiento de redes convolucionales profundas en GPUs, utilizando un modelo dividido entre dos GPUs NVIDIA GTX 580 con 3 GB de memoria cada una. * '''{{Term|activation function|Función de activación}} ReLU''': Adopción de unidades lineales rectificadas (<math>f(x) = \max(0, x)</math>) en lugar de las {{Term|activation function|activaciones}} sigmoide o tanh tradicionales, lo que permite un entrenamiento mucho más rápido de redes profundas. * '''Aumento de datos''': Uso de traslaciones aleatorias de imágenes, reflejos horizontales y aumento de color basado en PCA para ampliar artificialmente el conjunto de entrenamiento y reducir el {{Term|overfitting|sobreajuste}}. * '''{{Term|regularization|Regularización}} con {{Term|dropout|dropout}}''': Aplicación de {{Term|dropout|dropout}} (con probabilidad 0.5) en las capas totalmente conectadas, uno de los primeros usos de esta técnica en una red convolucional grande. * '''Normalización de respuesta local''': Un esquema de normalización inspirado en la inhibición lateral de las neuronas biológicas, aplicado después de las {{Term|activation function|activaciones}} ReLU. * '''{{Term|pooling|Pooling}} solapado''': Uso de max-{{Term|pooling|pooling}} con un paso menor que el tamaño del núcleo, lo que reduce ligeramente el {{Term|overfitting|sobreajuste}} en comparación con el {{Term|pooling|pooling}} no solapado. |
| h Chinese (zh) | * '''GPU 上的大规模 CNN 训练''':在 GPU 上成功训练深度卷积网络的首批演示之一,使用了在两块 NVIDIA GTX 580 GPU(每块 3 GB 内存)上拆分的模型。 * '''ReLU {{Term|activation function|激活函数}}''':采用修正线性单元(<math>f(x) = \max(0, x)</math>)取代传统的 sigmoid 或 tanh {{Term|activation function|激活函数}},使深度网络的训练速度大幅提升。 * '''数据增广''':使用随机图像平移、水平翻转和基于 PCA 的颜色增广,人为扩大训练集并减少{{Term|overfitting|过拟合}}。 * '''{{Term|dropout|Dropout}} {{Term|regularization|正则化}}''':在全连接层中应用 {{Term|dropout|dropout}}(概率为 0.5),是这一技术在大型卷积网络中最早的应用之一。 * '''局部响应归一化''':一种受生物神经元侧向抑制启发的归一化方案,应用于 ReLU {{Term|activation function|激活函数}}之后。 * '''重叠 {{Term|pooling|池化}}''':使用步幅小于核尺寸的最大{{Term|pooling|池化}},相比不重叠的{{Term|pooling|池化}}略微减少了{{Term|overfitting|过拟合}}。 |