All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | * '''[[Convolutional Neural Networks]]''' (CNNs) — designed for grid-structured data such as images, using local connectivity and weight sharing. * '''[[Recurrent Neural Networks]]''' (RNNs) — designed for sequential data, with connections that form cycles to maintain hidden state. * '''Transformers''' — attention-based architectures that have become dominant in natural language processing and increasingly in vision. * '''Autoencoders''' — networks trained to reconstruct their input, used for dimensionality reduction and generative modelling. * '''Generative adversarial networks''' (GANs) — pairs of networks (generator and discriminator) trained in competition to generate realistic data. |
| h Spanish (es) | * '''[[Convolutional Neural Networks]]''' (CNN) — diseñadas para datos con estructura de cuadrícula como imágenes, utilizando conectividad local y compartición de pesos. * '''[[Recurrent Neural Networks]]''' (RNN) — diseñadas para datos secuenciales, con conexiones que forman ciclos para mantener un estado oculto. * '''Transformers''' — arquitecturas basadas en atención que se han vuelto dominantes en el procesamiento del lenguaje natural y, cada vez más, en visión. * '''Autoencoders''' — redes entrenadas para reconstruir su entrada, utilizadas para reducción de dimensionalidad y modelado generativo. * '''Redes generativas antagónicas''' (GAN) — pares de redes (generador y discriminador) entrenadas en competencia para generar datos realistas. |
| h Chinese (zh) | * '''[[Convolutional Neural Networks]]'''(CNN)— 为图像等网格结构数据设计,使用局部连接和权重共享。 * '''[[Recurrent Neural Networks]]'''(RNN)— 为序列数据设计,连接形成循环以维持隐藏状态。 * '''Transformers''' — 基于注意力的架构,已在自然语言处理领域占据主导地位,并在视觉领域日益普及。 * '''Autoencoders''' — 训练用于重建其输入的网络,用于降维和生成建模。 * '''生成对抗网络'''(GAN)— 成对的网络(生成器和判别器)在竞争中进行训练,以生成逼真的数据。 |