Translations:Neural Networks/28/es: Difference between revisions
(Batch translate Neural Networks unit 28 → es) Tag: translation |
(Batch translate Neural Networks unit 28 → es) Tag: translation |
||
| Line 1: | Line 1: | ||
* '''[[Convolutional Neural Networks]]''' (CNN) | * '''[[Convolutional Neural Networks]]''' (CNN) — diseñadas para datos con estructura de cuadrícula como imágenes, utilizando conectividad local y compartición de pesos. | ||
* '''[[Recurrent Neural Networks]]''' (RNN) | * '''[[Recurrent Neural Networks]]''' (RNN) — diseñadas para datos secuenciales, con conexiones que forman ciclos para mantener un estado oculto. | ||
* '''Transformers''' | * '''Transformers''' — arquitecturas basadas en atención que se han vuelto dominantes en el procesamiento del lenguaje natural y, cada vez más, en visión. | ||
* '''Autoencoders''' | * '''Autoencoders''' — redes entrenadas para reconstruir su entrada, utilizadas para reducción de dimensionalidad y modelado generativo. | ||
* '''Redes generativas antagónicas''' (GAN) | * '''Redes generativas antagónicas''' (GAN) — pares de redes (generador y discriminador) entrenadas en competencia para generar datos realistas. | ||
Revision as of 22:03, 27 April 2026
- Convolutional Neural Networks (CNN) — diseñadas para datos con estructura de cuadrícula como imágenes, utilizando conectividad local y compartición de pesos.
- Recurrent Neural Networks (RNN) — diseñadas para datos secuenciales, con conexiones que forman ciclos para mantener un estado oculto.
- Transformers — arquitecturas basadas en atención que se han vuelto dominantes en el procesamiento del lenguaje natural y, cada vez más, en visión.
- Autoencoders — redes entrenadas para reconstruir su entrada, utilizadas para reducción de dimensionalidad y modelado generativo.
- Redes generativas antagónicas (GAN) — pares de redes (generador y discriminador) entrenadas en competencia para generar datos realistas.