Translations:Neural Networks/28/es: Difference between revisions
([deploy-bot] Translate Neural Networks unit 28 to es) Tag: translation |
(Batch translate Neural Networks unit 28 → es) Tag: translation |
||
| Line 1: | Line 1: | ||
* '''[[Convolutional Neural Networks | * '''[[Convolutional Neural Networks]]''' (CNN): diseñadas para datos con estructura de cuadrícula como las imágenes, utilizando conectividad local y compartición de pesos. | ||
* '''[[Recurrent Neural Networks | * '''[[Recurrent Neural Networks]]''' (RNN): diseñadas para datos secuenciales, con conexiones que forman ciclos para mantener un estado oculto. | ||
* '''Transformers''' | * '''Transformers''': arquitecturas basadas en attention que se han vuelto dominantes en el procesamiento del lenguaje natural y, cada vez más, en visión. | ||
* '''Autoencoders''' | * '''Autoencoders''': redes entrenadas para reconstruir su entrada, utilizadas para reducción de dimensionalidad y modelado generativo. | ||
* '''Redes generativas antagónicas''' (GAN) | * '''Redes generativas antagónicas''' (GAN): pares de redes (generador y discriminador) entrenadas en competencia para generar datos realistas. | ||
Revision as of 03:35, 27 April 2026
- Convolutional Neural Networks (CNN): diseñadas para datos con estructura de cuadrícula como las imágenes, utilizando conectividad local y compartición de pesos.
- Recurrent Neural Networks (RNN): diseñadas para datos secuenciales, con conexiones que forman ciclos para mantener un estado oculto.
- Transformers: arquitecturas basadas en attention que se han vuelto dominantes en el procesamiento del lenguaje natural y, cada vez más, en visión.
- Autoencoders: redes entrenadas para reconstruir su entrada, utilizadas para reducción de dimensionalidad y modelado generativo.
- Redes generativas antagónicas (GAN): pares de redes (generador y discriminador) entrenadas en competencia para generar datos realistas.