Translations:Neural Networks/28/es: Difference between revisions
(Batch translate Neural Networks unit 28 → es) Tag: translation |
(Batch translate Neural Networks unit 28 → es) Tag: translation |
||
| Line 1: | Line 1: | ||
* '''[[Convolutional Neural Networks]]''' (CNN) — diseñadas para datos con estructura de cuadrícula como imágenes, | * '''[[Convolutional Neural Networks]]''' (CNN) — diseñadas para datos con estructura de cuadrícula, como las imágenes, mediante conectividad local y compartición de pesos. | ||
* '''[[Recurrent Neural Networks]]''' (RNN) — diseñadas para datos secuenciales, con conexiones que forman ciclos para mantener un estado oculto. | * '''[[Recurrent Neural Networks]]''' (RNN) — diseñadas para datos secuenciales, con conexiones que forman ciclos para mantener un estado oculto. | ||
* '''Transformers''' — arquitecturas basadas en atención que se han vuelto dominantes en el procesamiento del lenguaje natural y, cada vez más, en visión. | * '''{{Term|transformer|Transformers}}''' — arquitecturas basadas en {{Term|attention|atención}} que se han vuelto dominantes en el procesamiento del lenguaje natural y, cada vez más, en la visión por computadora. | ||
* '''Autoencoders''' — redes entrenadas para reconstruir su entrada, utilizadas | * '''Autoencoders''' — redes entrenadas para reconstruir su entrada, utilizadas en la reducción de dimensionalidad y el modelado generativo. | ||
* '''Redes generativas antagónicas''' (GAN) — pares de redes (generador y discriminador) entrenadas en competencia para generar datos realistas. | * '''Redes generativas antagónicas''' (GAN) — pares de redes (generador y discriminador) entrenadas en competencia para generar datos realistas. | ||
Latest revision as of 23:41, 27 April 2026
- Convolutional Neural Networks (CNN) — diseñadas para datos con estructura de cuadrícula, como las imágenes, mediante conectividad local y compartición de pesos.
- Recurrent Neural Networks (RNN) — diseñadas para datos secuenciales, con conexiones que forman ciclos para mantener un estado oculto.
- Transformers — arquitecturas basadas en atención que se han vuelto dominantes en el procesamiento del lenguaje natural y, cada vez más, en la visión por computadora.
- Autoencoders — redes entrenadas para reconstruir su entrada, utilizadas en la reducción de dimensionalidad y el modelado generativo.
- Redes generativas antagónicas (GAN) — pares de redes (generador y discriminador) entrenadas en competencia para generar datos realistas.