Main Page/es
Bienvenido a Marovi — una base de conocimiento colaborativa sobre matemáticas, aprendizaje automático y educación multilingüe.
Artículos destacados
- Mecanismos de atención — La innovación clave detrás de las arquitecturas Transformer modernas y los grandes modelos de lenguaje.
- Redes neuronales — De la inspiración biológica a la aproximación universal de funciones.
- Descenso de gradiente — El algoritmo fundamental de optimización del aprendizaje automático.
- Descenso de gradiente estocástico — El algoritmo iterativo de optimización detrás del entrenamiento de ML moderno.
- Redes neuronales convolucionales — Arquitecturas que revolucionaron la visión por computadora.
Explorar por tema
| Aprendizaje automático Conceptos fundamentales, algoritmos y técnicas para aprender de los datos. |
Aprendizaje profundo Arquitecturas de redes neuronales, técnicas de entrenamiento y métodos modernos. |
| Procesamiento del lenguaje natural Comprensión de texto, modelos de lenguaje y métodos de PLN. |
Optimización Algoritmos y métodos para entrenar modelos de aprendizaje automático. |
| Estadística Fundamentos estadísticos, probabilidad y métodos de inferencia. |
Explorar por tipo
- Artículos de investigación — Artículos sobre publicaciones notables en ML e IA
- Resúmenes — Resúmenes concisos de artículos y papers
Artículos de investigación destacados
- Attention Is All You Need (2017) — La arquitectura Transformer
- BERT (2019) — Pre-entrenamiento bidireccional para PLN
- Language Models are Few-Shot Learners (2020) — GPT-3 y aprendizaje en contexto
- Deep Residual Learning (2016) — ResNet y conexiones residuales
- Generative Adversarial Nets (2014) — El marco GAN
Acerca de Marovi
Marovi busca hacer accesible el conocimiento técnico en múltiples idiomas. Nuestro contenido se enriquece mediante traducción asistida por inteligencia artificial y procesos de calidad, garantizando artículos precisos y legibles en diversas lenguas.
Primeros pasos
- Explorar artículos por categoría
- Cambios recientes
- Todas las páginas