Module:Glossary/data 5

    From Marovi AI

    Documentation for this module may be created at Module:Glossary/data 5/doc

    local data = {}
    
    data["visual prompt tuning"] = {
        short = "A parameter-efficient method for adapting a frozen Vision Transformer by inserting a small number of learnable prompt tokens into the input or each layer; introduced by Jia et al. (2022).",
        article = nil,
        aliases = { "Visual Prompt Tuning", "VPT" },
        es = "Método de adaptación eficiente en parámetros para Vision Transformers congelados que inserta un pequeño número de tokens de prompt aprendibles en la entrada o en cada capa; propuesto por Jia et al. (2022).",
        zh = "一种针对冻结 Vision Transformer 的参数高效适配方法,在输入或每一层插入少量可学习的提示 token;由 Jia 等人(2022)提出。",
        term_es = "Visual Prompt Tuning",
        term_zh = "视觉提示微调",
        aliases_es = { "VPT", "ajuste por prompts visuales" },
        aliases_zh = { "VPT", "视觉提示微调" },
    }
    
    data["visual question answering"] = {
        short = "A multimodal task in which a system answers a natural-language question about an image, requiring joint understanding of vision and language; popular benchmarks include VQA v2, GQA, and OK-VQA.",
        article = nil,
        aliases = { "VQA", "visual QA", "image question answering" },
        es = "Tarea multimodal en la que un sistema responde a una pregunta en lenguaje natural sobre una imagen, lo que requiere una comprensión conjunta de visión y lenguaje; entre sus referencias destacan VQA v2, GQA y OK-VQA.",
        zh = "一种多模态任务,系统需要针对一幅图像回答自然语言问题,需联合理解视觉和语言;常用基准包括 VQA v2、GQA 和 OK-VQA。",
        term_es = "VQA",
        term_zh = "视觉问答",
        aliases_es = { "preguntas y respuestas visuales", "respuesta a preguntas visuales", "visual QA" },
        aliases_zh = { "VQA", "图像问答" },
    }
    
    data["visual question answering explanation"] = {
        short = "Explanation methods for Visual Question Answering models that reveal which image regions and which words of the question drove the answer.",
        article = nil,
        aliases = { "VQA explanation", "explainable VQA" },
        es = "Métodos de explicación para modelos de Visual Question Answering que revelan qué regiones de la imagen y qué palabras de la pregunta determinaron la respuesta.",
        zh = "面向视觉问答(VQA)模型的解释方法,用于揭示哪些图像区域以及问题中的哪些词主导了答案。",
        term_es = "explicación de visual question answering",
        term_zh = "视觉问答解释",
        aliases_es = { "explicación de VQA", "VQA explicable" },
        aliases_zh = { "VQA 解释", "可解释 VQA" },
    }
    
    data["visual rationale"] = {
        short = "A visual explanation, typically a heatmap or highlighted region, that points to the parts of an image a model used to justify its prediction.",
        article = nil,
        aliases = { "visual explanation", "visual justification" },
        es = "Explicación visual, normalmente un mapa de calor o región destacada, que señala las partes de una imagen que el modelo utilizó para justificar su predicción.",
        zh = "一种视觉解释,通常以热力图或高亮区域形式指出模型用于支撑其预测的图像部分。",
        term_es = "justificación visual",
        term_zh = "视觉理据",
        aliases_es = { "explicación visual", "razonamiento visual" },
        aliases_zh = { "视觉解释", "视觉依据" },
    }
    
    data["visual reasoning"] = {
        short = "An umbrella term for tasks that require inferring relationships, attributes, counts, or causal structure from images, typically going beyond surface recognition to multi-step compositional inference.",
        article = nil,
        aliases = { "Visual Reasoning", "image reasoning" },
        es = "Término general para tareas que requieren inferir relaciones, atributos, conteos o estructura causal a partir de imágenes, normalmente más allá del reconocimiento superficial e implicando inferencia composicional de varios pasos.",
        zh = "视觉推理;泛指需要从图像中推断关系、属性、计数或因果结构的任务,通常超越表层识别,涉及多步组合推理。",
        term_es = "razonamiento visual",
        term_zh = "视觉推理",
        aliases_es = { "razonamiento visual" },
        aliases_zh = { "视觉推理", "图像推理" },
    }
    
    data["visual storytelling"] = {
        short = "The task of generating a coherent narrative for a temporally ordered sequence of images, requiring discourse-level cohesion rather than independent per-image captions; canonical dataset is VIST.",
        article = nil,
        aliases = { "Visual Storytelling", "VIST", "image-sequence storytelling" },
        es = "Tarea de generar una narrativa coherente a partir de una secuencia ordenada de imágenes, que exige cohesión a nivel de discurso en lugar de subtítulos independientes por imagen; el conjunto de datos canónico es VIST.",
        zh = "视觉叙事;为时间有序的图像序列生成连贯叙述的任务,需要话语层面的衔接而非每张图像独立的字幕,标准数据集为 VIST。",
        term_es = "narración visual",
        term_zh = "视觉叙事",
        aliases_es = { "narración visual", "VIST" },
        aliases_zh = { "视觉叙事", "VIST" },
    }
    
    data["visualbert"] = {
        short = "An early single-stream vision-language transformer that concatenates BERT word tokens with object-region features and is pretrained with masked language modeling and image-text matching objectives.",
        article = nil,
        aliases = { "VisualBERT", "Visual BERT" },
        es = "Transformador visión-lenguaje temprano de flujo único que concatena tokens de palabras BERT con características de regiones de objetos y se preentrena con modelado de lenguaje enmascarado y emparejamiento imagen-texto.",
        zh = "早期的单流视觉语言 Transformer,将 BERT 词 token 与目标区域特征拼接,并通过掩码语言建模与图文匹配目标进行预训练。",
        term_es = "VisualBERT",
        term_zh = "VisualBERT",
        aliases_es = { "VisualBERT" },
        aliases_zh = { "VisualBERT" },
    }
    
    data["vit-resnas"] = {
        short = "A search space and methodology that combines Vision Transformer blocks with ResNet-style stages and applies neural architecture search to jointly choose depth, width, and patch sizes, producing accuracy-efficient hybrid backbones.",
        article = nil,
        aliases = { "ViT-ResNAS", "ViT ResNAS", "Vision Transformer ResNAS" },
        es = "Espacio de búsqueda y metodología que combina bloques de Vision Transformer con etapas estilo ResNet y aplica búsqueda de arquitecturas neuronales para elegir conjuntamente profundidad, ancho y tamaños de parche, produciendo backbones híbridos eficientes en precisión.",
        zh = "一种将Vision Transformer模块与ResNet风格阶段相结合的搜索空间与方法,通过神经架构搜索联合选择深度、宽度和图像块大小,得到精度与效率平衡的混合骨干网络。",
        term_es = "ViT-ResNAS",
        term_zh = "ViT-ResNAS",
        aliases_es = { "ViT ResNAS" },
        aliases_zh = { "ViT-ResNAS架构" },
    }
    
    data["vita mllm"] = {
        short = "VITA is an open-source multimodal LLM from Tencent and partner labs that jointly handles text, image, video, and audio inputs and supports near-real-time spoken interaction without a separate ASR/TTS pipeline.",
        article = nil,
        aliases = { "VITA", "VITA MLLM", "VITA-1.5" },
        es = "VITA es un LLM multimodal de código abierto desarrollado por Tencent y laboratorios asociados que procesa de forma conjunta texto, imagen, vídeo y audio, y permite interacción hablada casi en tiempo real sin un canal separado de ASR/TTS.",
        zh = "VITA 是腾讯及合作机构开源的多模态 LLM,能够联合处理文本、图像、视频与音频输入,并在无需独立 ASR/TTS 流水线的情况下支持近实时语音交互。",
        term_es = "VITA",
        term_zh = "VITA",
        aliases_es = { "VITA", "MLLM VITA" },
        aliases_zh = { "VITA", "VITA 多模态大模型" },
    }
    
    data["vita-1.5"] = {
        short = "An open-source omnimodal large language model that integrates vision, speech and text in a unified architecture and supports real-time speech-to-speech interaction; developed by the Tencent VITA team.",
        article = nil,
        aliases = { "VITA-1.5", "VITA 1.5", "VITA1.5" },
        es = "Modelo de lenguaje grande omnimodal de código abierto que integra visión, habla y texto en una arquitectura unificada y admite interacción habla-a-habla en tiempo real; desarrollado por el equipo VITA de Tencent.",
        zh = "一种开源的全模态大语言模型,在统一架构中整合视觉、语音与文本,并支持实时语音到语音交互;由腾讯 VITA 团队开发。",
        term_es = "VITA-1.5",
        term_zh = "VITA-1.5",
        aliases_es = { "VITA-1.5" },
        aliases_zh = { "VITA-1.5" },
    }
    
    data["vits"] = {
        short = "End-to-end text-to-speech model that jointly trains a conditional variational autoencoder, a normalizing-flow prior, and an adversarial waveform decoder, producing speech directly from text without a separate vocoder.",
        article = nil,
        aliases = { "VITS", "VITS TTS", "Variational Inference TTS" },
        es = "Modelo de síntesis de voz de extremo a extremo que entrena conjuntamente un autoencoder variacional condicional, un prior de flujo normalizador y un decodificador adversarial de forma de onda, generando habla directamente desde texto sin un vocoder separado.",
        zh = "一种端到端文本转语音模型,联合训练条件变分自编码器、归一化流先验和对抗式波形解码器,直接从文本生成语音,无需独立的声码器。",
        term_es = "VITS",
        term_zh = "VITS",
        aliases_es = { "VITS" },
        aliases_zh = { "VITS" },
    }
    
    data["vits2"] = {
        short = "An end-to-end text-to-speech model that improves on VITS by adopting a transformer-based posterior encoder and refined adversarial training, yielding more natural prosody and clearer pronunciation.",
        article = nil,
        aliases = { "VITS2", "VITS 2" },
        es = "Modelo de síntesis de voz de extremo a extremo que mejora a VITS con un codificador posterior basado en transformer y entrenamiento adversario refinado, logrando prosodia más natural y mejor pronunciación.",
        zh = "一种端到端文本到语音模型,通过采用基于 Transformer 的后验编码器和改进的对抗训练对 VITS 进行升级,生成更自然的韵律和更清晰的发音。",
        term_es = "VITS2",
        term_zh = "VITS2",
        aliases_es = { "VITS 2" },
        aliases_zh = { "VITS 2" },
    }
    
    data["vivit"] = {
        short = "Video Vision Transformer; an extension of ViT to video that tokenizes spatio-temporal tubelets and applies factorized space-time attention for efficient video classification.",
        article = nil,
        aliases = { "ViViT", "Video Vision Transformer", "Video ViT" },
        es = "Transformador de visión para vídeo; una extensión de ViT al vídeo que tokeniza tubelos espacio-temporales y aplica atención espacio-temporal factorizada para clasificación de vídeo eficiente.",
        zh = "视频 Vision Transformer;ViT 在视频上的扩展,将时空小立方体作为 token,采用分解的时空注意力以实现高效视频分类。",
        term_es = "ViViT",
        term_zh = "ViViT",
        aliases_es = { "ViViT", "Vision Transformer para vídeo" },
        aliases_zh = { "ViViT", "视频 Vision Transformer" },
    }
    
    data["vizier"] = {
        short = "Google's internal black-box optimization service that uses Bayesian optimization (and other policies) to tune hyperparameters at scale; the open-source release is OSS Vizier.",
        article = nil,
        aliases = { "Google Vizier", "OSS Vizier", "Vizier service" },
        es = "Servicio interno de optimización de caja negra de Google que usa optimización bayesiana (y otras políticas) para ajustar hiperparámetros a gran escala; su versión de código abierto es OSS Vizier.",
        zh = "Google内部的黑盒优化服务,使用贝叶斯优化等策略大规模调优超参数;其开源版本为OSS Vizier。",
        term_es = "Vizier",
        term_zh = "Vizier",
        aliases_es = { "Google Vizier", "OSS Vizier" },
        aliases_zh = { "Google Vizier", "OSS Vizier" },
    }
    
    data["vizwiz"] = {
        short = "A visual question answering dataset collected from blind users, who took photos and asked spoken questions about them; answers are crowdsourced and emphasize accessibility-driven challenges such as poor framing and uncommon objects.",
        article = nil,
        aliases = { "VizWiz", "VizWiz dataset", "VizWiz VQA" },
        es = "Un conjunto de datos de visual question answering recopilado a partir de usuarios ciegos, que tomaron fotografías y formularon preguntas habladas sobre ellas; las respuestas se obtienen mediante crowdsourcing y enfatizan los retos propios de la accesibilidad, como mala composición y objetos poco habituales.",
        zh = "一个由盲人用户构建的视觉问答数据集,用户拍摄照片并提出语音问题,答案通过众包标注,重点关注无障碍场景特有的挑战,例如取景不佳和不常见的物体。",
        term_es = "VizWiz",
        term_zh = "VizWiz",
        aliases_es = { "VizWiz", "conjunto de datos VizWiz" },
        aliases_zh = { "VizWiz", "VizWiz 数据集" },
    }
    
    data["vllm"] = {
        short = "An open-source LLM serving engine that uses PagedAttention to manage the KV cache as fixed-size blocks, eliminating fragmentation and enabling continuous batching for high-throughput, low-latency inference.",
        article = nil,
        aliases = { "vLLM", "PagedAttention engine" },
        es = "Motor de inferencia de LLM de código abierto que usa PagedAttention para gestionar la caché KV como bloques de tamaño fijo, eliminando la fragmentación y permitiendo batching continuo para inferencia de alto rendimiento y baja latencia.",
        zh = "一种开源 LLM 推理引擎,使用 PagedAttention 将 KV 缓存按固定大小分块管理,消除碎片,实现连续批处理,从而提供高吞吐、低延迟的推理。",
        term_es = "vLLM",
        term_zh = "vLLM",
        aliases_es = { "vLLM", "motor PagedAttention" },
        aliases_zh = { "vLLM", "PagedAttention 引擎" },
    }
    
    data["vlmo"] = {
        short = "Vision-Language pretrained Model with Mixture-of-Modality-Experts; a unified Transformer that uses shared self-attention and modality-specific feed-forward experts to support contrastive, masked, and image-text matching pretraining within one architecture.",
        article = nil,
        aliases = { "VLMo", "Vision-Language Mixture-of-Modality-Experts", "Mixture-of-Modality-Experts" },
        es = "Vision-Language pretrained Model with Mixture-of-Modality-Experts; un Transformer unificado que utiliza atención propia compartida y expertos feed-forward específicos por modalidad para soportar preentrenamiento contrastivo, enmascarado y de emparejamiento imagen-texto en una sola arquitectura.",
        zh = "Vision-Language pretrained Model with Mixture-of-Modality-Experts;一种统一的 Transformer,使用共享自注意力与各模态专属的前馈专家,在同一架构中同时支持对比、掩码与图文匹配预训练。",
        term_es = "VLMo",
        term_zh = "VLMo",
        aliases_es = { "VLMo", "modelo Vision-Language con Mixture-of-Modality-Experts" },
        aliases_zh = { "VLMo", "混合模态专家视觉语言模型" },
    }
    
    data["vmd"] = {
        short = "Visual Molecular Dynamics, an open-source program for visualization, analysis, and scripted manipulation of biomolecular structures and molecular dynamics trajectories.",
        article = nil,
        aliases = { "VMD", "Visual Molecular Dynamics" },
        es = "Visual Molecular Dynamics, programa de código abierto para la visualización, el análisis y la manipulación mediante scripts de estructuras biomoleculares y trayectorias de dinámica molecular.",
        zh = "Visual Molecular Dynamics(VMD),一个开源程序,用于生物分子结构和分子动力学轨迹的可视化、分析以及脚本化操作。",
        term_es = "VMD",
        term_zh = "VMD",
        aliases_es = { "Visual Molecular Dynamics" },
        aliases_zh = { "Visual Molecular Dynamics", "可视化分子动力学" },
    }
    
    data["vocab size"] = {
        short = "The number of distinct tokens in a language model's tokenizer, which determines the size of the input embedding table and the output softmax. Larger vocabularies shorten sequences but increase parameter count and softmax cost.",
        article = nil,
        aliases = { "vocabulary size", "|V|", "tokenizer size" },
        es = "Número de tokens distintos en el tokenizador de un modelo de lenguaje, que determina el tamaño de la tabla de embeddings de entrada y del softmax de salida. Vocabularios mayores acortan las secuencias pero aumentan los parámetros y el coste del softmax.",
        zh = "语言模型分词器中不同令牌的数量,决定了输入嵌入表和输出 softmax 的规模。词表越大,序列越短,但参数量与 softmax 计算成本越高。",
        term_es = "tamaño de vocabulario",
        term_zh = "词表大小",
        aliases_es = { "tamaño del vocabulario", "|V|" },
        aliases_zh = { "vocab size", "词汇表大小", "|V|" },
    }
    
    data["vocoder"] = {
        short = "A model that converts an intermediate acoustic representation, typically a mel-spectrogram, into a time-domain audio waveform; modern neural vocoders include WaveNet, WaveRNN, HiFi-GAN, and WaveGlow.",
        article = nil,
        aliases = { "neural vocoder", "vocoders" },
        es = "Modelo que convierte una representación acústica intermedia, normalmente un mel-espectrograma, en una forma de onda de audio en el dominio temporal; los vocoders neuronales modernos incluyen WaveNet, WaveRNN, HiFi-GAN y WaveGlow.",
        zh = "一种将中间声学表示(通常是梅尔频谱图)转换为时域音频波形的模型;现代神经声码器包括 WaveNet、WaveRNN、HiFi-GAN 和 WaveGlow。",
        term_es = "vocoder",
        term_zh = "声码器",
        aliases_es = { "vocoder neuronal", "codificador de voz" },
        aliases_zh = { "神经声码器", "vocoder" },
    }
    
    data["vocos"] = {
        short = "A neural vocoder that predicts complex Fourier-domain coefficients and synthesizes audio via a single inverse short-time Fourier transform, achieving high quality at much lower compute than time-domain vocoders.",
        article = nil,
        aliases = { "Vocos" },
        es = "Vocoder neuronal que predice coeficientes complejos en el dominio de Fourier y sintetiza audio mediante una única transformada inversa de Fourier de tiempo corto, logrando alta calidad con mucho menor coste que los vocoders en dominio temporal.",
        zh = "一种神经声码器,通过预测复数傅里叶域系数,并使用单次短时傅里叶逆变换合成音频,以远低于时域声码器的计算开销实现高质量合成。",
        term_es = "Vocos",
        term_zh = "Vocos",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["voice activity detection"] = {
        short = "The task of detecting which frames of an audio stream contain human speech versus silence or non-speech background, used to gate downstream ASR, telephony, and wake-word systems.",
        article = nil,
        aliases = { "VAD", "speech activity detection", "SAD" },
        es = "Tarea de detectar qué fragmentos de un flujo de audio contienen voz humana frente a silencio o ruido de fondo, utilizada para activar sistemas posteriores de ASR, telefonía y detección de palabra de activación.",
        zh = "检测音频流中哪些帧包含人类语音、哪些为静音或非语音背景的任务,用于门控下游的语音识别、电话和唤醒词系统。",
        term_es = "detección de actividad de voz",
        term_zh = "语音活动检测",
        aliases_es = { "VAD", "detección de actividad vocal" },
        aliases_zh = { "VAD", "语音端点检测" },
    }
    
    data["voice cloning"] = {
        short = "Synthesizing speech in a target speaker's voice from a short reference sample, typically by conditioning a text-to-speech model on a learned speaker embedding rather than fine-tuning on hours of data.",
        article = nil,
        aliases = { "speaker cloning", "few-shot TTS", "zero-shot voice cloning" },
        es = "Síntesis de voz con la identidad de un hablante objetivo a partir de una breve muestra de referencia, normalmente condicionando un modelo de TTS con un embedding de hablante aprendido en lugar de afinarlo con horas de datos.",
        zh = "通过使用学习到的说话人嵌入来调节文本到语音模型(而非用数小时数据进行微调),从一段简短参考音频合成目标说话人声音的语音。",
        term_es = "clonación de voz",
        term_zh = "语音克隆",
        aliases_es = { "clonación de hablante", "TTS de pocos ejemplos" },
        aliases_zh = { "声音克隆", "说话人克隆", "零样本语音克隆" },
    }
    
    data["voice conversion"] = {
        short = "The task of transforming a source utterance so that it appears to be spoken by a different target speaker while preserving the linguistic content and prosody.",
        article = nil,
        aliases = { "VC", "speaker conversion" },
        es = "Tarea de transformar una grabación de origen para que parezca pronunciada por un hablante objetivo distinto, conservando el contenido lingüístico y la prosodia.",
        zh = "将源话语进行转换,使其听起来像是由另一目标说话人发出,同时保留语言内容和韵律的任务。",
        term_es = "conversión de voz",
        term_zh = "语音转换",
        aliases_es = { "VC", "conversión de hablante" },
        aliases_zh = { "VC", "说话人转换" },
    }
    
    data["voicebox"] = {
        short = "Meta's text-guided multilingual generative speech model trained with non-autoregressive flow matching; supports zero-shot speech synthesis, editing, denoising, and cross-lingual style transfer from a short audio prompt.",
        article = nil,
        aliases = { "Voicebox", "Meta Voicebox" },
        es = "Modelo generativo multilingüe de habla guiado por texto desarrollado por Meta y entrenado con flow matching no autorregresivo; admite síntesis zero-shot, edición, eliminación de ruido y transferencia de estilo entre idiomas a partir de un breve fragmento de audio de referencia.",
        zh = "Meta 提出的文本引导多语种生成式语音模型,通过非自回归 flow matching 训练;支持零样本语音合成、编辑、去噪以及基于短音频提示的跨语言风格迁移。",
        term_es = "Voicebox",
        term_zh = "Voicebox",
        aliases_es = { "Voicebox" },
        aliases_zh = { "Voicebox" },
    }
    
    data["voicefilter"] = {
        short = "A speaker-conditioned speech separation system that uses a reference embedding of a target speaker to extract that speaker's voice from a mixture, improving downstream ASR in multi-talker conditions.",
        article = nil,
        aliases = { "VoiceFilter" },
        es = "Sistema de separación de voz condicionado por hablante que usa un embedding de referencia del hablante objetivo para extraer su voz de una mezcla, mejorando el reconocimiento automático del habla en escenarios con múltiples interlocutores.",
        zh = "一种以说话人为条件的语音分离系统,使用目标说话人的参考嵌入从混合音频中提取其声音,提升多说话人场景下的下游语音识别效果。",
        term_es = "VoiceFilter",
        term_zh = "VoiceFilter",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["volume of distribution"] = {
        short = "A pharmacokinetic parameter relating the total amount of drug in the body to its plasma concentration, indicating the apparent extent of distribution into tissues beyond the plasma compartment.",
        article = nil,
        aliases = { "Vd", "apparent volume of distribution", "VoD" },
        es = "Parámetro farmacocinético que relaciona la cantidad total de fármaco en el cuerpo con su concentración plasmática, indicando el grado aparente de distribución en los tejidos más allá del compartimento plasmático.",
        zh = "一种药代动力学参数,反映体内药物总量与其血浆浓度的关系,表示药物在血浆隔室之外向组织表观分布的程度。",
        term_es = "volumen de distribución",
        term_zh = "分布容积",
        aliases_es = { "Vd", "volumen aparente de distribución" },
        aliases_zh = { "Vd", "表观分布容积" },
    }
    
    data["von mises expansion"] = {
        short = "A functional Taylor-style expansion of a statistical functional around a baseline distribution, with terms given by influence functions. Foundational to semiparametric efficiency theory and to constructing debiased and one-step estimators.",
        article = nil,
        aliases = { "von Mises expansion", "von Mises calculus", "von Mises functional expansion", "functional Taylor expansion" },
        es = "Expansión funcional de tipo Taylor de un funcional estadístico alrededor de una distribución de referencia, cuyos términos están dados por funciones de influencia. Fundamental para la teoría de eficiencia semiparamétrica y para la construcción de estimadores depurados y de un paso.",
        zh = "对统计泛函在某一基准分布附近进行的泛函型 Taylor 展开,各阶项由影响函数给出。是半参数效率理论以及去偏与单步估计量构造的基础。",
        term_es = "expansión de von Mises",
        term_zh = "von Mises 展开",
        aliases_es = { "cálculo de von Mises", "expansión funcional de von Mises", "expansión de Taylor funcional" },
        aliases_zh = { "von Mises 泛函展开", "von Mises 演算", "泛函 Taylor 展开" },
    }
    
    data["voxceleb"] = {
        short = "A large-scale speaker identification and verification dataset of short utterances extracted from YouTube interviews, covering thousands of celebrity speakers with naturally occurring noise and varied recording conditions.",
        article = nil,
        aliases = { "VoxCeleb", "VoxCeleb1" },
        es = "Conjunto de datos a gran escala para identificación y verificación de hablantes, formado por enunciados cortos extraídos de entrevistas de YouTube de miles de famosos, con ruido natural y condiciones de grabación variadas.",
        zh = "一个大规模说话人识别与验证数据集,由从 YouTube 名人采访中提取的短语音构成,包含数千名说话人,并自然存在噪声和多样的录音条件。",
        term_es = "VoxCeleb",
        term_zh = "VoxCeleb",
        aliases_es = { "VoxCeleb1" },
        aliases_zh = { "VoxCeleb1" },
    }
    
    data["voxceleb2"] = {
        short = "An expanded successor to VoxCeleb with over a million utterances from more than 6,000 celebrity speakers, widely used to train deep speaker embedding models such as x-vectors and ECAPA-TDNN.",
        article = nil,
        aliases = { "VoxCeleb2" },
        es = "Sucesor ampliado de VoxCeleb con más de un millón de enunciados de más de 6000 hablantes famosos, ampliamente utilizado para entrenar modelos profundos de embeddings de hablante como x-vectors y ECAPA-TDNN.",
        zh = "VoxCeleb 的扩展版本,包含来自 6000 多名名人说话者的逾百万条语音,被广泛用于训练 x-vector、ECAPA-TDNN 等深度说话人嵌入模型。",
        term_es = "VoxCeleb2",
        term_zh = "VoxCeleb2",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["voxel"] = {
        short = "A volumetric pixel: the 3D analog of a pixel, representing a value on a regular grid in three-dimensional space. Used to discretize volumes for medical imaging, 3D convolutional networks, and occupancy grids.",
        article = nil,
        aliases = { "voxels", "volumetric pixel" },
        es = "Píxel volumétrico: el análogo 3D de un píxel, que representa un valor en una rejilla regular en el espacio tridimensional. Se utiliza para discretizar volúmenes en imágenes médicas, redes convolucionales 3D y rejillas de ocupación.",
        zh = "体素:像素的三维对应物,表示三维空间中规则网格上的一个值。用于在医学影像、三维卷积网络和占用网格中对体积进行离散化。",
        term_es = "vóxel",
        term_zh = "体素",
        aliases_es = { "voxel", "vóxeles" },
        aliases_zh = { "voxel", "体积像素" },
    }
    
    data["voxlingua107"] = {
        short = "A spoken language identification dataset of about 6,600 hours of YouTube audio covering 107 languages, used to train and benchmark language identification models.",
        article = nil,
        aliases = { "VoxLingua107" },
        es = "Conjunto de datos para identificación de idioma hablado con unas 6600 horas de audio de YouTube en 107 idiomas, utilizado para entrenar y evaluar modelos de identificación de idioma.",
        zh = "一个口语语种识别数据集,包含约 6600 小时来自 YouTube 的音频,涵盖 107 种语言,用于训练和评测语种识别模型。",
        term_es = "VoxLingua107",
        term_zh = "VoxLingua107",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["voxpopuli"] = {
        short = "A multilingual speech corpus collected from European Parliament event recordings, comprising hundreds of thousands of hours of unlabeled and transcribed speech in 23 languages, used for self-supervised speech pretraining and ASR research.",
        article = nil,
        aliases = { "VoxPopuli" },
        es = "Corpus de voz multilingüe recopilado de grabaciones de eventos del Parlamento Europeo, con cientos de miles de horas de habla sin etiquetar y transcrita en 23 idiomas, usado para preentrenamiento autosupervisado e investigación en ASR.",
        zh = "一个多语种语音语料库,采集自欧洲议会活动录音,包含 23 种语言的数十万小时无标注语音和有转录语音,用于自监督语音预训练和语音识别研究。",
        term_es = "VoxPopuli",
        term_zh = "VoxPopuli",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["voyage-3"] = {
        short = "Embedding model from Voyage AI released in 2024, optimized for retrieval-augmented generation. Offers competitive accuracy at a much smaller embedding dimension and lower cost than OpenAI text-embedding-3-large.",
        article = nil,
        aliases = { "voyage-3-large", "voyage-3-lite", "Voyage 3", "Voyage-3" },
        es = "Modelo de embeddings de Voyage AI lanzado en 2024, optimizado para generación aumentada por recuperación (RAG). Ofrece precisión competitiva con una dimensión de embedding mucho menor y un coste inferior al de OpenAI text-embedding-3-large.",
        zh = "Voyage AI 于 2024 年发布的嵌入模型,针对检索增强生成(RAG)优化。在嵌入维度更小、成本更低的情况下,精度与 OpenAI text-embedding-3-large 相当。",
        term_es = "voyage-3",
        term_zh = "voyage-3",
        aliases_es = { "Voyage 3", "voyage-3-large" },
        aliases_zh = { "Voyage 3", "voyage-3-large" },
    }
    
    data["voyager agent"] = {
        short = "An LLM-driven embodied agent (NVIDIA, 2023) that plays Minecraft autonomously by combining GPT-4 with an automatic curriculum, an iterative prompting mechanism, and a growing skill library of executable code.",
        article = nil,
        aliases = { "Voyager", "Voyager (Minecraft agent)", "NVIDIA Voyager" },
        es = "Agente corporeizado dirigido por LLM (NVIDIA, 2023) que juega a Minecraft de forma autónoma combinando GPT-4 con un currículo automático, un mecanismo de prompting iterativo y una biblioteca creciente de habilidades como código ejecutable.",
        zh = "由 LLM 驱动的具身智能体(NVIDIA,2023),结合 GPT-4、自动课程、迭代提示机制以及不断增长的可执行代码技能库,能够在 Minecraft 中自主游玩。",
        term_es = "agente Voyager",
        term_zh = "Voyager 智能体",
        aliases_es = { "Voyager", "Voyager de NVIDIA" },
        aliases_zh = { "Voyager", "NVIDIA Voyager" },
    }
    
    data["vq-vae"] = {
        short = "Common name for the Vector-Quantized Variational Autoencoder (van den Oord et al., 2017), a VAE with a discrete codebook latent space trained with a straight-through estimator and a commitment loss; widely used as a tokenizer in models such as DALL·E and Jukebox.",
        article = nil,
        aliases = { "VQ-VAE", "VQVAE", "vector quantized VAE", "vector-quantized VAE", "vector quantized variational autoencoder" },
        es = "Nombre habitual del autocodificador variacional con cuantización vectorial (van den Oord et al., 2017): un VAE con espacio latente discreto basado en un libro de códigos, entrenado con un estimador straight-through y una pérdida de compromiso. Se usa ampliamente como tokenizador en modelos como DALL·E y Jukebox.",
        zh = "向量量化变分自编码器(van den Oord 等,2017)的常用简称:使用离散码本作为潜空间,通过 straight-through 估计器和 commitment 损失进行训练;在 DALL·E、Jukebox 等模型中被广泛用作 tokenizer。",
        term_es = "VQ-VAE",
        term_zh = "VQ-VAE",
        aliases_es = { "VQVAE", "VAE con cuantización vectorial" },
        aliases_zh = { "VQVAE", "向量量化 VAE", "矢量量化 VAE" },
    }
    
    data["vqgan"] = {
        short = "A VQ-VAE (Esser et al., 2021) augmented with a patch-based adversarial loss and a perceptual loss, producing a discrete codebook over image patches that can be modeled by a transformer for high-resolution generation (Taming Transformers).",
        article = nil,
        aliases = { "VQGAN", "VQ-GAN", "Taming Transformers" },
        es = "VQ-VAE (Esser et al., 2021) ampliado con una pérdida adversarial basada en parches y una pérdida perceptual, que produce un libro de códigos discreto sobre parches de imagen modelado posteriormente por un transformer para generación de alta resolución (Taming Transformers).",
        zh = "Esser 等人于 2021 年提出的 VQ-VAE 扩展:在重构目标上加入基于图像块的对抗损失和感知损失,得到对图像块的离散码本,再由 Transformer 在其上建模以实现高分辨率生成(Taming Transformers)。",
        term_es = "VQGAN",
        term_zh = "VQGAN",
        aliases_es = { "VQ-GAN", "Taming Transformers" },
        aliases_zh = { "VQ-GAN", "Taming Transformers" },
    }
    
    data["vsearch"] = {
        short = "An open-source sequence analysis toolkit for searching, clustering, dereplication, chimera detection, and pairwise alignment of nucleotide sequences; designed as a free alternative to USEARCH.",
        article = nil,
        aliases = { "VSEARCH", "vsearch tool" },
        es = "Conjunto de herramientas de análisis de secuencias de código abierto para búsqueda, agrupamiento, desreplicación, detección de quimeras y alineamiento por pares de secuencias de nucleótidos; diseñado como alternativa libre a USEARCH.",
        zh = "一个开源的序列分析工具包,用于核苷酸序列的搜索、聚类、去冗余、嵌合体检测和成对比对;设计为 USEARCH 的免费替代方案。",
        term_es = "VSEARCH",
        term_zh = "VSEARCH",
        aliases_es = { "vsearch" },
        aliases_zh = { "vsearch" },
    }
    
    data["wachter counterfactual"] = {
        short = "The counterfactual explanation method of Wachter, Mittelstadt and Russell that finds a minimally-perturbed input achieving a target prediction by minimizing a weighted sum of distance and prediction loss.",
        article = nil,
        aliases = { "Wachter et al. counterfactual", "Wachter counterfactual explanation" },
        es = "Método de explicación contrafactual de Wachter, Mittelstadt y Russell que halla una entrada mínimamente perturbada que logra una predicción objetivo minimizando una suma ponderada de distancia y pérdida de predicción.",
        zh = "Wachter、Mittelstadt 与 Russell 提出的反事实解释方法:通过最小化距离与预测损失的加权和,寻找能达到目标预测的最小扰动输入。",
        term_es = "contrafactual de Wachter",
        term_zh = "Wachter 反事实",
        aliases_es = { "explicación contrafactual de Wachter" },
        aliases_zh = { "Wachter 等人的反事实", "Wachter 反事实解释" },
    }
    
    data["wake word detection"] = {
        short = "An always-on, low-footprint task of detecting a specific trigger phrase such as 'Hey Siri' or 'Alexa' in a continuous audio stream, designed to run efficiently on-device with high recall and low false-alarm rates.",
        article = nil,
        aliases = { "keyword spotting", "KWS", "hotword detection", "trigger word detection" },
        es = "Tarea siempre activa y de baja huella consistente en detectar una frase de activación específica como 'Hey Siri' o 'Alexa' en un flujo continuo de audio, diseñada para ejecutarse eficientemente en el dispositivo con alta sensibilidad y baja tasa de falsas alarmas.",
        zh = "一种始终在线、低占用的任务,用于在连续音频流中检测特定触发短语(如「Hey Siri」「Alexa」),要求可在设备端高效运行,具有高召回率和低误报率。",
        term_es = "detección de palabra de activación",
        term_zh = "唤醒词检测",
        aliases_es = { "KWS", "detección de palabra clave", "hotword" },
        aliases_zh = { "KWS", "关键词检测", "热词检测" },
    }
    
    data["wald estimator"] = {
        short = "An instrumental-variable estimator that takes the ratio of the instrument–outcome covariance to the instrument–treatment covariance, equivalent to a simple ratio of differences for a binary instrument. Identifies the local average treatment effect under standard IV assumptions.",
        article = nil,
        aliases = { "Wald estimator", "Wald ratio", "Wald IV estimator", "ratio estimator" },
        es = "Estimador de variables instrumentales que toma el cociente entre la covarianza instrumento–resultado y la covarianza instrumento–tratamiento, equivalente a un cociente simple de diferencias cuando el instrumento es binario. Identifica el efecto promedio del tratamiento local bajo los supuestos estándar de IV.",
        zh = "一种工具变量估计量,等于工具与结果的协方差除以工具与处理的协方差;当工具变量为二元变量时,化为差分之比。在标准工具变量假设下可识别局部平均处理效应。",
        term_es = "estimador de Wald",
        term_zh = "Wald 估计量",
        aliases_es = { "razón de Wald", "estimador IV de Wald", "estimador de razón" },
        aliases_zh = { "Wald 比值估计量", "Wald 工具变量估计量", "比值估计量" },
    }
    
    data["walt video"] = {
        short = "WALT (Window Attention Latent Transformer) is a text-to-video latent diffusion model from Google that uses windowed attention over a shared image-and-video latent space to generate temporally consistent clips.",
        article = nil,
        aliases = { "WALT", "W.A.L.T.", "WALT video", "Window Attention Latent Transformer" },
        es = "WALT (Window Attention Latent Transformer) es un modelo de difusión latente texto-a-vídeo de Google que usa atención por ventanas sobre un espacio latente compartido de imagen y vídeo para generar clips temporalmente consistentes.",
        zh = "WALT(Window Attention Latent Transformer)是 Google 的文生视频潜空间扩散模型,在共享的图像与视频潜空间上使用窗口注意力,生成时间上连贯的视频片段。",
        term_es = "WALT",
        term_zh = "WALT",
        aliases_es = { "WALT", "W.A.L.T." },
        aliases_zh = { "WALT", "W.A.L.T." },
    }
    
    data["wandb sweeps"] = {
        short = "Weights & Biases' hyperparameter optimization feature that orchestrates parallel training runs across grid, random, or Bayesian search strategies and aggregates results in the W&B dashboard.",
        article = nil,
        aliases = { "W&B Sweeps", "Weights & Biases Sweeps", "wandb sweep", "wandb-sweeps" },
        es = "Funcionalidad de optimización de hiperparámetros de Weights & Biases que orquesta ejecuciones de entrenamiento en paralelo con estrategias de búsqueda en cuadrícula, aleatoria o bayesiana y agrega los resultados en el panel de W&B.",
        zh = "Weights & Biases提供的超参数优化功能,可按网格搜索、随机搜索或贝叶斯搜索策略编排并行训练任务,并在W&B面板中汇总结果。",
        term_es = "Sweeps de W&B",
        term_zh = "W&B Sweeps",
        aliases_es = { "W&B Sweeps", "Weights & Biases Sweeps" },
        aliases_zh = { "Weights & Biases Sweeps", "wandb超参扫描" },
    }
    
    data["warm-starting hpo"] = {
        short = "Hyperparameter optimization that initializes a new search using configurations or surrogate models inherited from previous related runs, avoiding cold-start exploration on each new task.",
        article = nil,
        aliases = { "warm-start HPO", "warm-started HPO", "warmstart HPO", "warm starting HPO" },
        es = "Optimización de hiperparámetros que inicializa una búsqueda nueva utilizando configuraciones o modelos sustitutos heredados de ejecuciones relacionadas previas, evitando la exploración en frío en cada tarea nueva.",
        zh = "一种超参数优化策略,利用先前相关运行中的配置或代理模型来初始化新搜索,避免每个新任务都进行冷启动探索。",
        term_es = "HPO con arranque en caliente",
        term_zh = "热启动超参数优化",
        aliases_es = { "warm-start HPO", "HPO con warm-start" },
        aliases_zh = { "warm-start HPO", "热启动HPO" },
    }
    
    data["warmup phase"] = {
        short = "Initial portion of training during which the learning rate is gradually increased from a very small value to its target. Stabilizes optimization of large models, especially with adaptive optimizers and large batch sizes.",
        article = nil,
        aliases = { "warmup", "learning rate warmup", "lr warmup", "warm-up phase", "warm up" },
        es = "Fase inicial del entrenamiento en la que la tasa de aprendizaje se incrementa gradualmente desde un valor muy pequeño hasta el objetivo. Estabiliza la optimización de modelos grandes, especialmente con optimizadores adaptativos y batches grandes.",
        zh = "训练初期阶段,学习率从极小值逐步增大到目标值。可稳定大模型的优化过程,尤其在使用自适应优化器和大批量时效果显著。",
        term_es = "fase de calentamiento",
        term_zh = "预热阶段",
        aliases_es = { "warmup", "calentamiento de la tasa de aprendizaje", "warm-up" },
        aliases_zh = { "warmup", "学习率预热", "热身阶段" },
    }
    
    data["wasserstein distance"] = {
        short = "An optimal-transport-based distance between probability distributions, defined as the minimum expected cost to transform one distribution into another by moving probability mass. The order-1 form is also called the Earth Mover's distance.",
        article = nil,
        aliases = { "Wasserstein distance", "Wasserstein metric", "W-distance", "W1", "W_1", "optimal transport distance", "Kantorovich-Rubinstein distance" },
        es = "Distancia entre distribuciones de probabilidad basada en transporte óptimo, definida como el mínimo coste esperado para transformar una distribución en otra moviendo masa de probabilidad. La forma de orden 1 también se llama distancia del Earth Mover.",
        zh = "基于最优传输的概率分布距离,定义为将一个分布通过移动概率质量转换为另一个分布所需的最小期望代价。一阶形式也称为推土机距离。",
        term_es = "distancia de Wasserstein",
        term_zh = "Wasserstein 距离",
        aliases_es = { "métrica de Wasserstein", "distancia de transporte óptimo", "distancia de Kantorovich-Rubinstein" },
        aliases_zh = { "Wasserstein 度量", "最优传输距离", "Kantorovich-Rubinstein 距离" },
    }
    
    data["wasserstein gan"] = {
        short = "A GAN variant (Arjovsky et al., 2017) that minimizes the Wasserstein-1 distance between real and generated distributions instead of the Jensen–Shannon divergence, replacing the discriminator with a 1-Lipschitz critic to provide smoother gradients and a meaningful loss curve.",
        article = nil,
        aliases = { "WGAN", "Wasserstein GAN", "WGAN-GP" },
        es = "Variante de GAN (Arjovsky et al., 2017) que minimiza la distancia de Wasserstein-1 entre las distribuciones real y generada en lugar de la divergencia de Jensen–Shannon, sustituyendo el discriminador por un crítico 1-Lipschitz para obtener gradientes más suaves y una curva de pérdida interpretable.",
        zh = "Arjovsky 等人于 2017 年提出的 GAN 变体:以真实分布与生成分布之间的 Wasserstein-1 距离取代 Jensen–Shannon 散度作为优化目标,并将判别器替换为 1-Lipschitz 评论家,从而提供更平滑的梯度和有意义的损失曲线。",
        term_es = "GAN de Wasserstein",
        term_zh = "Wasserstein GAN",
        aliases_es = { "WGAN", "WGAN-GP" },
        aliases_zh = { "WGAN", "WGAN-GP", "瓦瑟斯坦 GAN" },
    }
    
    data["wasserstein loss"] = {
        short = "An adversarial objective derived from the Earth Mover's (Wasserstein-1) distance between real and generated distributions, computed via the Kantorovich-Rubinstein duality where the discriminator (critic) is constrained to be 1-Lipschitz.",
        article = nil,
        aliases = { "WGAN loss", "Wasserstein-1 loss", "earth mover loss", "EM loss", "Kantorovich-Rubinstein loss" },
        es = "Objetivo adversarial derivado de la distancia de Wasserstein-1 (Earth Mover) entre la distribución real y la generada, calculado mediante la dualidad de Kantorovich-Rubinstein con un crítico restringido a ser 1-Lipschitz.",
        zh = "一种基于真实分布与生成分布之间 Wasserstein-1(推土机)距离的对抗目标,通过 Kantorovich-Rubinstein 对偶性计算,其判别器(critic)被约束为 1-Lipschitz 函数。",
        term_es = "pérdida de Wasserstein",
        term_zh = "Wasserstein 损失",
        aliases_es = { "pérdida WGAN", "distancia de Wasserstein", "pérdida Earth Mover" },
        aliases_zh = { "WGAN 损失", "推土机距离损失", "EM 损失" },
    }
    
    data["water model"] = {
        short = "A computational representation of liquid water used in molecular dynamics and free-energy calculations, parameterizing the geometry, partial charges, and Lennard-Jones terms of water molecules. Common variants include TIP3P, TIP4P, TIP5P, SPC, and SPC/E.",
        article = nil,
        aliases = { "water force field", "TIP3P", "TIP4P", "SPC water", "SPC/E", "explicit water model" },
        es = "Representación computacional del agua líquida empleada en dinámica molecular y cálculos de energía libre, que parametriza la geometría, las cargas parciales y los términos de Lennard-Jones de las moléculas de agua. Las variantes habituales incluyen TIP3P, TIP4P, TIP5P, SPC y SPC/E.",
        zh = "用于分子动力学和自由能计算的液态水计算表示,参数化水分子的几何结构、部分电荷和 Lennard-Jones 项。常见模型包括 TIP3P、TIP4P、TIP5P、SPC 和 SPC/E。",
        term_es = "modelo de agua",
        term_zh = "水模型",
        aliases_es = { "campo de fuerza del agua", "TIP3P", "TIP4P", "SPC", "modelo explícito de agua" },
        aliases_zh = { "水力场", "TIP3P", "TIP4P", "显式水模型" },
    }
    
    data["watermarking llm"] = {
        short = "Family of techniques that embed a statistical signal into LLM outputs, typically by biasing the sampling distribution toward a pseudo-randomly chosen subset of tokens, so that machine-generated text can later be detected without access to the source model.",
        article = nil,
        aliases = { "LLM watermarking", "language model watermarking", "text watermarking", "watermark for LLMs" },
        es = "Familia de técnicas que insertan una señal estadística en las salidas de un LLM, normalmente sesgando la distribución de muestreo hacia un subconjunto pseudoaleatorio de tokens, para detectar después texto generado por máquina sin necesidad de acceder al modelo original.",
        zh = "一类在 LLM 输出中嵌入统计信号的技术,通常将采样分布偏向伪随机选定的词元子集,使得日后无需访问原始模型即可检测机器生成的文本。",
        term_es = "marca de agua para LLM",
        term_zh = "LLM 水印",
        aliases_es = { "watermarking de LLM", "marca de agua en modelos de lenguaje" },
        aliases_zh = { "LLM watermarking", "语言模型水印", "文本水印" },
    }
    
    data["wav2letter"] = {
        short = "An early end-to-end automatic speech recognition system from Facebook AI that uses fully convolutional acoustic models trained with the AutoSegCriterion or CTC loss, designed for fast inference.",
        article = nil,
        aliases = { "Wav2Letter", "wav2letter++" },
        es = "Sistema temprano de reconocimiento automático de voz de extremo a extremo de Facebook AI que utiliza modelos acústicos totalmente convolucionales entrenados con el criterio AutoSeg o pérdida CTC, diseñado para inferencia rápida.",
        zh = "Facebook AI 早期提出的端到端自动语音识别系统,使用全卷积声学模型并以 AutoSegCriterion 或 CTC 损失进行训练,设计目标是实现快速推理。",
        term_es = "wav2letter",
        term_zh = "wav2letter",
        aliases_es = { "wav2letter++" },
        aliases_zh = { "wav2letter++" },
    }
    
    data["wav2vec"] = {
        short = "A self-supervised speech representation learning model from Facebook AI that pretrains a convolutional encoder on raw audio with a contrastive next-step prediction objective, producing features for downstream ASR.",
        article = nil,
        aliases = { "Wav2Vec", "wav2vec 1.0" },
        es = "Modelo de aprendizaje autosupervisado de representaciones de voz de Facebook AI que preentrena un codificador convolucional sobre audio en bruto con un objetivo contrastivo de predicción del siguiente paso, generando características para ASR posterior.",
        zh = "Facebook AI 提出的自监督语音表示学习模型,使用对比式下一步预测目标在原始音频上预训练卷积编码器,生成可用于下游语音识别的特征。",
        term_es = "wav2vec",
        term_zh = "wav2vec",
        aliases_es = { "wav2vec 1.0" },
        aliases_zh = { "wav2vec 1.0" },
    }
    
    data["wav2vec 2.0"] = {
        short = "A self-supervised speech model that masks portions of a latent feature sequence and learns to identify the true quantized representations among distractors via a contrastive loss; fine-tuning yields strong ASR with little labeled data.",
        article = nil,
        aliases = { "wav2vec2", "Wav2Vec 2.0", "wav2vec2.0" },
        es = "Modelo de voz autosupervisado que enmascara partes de una secuencia latente de características y aprende a identificar las representaciones cuantizadas verdaderas frente a distractores mediante una pérdida contrastiva; el ajuste fino logra ASR de alta calidad con pocos datos etiquetados.",
        zh = "一种自监督语音模型,对潜在特征序列的部分进行掩码,并通过对比损失从干扰项中识别出真实的量化表示;微调后只需少量带标签数据即可获得强大的语音识别能力。",
        term_es = "wav2vec 2.0",
        term_zh = "wav2vec 2.0",
        aliases_es = { "wav2vec2" },
        aliases_zh = { "wav2vec2" },
    }
    
    data["wave-u-net"] = {
        short = "A U-Net architecture adapted to operate directly on raw audio waveforms for source separation tasks, using one-dimensional strided convolutions for downsampling and learned upsampling in the decoder.",
        article = nil,
        aliases = { "Wave-U-Net" },
        es = "Arquitectura U-Net adaptada para operar directamente sobre formas de onda de audio en bruto en tareas de separación de fuentes, empleando convoluciones unidimensionales con stride para reducir la dimensión y submuestreo aprendido en el decodificador.",
        zh = "一种适配于直接处理原始音频波形进行源分离的 U-Net 架构,使用一维带步幅卷积进行下采样,并在解码器中使用可学习的上采样。",
        term_es = "Wave-U-Net",
        term_zh = "Wave-U-Net",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["waveform tokenization"] = {
        short = "Discretizing raw audio waveforms into a sequence of tokens, typically via a neural audio codec such as EnCodec or SoundStream, so that audio can be modeled by language-model-style transformers.",
        article = nil,
        aliases = { "audio tokenization", "neural audio tokenization" },
        es = "Discretización de formas de onda de audio en bruto en una secuencia de tokens, habitualmente mediante un códec neuronal como EnCodec o SoundStream, lo que permite modelar el audio con transformers al estilo de los modelos de lenguaje.",
        zh = "将原始音频波形离散化为一串 token,通常通过 EnCodec 或 SoundStream 等神经音频编解码器实现,使音频可以由类似语言模型的 Transformer 进行建模。",
        term_es = "tokenización de forma de onda",
        term_zh = "波形分词",
        aliases_es = { "tokenización de audio" },
        aliases_zh = { "音频分词", "音频 token 化" },
    }
    
    data["waveglow"] = {
        short = "A flow-based neural vocoder from NVIDIA that combines insights from WaveNet and Glow, generating mel-conditioned audio in a single forward pass via invertible affine coupling layers.",
        article = nil,
        aliases = { "WaveGlow" },
        es = "Vocoder neuronal basado en flujos normalizadores de NVIDIA que combina ideas de WaveNet y Glow, generando audio condicionado por mel-espectrograma en una única pasada hacia adelante mediante capas de acoplamiento afín invertibles.",
        zh = "NVIDIA 提出的基于流的神经声码器,融合了 WaveNet 与 Glow 的思想,通过可逆仿射耦合层在单次前向传播中生成以梅尔频谱为条件的音频。",
        term_es = "WaveGlow",
        term_zh = "WaveGlow",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["wavegrad"] = {
        short = "A diffusion-based neural vocoder that generates audio waveforms by iteratively denoising Gaussian noise conditioned on a mel-spectrogram, trading inference steps for sample quality.",
        article = nil,
        aliases = { "WaveGrad" },
        es = "Vocoder neuronal basado en difusión que genera formas de onda de audio mediante denoising iterativo de ruido gaussiano condicionado por un mel-espectrograma, intercambiando pasos de inferencia por calidad de muestra.",
        zh = "一种基于扩散的神经声码器,以梅尔频谱为条件,通过对高斯噪声进行迭代去噪来生成音频波形,可在推理步数与采样质量之间进行权衡。",
        term_es = "WaveGrad",
        term_zh = "WaveGrad",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["wavenet"] = {
        short = "An autoregressive raw-audio generative model (van den Oord et al., 2016) that uses a deep stack of dilated causal convolutions to model p(x_t | x_<t) at 16 kHz sample rate, achieving natural-sounding speech and music synthesis.",
        article = nil,
        aliases = { "WaveNet", "Wave Net" },
        es = "Modelo generativo autorregresivo de audio en bruto (van den Oord et al., 2016) que usa una pila profunda de convoluciones causales dilatadas para modelar p(x_t | x_<t) a una tasa de muestreo de 16 kHz, logrando síntesis de voz y música de sonido natural.",
        zh = "van den Oord 等人于 2016 年提出的原始音频自回归生成模型:使用深层堆叠的因果空洞卷积建模 16 kHz 采样下的 p(x_t | x_<t),实现自然的语音和音乐合成。",
        term_es = "WaveNet",
        term_zh = "WaveNet",
        aliases_es = {},
        aliases_zh = {},
    }
    
    data["wavernn"] = {
        short = "An efficient autoregressive RNN-based neural vocoder that uses a single GRU and dual softmax over coarse and fine 8-bit components to synthesize high-quality 16-bit audio in real time on CPU and mobile.",
        article = nil,
        aliases = { "WaveRNN" },
        es = "Vocoder neuronal autorregresivo eficiente basado en RNN que utiliza una única GRU y un doble softmax sobre las componentes gruesa y fina de 8 bits para sintetizar audio de 16 bits de alta calidad en tiempo real en CPU y móviles.",
        zh = "一种高效的基于 RNN 的自回归神经声码器,使用单个 GRU 和粗/细 8 位分量上的双 softmax,在 CPU 和移动设备上实时合成高质量的 16 位音频。",
        term_es = "WaveRNN",
        term_zh = "WaveRNN",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["wavlm"] = {
        short = "A self-supervised speech foundation model from Microsoft that extends HuBERT-style masked prediction with utterance mixing and gated relative position bias, producing strong representations for ASR, speaker, and paralinguistic tasks.",
        article = nil,
        aliases = { "WavLM" },
        es = "Modelo base de voz autosupervisado de Microsoft que extiende la predicción enmascarada al estilo HuBERT con mezcla de enunciados y sesgo de posición relativa con compuerta, produciendo representaciones sólidas para ASR, identificación de hablante y tareas paralingüísticas.",
        zh = "微软提出的自监督语音基础模型,在 HuBERT 风格的掩码预测之上加入语句混合和带门控的相对位置偏置,生成适用于语音识别、说话人和副语言任务的强表示。",
        term_es = "WavLM",
        term_zh = "WavLM",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["wdl workflow"] = {
        short = "A workflow written in the Workflow Description Language, a human-readable language developed at the Broad Institute for portably specifying multi-step bioinformatics pipelines that run under engines such as Cromwell, miniWDL, or Terra.",
        article = nil,
        aliases = { "WDL", "Workflow Description Language", "WDL pipeline", ".wdl" },
        es = "Flujo de trabajo escrito en Workflow Description Language, lenguaje legible por humanos desarrollado en el Broad Institute para especificar de forma portátil pipelines bioinformáticos multietapa ejecutables en motores como Cromwell, miniWDL o Terra.",
        zh = "用 Workflow Description Language(WDL)编写的工作流,由 Broad Institute 开发的人类可读语言,用于以可移植方式描述多步骤生物信息学流程,可在 Cromwell、miniWDL 或 Terra 等引擎上运行。",
        term_es = "flujo de trabajo WDL",
        term_zh = "WDL 工作流",
        aliases_es = { "WDL", "Workflow Description Language", "pipeline WDL" },
        aliases_zh = { "WDL", "工作流描述语言", "WDL 流程" },
    }
    
    data["weak instrument"] = {
        short = "An instrumental variable that is only weakly correlated with the endogenous regressor, leading to imprecise and potentially biased IV estimates. Detected via first-stage F-statistics, with rules of thumb such as F > 10 for a single instrument.",
        article = nil,
        aliases = { "weak instruments", "weak IV", "weakly identified instrument", "low-power instrument" },
        es = "Variable instrumental que está débilmente correlacionada con el regresor endógeno, lo que produce estimaciones IV imprecisas y potencialmente sesgadas. Se detecta mediante estadísticos F de la primera etapa, con reglas prácticas como F > 10 para un único instrumento.",
        zh = "与内生回归元相关性较弱的工具变量,会导致工具变量估计精度差且可能存在偏差。常通过第一阶段 F 统计量加以检测,对单一工具的经验法则是 F 大于 10。",
        term_es = "instrumento débil",
        term_zh = "弱工具变量",
        aliases_es = { "instrumentos débiles", "IV débil", "instrumento débilmente identificado", "instrumento de baja potencia" },
        aliases_zh = { "弱工具", "弱 IV", "弱识别工具变量", "低效力工具变量" },
    }
    
    data["weak instrument bias"] = {
        short = "Finite-sample bias of two-stage least squares and related IV estimators toward the OLS estimate when the instrument is only weakly correlated with the endogenous regressor. Motivates weak-IV-robust inference such as Anderson–Rubin tests.",
        article = nil,
        aliases = { "weak-instrument bias", "weak IV bias", "many-weak-instruments bias", "finite-sample IV bias" },
        es = "Sesgo en muestras finitas de los mínimos cuadrados en dos etapas y otros estimadores de variables instrumentales hacia el estimador MCO cuando el instrumento está débilmente correlacionado con el regresor endógeno. Motiva la inferencia robusta a instrumentos débiles, como las pruebas de Anderson–Rubin.",
        zh = "当工具变量与内生回归元相关性较弱时,两阶段最小二乘及相关工具变量估计量在有限样本下会偏向 OLS 估计的偏差。这促使了对弱工具稳健的推断方法,如 Anderson–Rubin 检验。",
        term_es = "sesgo por instrumentos débiles",
        term_zh = "弱工具偏差",
        aliases_es = { "sesgo de IV débil", "sesgo por muchos instrumentos débiles", "sesgo en muestras finitas de IV" },
        aliases_zh = { "弱 IV 偏差", "多弱工具偏差", "工具变量有限样本偏差" },
    }
    
    data["weak supervision"] = {
        short = "A training paradigm that uses noisy, limited, or imprecise sources of labels — such as heuristics, rules, or distant signals — instead of high-quality manual annotations.",
        article = nil,
        aliases = { "weakly supervised learning", "weak supervision learning" },
        es = "Paradigma de entrenamiento que utiliza fuentes de etiquetas ruidosas, limitadas o imprecisas — como heurísticas, reglas o señales indirectas — en lugar de anotaciones manuales de alta calidad.",
        zh = "一种训练范式,使用启发式、规则或间接信号等噪声、有限或不精确的标签来源,而非高质量的人工标注。",
        term_es = "supervisión débil",
        term_zh = "弱监督",
        aliases_es = { "aprendizaje débilmente supervisado", "supervisión débil" },
        aliases_zh = { "弱监督学习", "weak supervision" },
    }
    
    data["weakly labeled audio"] = {
        short = "Audio data annotated only with clip-level tags indicating which sound events are present, without explicit start and end times, requiring multiple-instance learning or attention pooling for sound event detection.",
        article = nil,
        aliases = { "weakly-labeled audio", "weak labels", "weakly supervised audio" },
        es = "Datos de audio anotados únicamente con etiquetas a nivel de clip que indican qué eventos sonoros están presentes, sin tiempos explícitos de inicio y fin, lo que requiere aprendizaje de múltiples instancias o pooling con atención para la detección de eventos sonoros.",
        zh = "仅在片段级别标注存在哪些声音事件、不提供精确起止时间的音频数据,需要使用多示例学习或注意力池化来进行声音事件检测。",
        term_es = "audio débilmente etiquetado",
        term_zh = "弱标注音频",
        aliases_es = { "etiquetas débiles", "audio débilmente supervisado" },
        aliases_zh = { "弱标签音频", "弱监督音频" },
    }
    
    data["weat"] = {
        short = "The Word Embedding Association Test (Caliskan et al., 2017): a statistical test that measures bias in word embeddings by comparing cosine-similarity associations between target words and attribute words.",
        article = nil,
        aliases = { "WEAT", "Word Embedding Association Test", "WEAT test" },
        es = "Word Embedding Association Test (Caliskan et al., 2017): prueba estadística que mide el sesgo en embeddings de palabras comparando las asociaciones de similitud coseno entre palabras objetivo y palabras de atributo.",
        zh = "词嵌入关联测试(Caliskan 等人,2017),通过比较目标词与属性词之间的余弦相似度关联,统计性地测量词嵌入中的偏见。",
        term_es = "WEAT",
        term_zh = "WEAT",
        aliases_es = { "Word Embedding Association Test", "prueba WEAT", "test de asociación de embeddings de palabras" },
        aliases_zh = { "词嵌入关联测试", "WEAT 测试" },
    }
    
    data["weat test"] = {
        short = "Synonym for WEAT — the Word Embedding Association Test, used to quantify implicit bias encoded in pretrained word embeddings.",
        article = nil,
        aliases = { "WEAT", "Word Embedding Association Test", "weat" },
        es = "Sinónimo de WEAT: la Word Embedding Association Test, utilizada para cuantificar el sesgo implícito codificado en embeddings de palabras preentrenados.",
        zh = "WEAT 的同义说法,即词嵌入关联测试,用于量化预训练词嵌入中编码的隐性偏见。",
        term_es = "prueba WEAT",
        term_zh = "WEAT 测试",
        aliases_es = { "WEAT", "test WEAT", "Word Embedding Association Test" },
        aliases_zh = { "WEAT", "词嵌入关联测试" },
    }
    
    data["webqsp dataset"] = {
        short = "WebQuestionsSP, a knowledge-base question-answering benchmark that augments WebQuestions with semantic parses (SPARQL queries) over Freebase, used to evaluate KBQA systems.",
        article = nil,
        aliases = { "WebQSP", "WebQuestionsSP", "WebQSP benchmark", "WebQSP dataset" },
        es = "WebQuestionsSP, un conjunto de evaluación de preguntas y respuestas sobre bases de conocimiento que enriquece WebQuestions con análisis semánticos (consultas SPARQL) sobre Freebase, usado para evaluar sistemas de KBQA.",
        zh = "WebQuestionsSP,一个面向知识库问答的基准,它在 WebQuestions 基础上补充了基于 Freebase 的语义解析(SPARQL 查询),用于评测 KBQA 系统。",
        term_es = "WebQSP",
        term_zh = "WebQSP 数据集",
        aliases_es = { "WebQuestionsSP", "benchmark WebQSP" },
        aliases_zh = { "WebQSP", "WebQuestionsSP", "WebQSP 基准" },
    }
    
    data["webvid"] = {
        short = "Large-scale text-video dataset of roughly 10 million stock-footage clips paired with caption alt-text scraped from a stock video site. Widely used to pretrain text-to-video diffusion models such as ModelScope and ZeroScope.",
        article = nil,
        aliases = { "WebVid", "WebVid-10M", "WebVid-2M" },
        es = "Conjunto de datos texto-vídeo a gran escala con unos 10 millones de clips de stock emparejados con sus textos alternativos, recopilado de un sitio de vídeo de stock. Muy usado para preentrenar modelos texto-a-vídeo de difusión como ModelScope y ZeroScope.",
        zh = "大规模文本-视频数据集,约 1000 万段从图库视频网站抓取的素材片段及其标题/替代文本。被广泛用于预训练 ModelScope、ZeroScope 等文生视频扩散模型。",
        term_es = "WebVid",
        term_zh = "WebVid",
        aliases_es = { "WebVid", "WebVid-10M" },
        aliases_zh = { "WebVid", "WebVid-10M" },
    }
    
    data["webvid-10m"] = {
        short = "The 10-million-pair release of WebVid; the standard pretraining corpus for many video-text retrieval, captioning, and video question answering models.",
        article = nil,
        aliases = { "WebVid-10M", "WebVid 10M", "WebVid10M" },
        es = "La versión de 10 millones de pares de WebVid; corpus de preentrenamiento estándar para numerosos modelos de recuperación, descripción y respuesta a preguntas sobre video y texto.",
        zh = "WebVid 的一千万配对版本,是众多视频-文本检索、描述生成与视频问答模型的标准预训练语料。",
        term_es = "WebVid-10M",
        term_zh = "WebVid-10M",
        aliases_es = { "WebVid-10M", "WebVid 10M" },
        aliases_zh = { "WebVid-10M", "WebVid 10M" },
    }
    
    data["weight averaging"] = {
        short = "A family of techniques that average model parameters across training iterations or independent runs (e.g. SWA, EMA) to obtain flatter solutions with improved generalization and, when combined with diagonal covariances, approximate Bayesian posteriors as in SWAG.",
        article = nil,
        aliases = { "stochastic weight averaging", "SWA", "EMA weights", "weight averaging" },
        es = "Familia de técnicas que promedian los parámetros del modelo a lo largo de las iteraciones de entrenamiento o entre ejecuciones independientes (por ejemplo SWA, EMA) para obtener soluciones más planas con mejor generalización y, al combinarse con covarianzas diagonales, posteriores bayesianas aproximadas como en SWAG.",
        zh = "一类对训练过程中或独立运行间的模型参数取平均的技术(如 SWA、EMA),可获得更平坦、泛化更优的解;与对角协方差结合时还能得到近似贝叶斯后验,如 SWAG 所做。",
        term_es = "promediado de pesos",
        term_zh = "权重平均",
        aliases_es = { "promediado estocástico de pesos", "SWA", "pesos EMA", "weight averaging" },
        aliases_zh = { "随机权重平均", "SWA", "EMA 权重", "weight averaging" },
    }
    
    data["weight decay"] = {
        short = "A regularization technique that shrinks model weights toward zero by adding a penalty proportional to their squared norm to the loss, equivalent to L2 regularization for plain SGD.",
        article = nil,
        aliases = { "L2 regularization", "L2 regularisation", "L2 penalty", "L2 weight decay" },
        es = "Técnica de regularización que reduce los pesos del modelo hacia cero añadiendo a la función de pérdida una penalización proporcional a su norma al cuadrado, equivalente a la regularización L2 en SGD básico.",
        zh = "一种正则化技术,通过在损失函数中加入与权重平方范数成正比的惩罚项使模型权重向零收缩,对于普通 SGD 等价于 L2 正则化。",
        term_es = "decaimiento de pesos",
        term_zh = "权重衰减",
        aliases_es = { "regularización L2", "penalización L2", "weight decay" },
        aliases_zh = { "L2 正则化", "L2 惩罚", "weight decay" },
    }
    
    data["weight inheritance"] = {
        short = "A technique in evolutionary or progressive neural architecture search where a child architecture initializes its weights by copying overlapping parameters from a parent rather than training from scratch, drastically reducing search cost.",
        article = nil,
        aliases = { "weight inheritance NAS", "parameter inheritance", "weight inheritance in NAS" },
        es = "Técnica en búsqueda evolutiva o progresiva de arquitecturas neuronales en la que una arquitectura hija inicializa sus pesos copiando parámetros coincidentes de un padre en lugar de entrenar desde cero, reduciendo drásticamente el costo de búsqueda.",
        zh = "进化式或渐进式神经架构搜索中的一种技术,子架构通过复制父架构中重叠的参数来初始化权重,而非从头训练,从而显著降低搜索开销。",
        term_es = "herencia de pesos",
        term_zh = "权重继承",
        aliases_es = { "herencia de parámetros", "herencia de pesos en NAS" },
        aliases_zh = { "参数继承", "NAS中的权重继承" },
    }
    
    data["weight normalization"] = {
        short = "Reparameterization that decouples each weight vector into its direction and magnitude (w = g · v / ||v||). Trains more stably than raw weights without batch statistics.",
        article = nil,
        aliases = { "WeightNorm", "weight norm" },
        es = "Reparametrización que separa cada vector de pesos en su dirección y magnitud (w = g · v / ||v||). Entrena de forma más estable que los pesos en bruto sin requerir estadísticas de batch.",
        zh = "将每个权重向量重参数化为方向与幅值的乘积(w = g · v / ||v||)。比直接训练原始权重更稳定,且不依赖批统计信息。",
        term_es = "normalización de pesos",
        term_zh = "权重归一化",
        aliases_es = { "WeightNorm", "weight norm" },
        aliases_zh = { "WeightNorm", "权重标准化" },
    }
    
    data["weight posterior"] = {
        short = "In Bayesian deep learning, the posterior distribution over neural network weights given the training data, p(w | D), inferred via Bayes' rule from a prior over weights and a likelihood; rarely tractable, so it is approximated by methods such as variational inference, MCMC or Laplace approximations.",
        article = nil,
        aliases = { "posterior over weights", "posterior distribution over weights", "parameter posterior", "weight posterior distribution" },
        es = "En el aprendizaje profundo bayesiano, la distribución posterior sobre los pesos de una red neuronal dadas las observaciones, p(w | D), obtenida por la regla de Bayes a partir de un prior sobre los pesos y una verosimilitud; suele ser intratable y se aproxima mediante inferencia variacional, MCMC o aproximaciones de Laplace.",
        zh = "在贝叶斯深度学习中,给定训练数据 D 时神经网络权重的后验分布 p(w | D),由权重的先验和似然通过贝叶斯定理得到;通常不可解析计算,需借助变分推断、MCMC 或拉普拉斯近似等方法进行近似。",
        term_es = "posterior sobre los pesos",
        term_zh = "权重后验",
        aliases_es = { "distribución posterior sobre los pesos", "posterior de los pesos", "posterior de los parámetros" },
        aliases_zh = { "权重后验分布", "参数后验", "权重的后验分布" },
    }
    
    data["weight prior"] = {
        short = "In Bayesian deep learning, the prior distribution placed on neural network weights, p(w), encoding beliefs before seeing data; common choices include isotropic Gaussian, scale-mixture, hierarchical, and structured priors aligned with desired functional properties.",
        article = nil,
        aliases = { "prior over weights", "prior distribution over weights", "parameter prior", "weight prior distribution" },
        es = "En el aprendizaje profundo bayesiano, la distribución a priori sobre los pesos de una red neuronal, p(w), que codifica las creencias antes de observar los datos; las elecciones habituales incluyen priores gaussianos isotrópicos, mezclas de escalas, priores jerárquicos y priores estructurados alineados con propiedades funcionales deseadas.",
        zh = "在贝叶斯深度学习中,对神经网络权重所设的先验分布 p(w),用于在观察数据之前编码先验信念;常见选择包括各向同性高斯先验、尺度混合先验、分层先验以及与期望函数性质对齐的结构化先验。",
        term_es = "prior sobre los pesos",
        term_zh = "权重先验",
        aliases_es = { "distribución a priori sobre los pesos", "a priori sobre los pesos", "prior de los parámetros" },
        aliases_zh = { "权重先验分布", "参数先验", "权重的先验分布" },
    }
    
    data["weight sample"] = {
        short = "A single draw of neural network weights w ~ q(w) from an approximate or exact posterior over parameters, used to form a Monte Carlo estimate of the predictive distribution in Bayesian deep learning or to instantiate one member of a deep ensemble.",
        article = nil,
        aliases = { "weight draw", "posterior weight sample", "parameter sample", "Monte Carlo weight sample" },
        es = "Una única realización de los pesos de una red neuronal w ~ q(w) extraída de una posterior aproximada o exacta sobre los parámetros, utilizada para construir una estimación Monte Carlo de la distribución predictiva en aprendizaje profundo bayesiano o para instanciar un miembro de un ensamble profundo.",
        zh = "在贝叶斯深度学习中,从近似或精确的参数后验分布 q(w) 中抽取的一组神经网络权重 w,用于通过蒙特卡洛方法估计预测分布,或作为深度集成中的一个成员。",
        term_es = "muestra de pesos",
        term_zh = "权重样本",
        aliases_es = { "muestra de pesos posterior", "realización de pesos", "muestra de parámetros" },
        aliases_zh = { "权重抽样", "参数样本", "蒙特卡洛权重样本" },
    }
    
    data["weight sharing"] = {
        short = "An efficient NAS strategy in which all candidate architectures are subnetworks of a single supernet whose weights are trained jointly, so each candidate can be evaluated by inheriting the supernet's parameters instead of training its own.",
        article = nil,
        aliases = { "parameter sharing", "supernet weight sharing", "weight-sharing NAS" },
        es = "Estrategia eficiente de NAS en la que todas las arquitecturas candidatas son subredes de un único supernet cuyos pesos se entrenan conjuntamente, de modo que cada candidato puede evaluarse heredando los parámetros del supernet en lugar de entrenar los suyos.",
        zh = "一种高效的NAS策略,所有候选架构都是同一个超网络的子网络,其权重联合训练,从而每个候选架构可直接继承超网参数进行评估,而无需单独训练。",
        term_es = "compartición de pesos",
        term_zh = "权重共享",
        aliases_es = { "compartición de parámetros", "weight sharing", "NAS con compartición de pesos" },
        aliases_zh = { "参数共享", "超网络权重共享", "权重共享NAS" },
    }
    
    data["weight transfer"] = {
        short = "Initializing a target model by copying or projecting weights from a related source model — for example, expanding a smaller pretrained network into a larger one — to skip or shorten training of the target.",
        article = nil,
        aliases = { "weight transfer initialization", "model weight transfer" },
        es = "Inicialización de un modelo objetivo copiando o proyectando pesos desde un modelo fuente relacionado — por ejemplo, expandiendo una red preentrenada más pequeña a una mayor — para omitir o acortar el entrenamiento del objetivo.",
        zh = "通过从相关源模型复制或投影权重来初始化目标模型——例如将较小的预训练网络扩展为更大的网络——以跳过或缩短目标模型的训练。",
        term_es = "transferencia de pesos",
        term_zh = "权重迁移",
        aliases_es = { "transferencia de parámetros", "inicialización por transferencia de pesos" },
        aliases_zh = { "权重转移", "参数迁移初始化" },
    }
    
    data["weight tying"] = {
        short = "A parameter-sharing technique in which two layers (commonly a transformer's input embedding and output projection) are forced to share the same weight matrix, reducing parameter count and often improving language-model perplexity.",
        article = nil,
        aliases = { "weight-tying", "tied weights", "embedding-output tying", "input-output tying" },
        es = "Técnica de compartición de parámetros en la que dos capas (habitualmente la incrustación de entrada y la proyección de salida de un transformer) se obligan a compartir la misma matriz de pesos, reduciendo el número de parámetros y mejorando con frecuencia la perplejidad del modelo de lenguaje.",
        zh = "一种参数共享技术,强制两层(通常是 Transformer 的输入嵌入和输出投影)共用同一权重矩阵,可减少参数量并常常改善语言模型的困惑度。",
        term_es = "compartición de pesos",
        term_zh = "权重绑定",
        aliases_es = { "weight tying", "pesos compartidos", "atado de pesos" },
        aliases_zh = { "weight tying", "权重共享 (绑定)", "嵌入-输出绑定" },
    }
    
    data["weight-only quantization"] = {
        short = "Quantization scheme in which only the model's weights are stored in low precision (e.g. int4 or int8) while activations remain in higher precision and dequantization happens just before each matrix multiply. Common for LLM inference where memory bandwidth, not compute, dominates.",
        article = nil,
        aliases = { "weight only quantization", "WOQ", "weight-only quant", "W4A16", "W8A16" },
        es = "Esquema de cuantización en el que solo los pesos del modelo se almacenan en baja precisión (por ejemplo int4 o int8), mientras las activaciones permanecen en precisión mayor y la decuantización se hace justo antes de cada multiplicación matricial. Habitual en inferencia de LLM, donde domina el ancho de banda de memoria, no el cómputo.",
        zh = "一种量化方案:仅将模型权重存储为低精度(如 int4 或 int8),激活仍保持高精度,并在每次矩阵乘法前进行反量化。常用于 LLM 推理,因为瓶颈在显存带宽而非计算。",
        term_es = "cuantización solo de pesos",
        term_zh = "仅权重量化",
        aliases_es = { "WOQ", "cuantización weight-only", "W4A16" },
        aliases_zh = { "WOQ", "权重量化", "W4A16", "W8A16" },
    }
    
    data["weighted federated averaging"] = {
        short = "A variant of FedAvg in which client model updates are aggregated as a weighted mean — typically weighted by the number of local examples or by importance scores — instead of a uniform average. Reduces bias from clients with very different dataset sizes.",
        article = nil,
        aliases = { "weighted FedAvg", "weighted federated mean", "data-weighted FedAvg" },
        es = "Variante de FedAvg en la que las actualizaciones de los clientes se agregan como una media ponderada, normalmente por el número de ejemplos locales o por puntuaciones de importancia, en lugar de un promedio uniforme. Reduce el sesgo debido a clientes con tamaños de conjunto de datos muy distintos.",
        zh = "FedAvg 的一种变体,客户端模型更新按加权平均进行聚合,权重通常取自本地样本数量或重要性分数,而非简单的均匀平均。可降低不同客户端数据集规模差异带来的偏差。",
        term_es = "promedio federado ponderado",
        term_zh = "加权联邦平均",
        aliases_es = { "FedAvg ponderado", "media federada ponderada" },
        aliases_zh = { "加权 FedAvg", "加权联邦均值" },
    }
    
    data["weighted importance sampling"] = {
        short = "A variance-reduced variant of importance sampling that normalizes the importance weights by their sum, producing a self-normalized estimator that is biased but consistent. Widely used in off-policy evaluation in reinforcement learning.",
        article = nil,
        aliases = { "WIS", "self-normalized importance sampling", "normalized importance sampling", "ratio importance sampling" },
        es = "Variante de muestreo por importancia con reducción de varianza que normaliza los pesos de importancia dividiéndolos por su suma, generando un estimador autonormalizado sesgado pero consistente. Se utiliza ampliamente en la evaluación fuera de política en aprendizaje por refuerzo.",
        zh = "重要性采样的方差缩减变体,将重要性权重除以其总和进行归一化,得到自归一化估计量,该估计量有偏但一致。在强化学习的离策略评估中广泛使用。",
        term_es = "muestreo por importancia ponderado",
        term_zh = "加权重要性采样",
        aliases_es = { "WIS", "muestreo por importancia autonormalizado", "muestreo por importancia normalizado", "muestreo por importancia tipo razón" },
        aliases_zh = { "WIS", "自归一化重要性采样", "归一化重要性采样", "比值重要性采样" },
    }
    
    data["weighted majority voting"] = {
        short = "An ensemble decision rule in which each predictor casts a vote with a weight proportional to its trustworthiness or estimated accuracy, and the class with the largest total weight wins. Underlies algorithms such as the Weighted Majority Algorithm and many boosting variants.",
        article = nil,
        aliases = { "Weighted Majority Algorithm", "WMA", "weighted vote", "weighted voting" },
        es = "Regla de decisión por conjunto en la que cada predictor emite un voto con un peso proporcional a su fiabilidad o precisión estimada, y gana la clase con mayor peso total. Fundamenta algoritmos como el Algoritmo de Mayoría Ponderada y muchas variantes de boosting.",
        zh = "一种集成决策规则:每个预测器投票时按其可信度或估计精度加权,总权重最大的类别获胜。它是加权多数算法(WMA)及众多 boosting 变体的基础。",
        term_es = "votación por mayoría ponderada",
        term_zh = "加权多数投票",
        aliases_es = { "WMA", "voto ponderado", "votación ponderada" },
        aliases_zh = { "WMA", "加权投票", "加权多数算法" },
    }
    
    data["weighted maxsat"] = {
        short = "An NP-hard optimization problem that, given a set of weighted Boolean clauses, seeks an assignment maximizing the total weight of satisfied clauses.",
        article = nil,
        aliases = { "Weighted MaxSAT", "Weighted Max-SAT", "weighted maximum satisfiability", "WMaxSAT" },
        es = "Problema de optimización NP-difícil en el que, dado un conjunto de cláusulas booleanas con pesos, se busca una asignación que maximice el peso total de las cláusulas satisfechas.",
        zh = "一种 NP 难的优化问题:给定一组带权重的布尔子句,寻找使被满足子句的总权重最大化的赋值。",
        term_es = "MaxSAT ponderado",
        term_zh = "加权 MaxSAT",
        aliases_es = { "Weighted MaxSAT", "MAX-SAT ponderado", "satisfacibilidad máxima ponderada" },
        aliases_zh = { "Weighted MaxSAT", "加权最大可满足性", "加权 Max-SAT" },
    }
    
    data["weighted median estimator"] = {
        short = "An instrumental-variable estimator, used primarily in Mendelian randomization, that returns the weighted median of variant-specific Wald ratios. It yields a consistent causal effect when at least 50% of the weight comes from valid instruments, providing robustness to some invalid instruments.",
        article = nil,
        aliases = { "weighted median", "WME", "weighted-median MR estimator", "weighted median Mendelian randomization" },
        es = "Estimador de variables instrumentales, usado principalmente en aleatorización mendeliana, que devuelve la mediana ponderada de los cocientes de Wald específicos por variante. Es consistente cuando al menos el 50% del peso proviene de instrumentos válidos, ofreciendo robustez frente a algunos instrumentos no válidos.",
        zh = "一种工具变量估计量,主要用于孟德尔随机化,返回各变异 Wald 比的加权中位数。当至少 50% 的权重来自有效工具时仍可一致地估计因果效应,对部分无效工具具有稳健性。",
        term_es = "estimador de mediana ponderada",
        term_zh = "加权中位数估计量",
        aliases_es = { "estimador WME", "mediana ponderada (aleatorización mendeliana)" },
        aliases_zh = { "加权中位数估计", "WME" },
    }
    
    data["weighted model counting"] = {
        short = "The problem of computing the sum of weights of satisfying assignments of a Boolean formula; underlies probabilistic inference in many neuro-symbolic and probabilistic-logic systems.",
        article = nil,
        aliases = { "WMC", "weighted model counting", "Weighted #SAT" },
        es = "Problema consistente en calcular la suma de los pesos de las asignaciones que satisfacen una fórmula booleana; sustenta la inferencia probabilística en muchos sistemas neurosimbólicos y de lógica probabilística.",
        zh = "计算布尔公式所有满足赋值的权重之和的问题;是许多神经符号系统和概率逻辑系统中概率推断的基础。",
        term_es = "conteo ponderado de modelos",
        term_zh = "加权模型计数",
        aliases_es = { "WMC", "weighted model counting" },
        aliases_zh = { "WMC", "加权 #SAT" },
    }
    
    data["welfare maximization"] = {
        short = "A policy learning objective that selects a treatment assignment rule to maximize the expected outcome (welfare) across a population, typically formulated as maximizing the value function of a policy under observational or experimental data.",
        article = nil,
        aliases = { "welfare maximisation", "policy welfare maximization", "expected welfare maximization", "value maximization (policy learning)" },
        es = "Objetivo de aprendizaje de políticas que selecciona una regla de asignación de tratamiento para maximizar el resultado esperado (bienestar) en una población, formulado típicamente como la maximización de la función de valor de una política con datos observacionales o experimentales.",
        zh = "一种策略学习目标,选取处理分配规则以最大化总体的期望结果(福利),通常表述为在观测或实验数据下最大化策略的价值函数。",
        term_es = "maximización del bienestar",
        term_zh = "福利最大化",
        aliases_es = { "maximización del bienestar esperado", "maximización de la utilidad de la política" },
        aliases_zh = { "期望福利最大化", "策略价值最大化" },
    }
    
    data["well-calibration"] = {
        short = "A fairness-relevant calibration property requiring that, within each protected group, the predicted probabilities match the empirical outcome frequencies at every probability level.",
        article = nil,
        aliases = { "well calibration", "group-wise calibration", "calibration within groups" },
        es = "Propiedad de calibración relevante para la equidad que exige que, dentro de cada grupo protegido, las probabilidades predichas coincidan con las frecuencias empíricas de los resultados en cada nivel de probabilidad.",
        zh = "一种与公平性相关的校准性质,要求在每个受保护群体内,各概率水平上的预测概率都与经验结果频率相匹配。",
        term_es = "buena calibración",
        term_zh = "良好校准",
        aliases_es = { "calibración por grupos", "calibración intra-grupo" },
        aliases_zh = { "组内校准", "良好校准性", "分组校准" },
    }
    
    data["wenet"] = {
        short = "An open-source production-oriented end-to-end automatic speech recognition toolkit that unifies streaming and non-streaming inference using a joint CTC and attention-based encoder-decoder.",
        article = nil,
        aliases = { "WeNet" },
        es = "Toolkit de reconocimiento automático de voz de extremo a extremo de código abierto orientado a producción que unifica inferencia en streaming y no streaming mediante un codificador-decodificador conjunto basado en CTC y atención.",
        zh = "一个面向生产的开源端到端自动语音识别工具包,通过 CTC 与基于注意力的编码器-解码器联合方案,统一支持流式和非流式推理。",
        term_es = "WeNet",
        term_zh = "WeNet",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["wenetspeech"] = {
        short = "A 10,000-hour multi-domain Mandarin Chinese speech corpus collected from YouTube and podcasts, with a confidence-graded labeling pipeline, used to benchmark large-scale Mandarin ASR.",
        article = nil,
        aliases = { "WenetSpeech" },
        es = "Corpus de voz en chino mandarín de 10 000 horas y múltiples dominios recopilado de YouTube y podcasts, con un proceso de etiquetado por niveles de confianza, utilizado para evaluar ASR a gran escala en mandarín.",
        zh = "一个 1 万小时、多领域的普通话语音语料库,采集自 YouTube 与播客,具有按置信度分级的标注流程,用于评测大规模普通话语音识别。",
        term_es = "WenetSpeech",
        term_zh = "WenetSpeech",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["wgcna"] = {
        short = "Weighted Gene Co-expression Network Analysis, a method that constructs a soft-thresholded correlation network of genes from expression data, identifies modules of co-expressed genes via hierarchical clustering, and relates them to phenotypes.",
        article = nil,
        aliases = { "WGCNA", "Weighted Gene Co-expression Network Analysis", "weighted co-expression network analysis" },
        es = "Análisis de redes de coexpresión génica ponderadas, método que construye una red de correlación con umbral suave a partir de datos de expresión, identifica módulos de genes coexpresados mediante agrupamiento jerárquico y los relaciona con fenotipos.",
        zh = "加权基因共表达网络分析,一种基于表达数据构建软阈值相关性网络的方法,通过层次聚类识别共表达基因模块,并将其与表型关联。",
        term_es = "WGCNA",
        term_zh = "WGCNA",
        aliases_es = { "análisis ponderado de redes de coexpresión génica" },
        aliases_zh = { "加权基因共表达网络分析" },
    }
    
    data["whisper"] = {
        short = "A multilingual encoder-decoder transformer for speech recognition and translation released by OpenAI, trained on 680,000 hours of weakly supervised audio from the web; robust to noise, accents, and code-switching.",
        article = nil,
        aliases = { "Whisper", "OpenAI Whisper" },
        es = "Transformer codificador-decodificador multilingüe para reconocimiento y traducción de voz publicado por OpenAI, entrenado con 680 000 horas de audio web débilmente supervisado; es robusto frente a ruido, acentos y cambio de código.",
        zh = "OpenAI 发布的用于语音识别与翻译的多语种编码器-解码器 Transformer,在 68 万小时弱监督网络音频上训练,对噪声、口音和语码转换具有较强鲁棒性。",
        term_es = "Whisper",
        term_zh = "Whisper",
        aliases_es = { "Whisper de OpenAI" },
        aliases_zh = { "OpenAI Whisper" },
    }
    
    data["whisper large"] = {
        short = "The largest variants of OpenAI's Whisper speech model (Large, Large-v2, Large-v3), with roughly 1.55 billion parameters, providing the highest accuracy across multilingual ASR and speech translation benchmarks.",
        article = nil,
        aliases = { "Whisper Large", "Whisper-large", "whisper-large-v2", "whisper-large-v3" },
        es = "Las variantes más grandes del modelo de voz Whisper de OpenAI (Large, Large-v2, Large-v3), con unos 1550 millones de parámetros, que ofrecen la mayor precisión en benchmarks multilingües de ASR y traducción de voz.",
        zh = "OpenAI Whisper 语音模型的最大版本(Large、Large-v2、Large-v3),参数量约 15.5 亿,在多语种语音识别和语音翻译基准上提供最高精度。",
        term_es = "Whisper Large",
        term_zh = "Whisper Large",
        aliases_es = { "whisper-large-v2", "whisper-large-v3" },
        aliases_zh = { "whisper-large-v2", "whisper-large-v3" },
    }
    
    data["whisper-cpp"] = {
        short = "A dependency-free C++ port of OpenAI's Whisper that runs the encoder-decoder transformer with quantized weights on CPU and Apple silicon, enabling efficient on-device speech recognition.",
        article = nil,
        aliases = { "whisper.cpp", "Whisper.cpp", "whispercpp" },
        es = "Port en C++ sin dependencias de Whisper de OpenAI que ejecuta el transformer codificador-decodificador con pesos cuantizados en CPU y Apple silicon, permitiendo reconocimiento de voz eficiente en el dispositivo.",
        zh = "OpenAI Whisper 的零依赖 C++ 移植版本,在 CPU 和 Apple Silicon 上以量化权重运行其编码器-解码器 Transformer,实现高效的设备端语音识别。",
        term_es = "whisper.cpp",
        term_zh = "whisper.cpp",
        aliases_es = { "whisper-cpp" },
        aliases_zh = { "whisper-cpp" },
    }
    
    data["whisperx"] = {
        short = "An extension of OpenAI's Whisper that adds accurate word-level timestamps and speaker diarization by aligning Whisper output with a phoneme-level forced-alignment model and clustering speaker embeddings.",
        article = nil,
        aliases = { "WhisperX" },
        es = "Extensión de Whisper de OpenAI que añade marcas de tiempo precisas a nivel de palabra y diarización de hablantes alineando la salida de Whisper con un modelo de alineamiento forzado a nivel de fonema y agrupando embeddings de hablante.",
        zh = "对 OpenAI Whisper 的扩展,通过将 Whisper 输出与音素级强制对齐模型对齐并对说话人嵌入聚类,提供精确的逐词时间戳和说话人分离功能。",
        term_es = "WhisperX",
        term_zh = "WhisperX",
        aliases_es = { },
        aliases_zh = { },
    }
    
    data["white-box model"] = {
        short = "A model whose internal structure and parameters are directly inspectable and interpretable, such as linear models, decision trees, or rule lists.",
        article = nil,
        aliases = { "white box model", "transparent model", "glass-box model" },
        es = "Modelo cuya estructura interna y cuyos parámetros son directamente inspeccionables e interpretables, como modelos lineales, árboles de decisión o listas de reglas.",
        zh = "内部结构与参数可直接检视并可解释的模型,例如线性模型、决策树或规则列表。",
        term_es = "modelo de caja blanca",
        term_zh = "白盒模型",
        aliases_es = { "modelo transparente", "modelo de caja de cristal" },
        aliases_zh = { "透明模型", "玻璃盒模型" },
    }
    
    data["whitened parameterization"] = {
        short = "A reparameterization in which model parameters are expressed in a basis where the prior (or some reference covariance) becomes the identity, decorrelating and standardizing them; used in Bayesian neural networks and Gaussian processes to improve sampler mixing and variational optimization.",
        article = nil,
        aliases = { "whitened parametrization", "whitening reparameterization", "whitened reparameterization", "whitened parameterisation" },
        es = "Reparametrización en la que los parámetros del modelo se expresan en una base donde el prior (o cierta covarianza de referencia) se convierte en la identidad, descorrelacionándolos y estandarizándolos; se usa en redes neuronales bayesianas y procesos gaussianos para mejorar la mezcla de muestreadores y la optimización variacional.",
        zh = "一种重参数化方式,将模型参数表示在某个基底下,使得先验(或某参考协方差)变为单位矩阵,从而对参数进行去相关和标准化;常用于贝叶斯神经网络和高斯过程,以改善采样器混合性和变分优化。",
        term_es = "parametrización blanqueada",
        term_zh = "白化参数化",
        aliases_es = { "reparametrización blanqueada", "parametrización con blanqueamiento" },
        aliases_zh = { "白化重参数化", "白化参数表示" },
    }
    
    data["whole genome sequencing"] = {
        short = "Sequencing of the entire genomic DNA of an organism, typically by short-read or long-read platforms, providing the most complete view of single-nucleotide variants, indels, and structural variants.",
        article = nil,
        aliases = { "WGS", "whole-genome sequencing", "complete genome sequencing" },
        es = "Secuenciación del ADN genómico completo de un organismo, habitualmente con plataformas de lecturas cortas o largas, que proporciona la visión más completa de variantes de un solo nucleótido, indeles y variantes estructurales.",
        zh = "对生物体全部基因组 DNA 的测序,通常使用短读长或长读长平台,可提供单核苷酸变异、插入缺失和结构变异的最完整视图。",
        term_es = "secuenciación del genoma completo",
        term_zh = "全基因组测序",
        aliases_es = { "WGS", "secuenciación de genoma completo" },
        aliases_zh = { "WGS", "全基因组测序(WGS)" },
    }
    
    data["width scaling"] = {
        short = "Scaling a neural network by increasing the number of channels or hidden units per layer; in compound-scaling rules such as EfficientNet's, width is scaled jointly with depth and resolution under a fixed compute budget.",
        article = nil,
        aliases = { "width scaling NAS", "channel width scaling", "model width scaling" },
        es = "Escalado de una red neuronal aumentando el número de canales o unidades ocultas por capa; en reglas de escalado compuesto como las de EfficientNet, el ancho se escala junto con la profundidad y la resolución bajo un presupuesto de cómputo fijo.",
        zh = "通过增加每层的通道数或隐藏单元数来缩放神经网络;在EfficientNet等复合缩放规则中,宽度与深度和分辨率在固定计算预算下共同缩放。",
        term_es = "escalado de ancho",
        term_zh = "宽度缩放",
        aliases_es = { "escalado de canales", "ampliación de ancho" },
        aliases_zh = { "通道宽度缩放", "模型宽度缩放" },
    }
    
    data["wiggle format"] = {
        short = "A text-based file format (.wig and the indexed binary bigWig) for representing continuous-valued data along genomic coordinates, used for coverage tracks, conservation scores, and signal tracks in genome browsers.",
        article = nil,
        aliases = { "WIG", "wig format", ".wig", "bigWig", "wiggle track" },
        es = "Formato de archivo basado en texto (.wig y la versión binaria indexada bigWig) para representar datos de valor continuo a lo largo de coordenadas genómicas, usado para pistas de cobertura, conservación y señal en navegadores genómicos.",
        zh = "一种基于文本的文件格式(.wig,及其索引的二进制版本 bigWig),用于沿基因组坐标表示连续值数据,常用于基因组浏览器中的覆盖度、保守性和信号轨道。",
        term_es = "formato wiggle",
        term_zh = "wiggle 格式",
        aliases_es = { "WIG", "formato WIG", "bigWig", "pista wiggle" },
        aliases_zh = { "WIG", "WIG 格式", "bigWig", "wiggle 轨道" },
    }
    
    data["wikidata"] = {
        short = "A free, collaboratively edited multilingual knowledge graph hosted by the Wikimedia Foundation, storing structured data as items with statements (property-value pairs) and powering Wikipedia infoboxes.",
        article = nil,
        aliases = { "Wikidata", "Wikidata KG", "Wikidata knowledge graph" },
        es = "Grafo de conocimiento multilingüe, libre y editable de forma colaborativa, alojado por la Fundación Wikimedia, que almacena datos estructurados como ítems con declaraciones (pares propiedad-valor) y nutre las infoboxes de Wikipedia.",
        zh = "由维基媒体基金会托管的免费、可协作编辑的多语言知识图谱,以条目和带属性-值对的陈述形式存储结构化数据,并为维基百科的信息框提供数据支持。",
        term_es = "Wikidata",
        term_zh = "Wikidata",
        aliases_es = { "grafo de conocimiento Wikidata" },
        aliases_zh = { "维基数据", "Wikidata 知识图谱" },
    }
    
    data["wikification"] = {
        short = "The task of linking mentions in text to their corresponding Wikipedia articles, a form of entity linking targeting Wikipedia as the knowledge base.",
        article = nil,
        aliases = { "wikification", "Wikipedia entity linking", "Wikipedia linking" },
        es = "Tarea de enlazar las menciones de un texto con sus correspondientes artículos de Wikipedia; es una forma de enlazado de entidades que toma Wikipedia como base de conocimiento.",
        zh = "将文本中的提及链接到对应维基百科条目的任务,是一种以维基百科为知识库的实体链接。",
        term_es = "wikificación",
        term_zh = "维基化",
        aliases_es = { "wikification", "enlazado a Wikipedia" },
        aliases_zh = { "Wikification", "维基百科实体链接" },
    }
    
    data["wildbench"] = {
        short = "An LLM evaluation benchmark from AI2 that scores chat models on real, in-the-wild user queries collected from chatbot logs, using rubric-based pairwise judging by stronger LLMs.",
        article = nil,
        aliases = { "WildBench", "Wild-Bench", "Wild Bench" },
        es = "Benchmark de evaluación de LLM de AI2 que puntúa modelos conversacionales con consultas reales de usuarios recopiladas de registros de chatbots, utilizando juicio por pares basado en rúbricas con LLM más potentes.",
        zh = "AI2 提出的 LLM 评测基准,使用从真实聊天机器人日志中收集的“野生”用户查询,由更强的 LLM 按评分细则进行成对评判,对对话模型打分。",
        term_es = "WildBench",
        term_zh = "WildBench",
        aliases_es = { "WildBench" },
        aliases_zh = { "WildBench" },
    }
    
    data["win rate"] = {
        short = "The fraction of pairwise comparisons in which a model's output is preferred over a baseline (by humans or an LLM judge); a common headline metric for instruction-following and preference evaluations.",
        article = nil,
        aliases = { "win-rate", "winrate", "win percentage", "preference win rate" },
        es = "Fracción de comparaciones por pares en las que la salida de un modelo es preferida sobre una referencia (por humanos o por un LLM juez); métrica habitual para evaluaciones de seguimiento de instrucciones y preferencias.",
        zh = "在成对比较中,某模型输出相对于基线被偏好(由人工或 LLM 裁判判定)的比例;常作为指令遵循与偏好评估的核心指标。",
        term_es = "tasa de victorias",
        term_zh = "胜率",
        aliases_es = { "win rate", "porcentaje de victorias", "tasa de preferencia" },
        aliases_zh = { "win rate", "胜出率", "偏好胜率" },
    }
    
    data["windowing function"] = {
        short = "A weighting function such as Hann, Hamming, or Blackman applied to a frame of a signal before a discrete Fourier transform, reducing spectral leakage by tapering the frame edges to zero.",
        article = nil,
        aliases = { "window function", "analysis window", "Hann window", "Hamming window", "tapering window" },
        es = "Función de ponderación como Hann, Hamming o Blackman que se aplica a un fragmento de señal antes de la transformada discreta de Fourier, reduciendo el escape espectral al atenuar los bordes del fragmento hasta cero.",
        zh = "在离散傅里叶变换前应用于信号帧的加权函数(如 Hann、Hamming、Blackman 窗),通过将帧两端衰减为零来减少频谱泄漏。",
        term_es = "función de ventana",
        term_zh = "窗函数",
        aliases_es = { "ventana de análisis", "ventana de Hann", "ventana de Hamming" },
        aliases_zh = { "窗口函数", "汉宁窗", "汉明窗", "分析窗" },
    }
    
    data["winobias"] = {
        short = "A coreference-resolution benchmark (Zhao et al., 2018) that probes gender bias by pairing sentences in which pronouns refer to occupations stereotypically associated with male or female workers.",
        article = nil,
        aliases = { "WinoBias", "Wino-Bias" },
        es = "Conjunto de evaluación de resolución de correferencia (Zhao et al., 2018) que mide el sesgo de género emparejando oraciones donde los pronombres se refieren a ocupaciones asociadas estereotípicamente a hombres o mujeres.",
        zh = "Zhao 等人(2018)提出的共指消解基准,通过让代词指代刻板印象上偏向男性或女性的职业,来检测性别偏见。",
        term_es = "WinoBias",
        term_zh = "WinoBias",
        aliases_es = { "WinoBias" },
        aliases_zh = { "WinoBias 基准", "WinoBias 数据集" },
    }
    
    data["winogender"] = {
        short = "A coreference benchmark (Rudinger et al., 2018) of Winograd-style sentences with paired gendered pronouns and occupations, used to detect gender bias in coreference systems.",
        article = nil,
        aliases = { "WinoGender", "Wino-Gender" },
        es = "Banco de pruebas de correferencia (Rudinger et al., 2018) con oraciones de estilo Winograd que emparejan pronombres de género y ocupaciones, usado para detectar sesgo de género en sistemas de correferencia.",
        zh = "Rudinger 等人(2018)提出的共指基准,采用 Winograd 式句子并配对带性别的代词与职业,用于检测共指系统中的性别偏见。",
        term_es = "WinoGender",
        term_zh = "WinoGender",
        aliases_es = { "WinoGender" },
        aliases_zh = { "WinoGender 基准", "WinoGender 数据集" },
    }
    
    data["winogrande"] = {
        short = "A large-scale (44k example) commonsense reasoning benchmark that extends the Winograd Schema Challenge with adversarial filtering to remove dataset artifacts. Pronoun resolution problems require physical and social commonsense.",
        article = nil,
        aliases = { "WinoGrande", "Wino-Grande", "Winogrande benchmark" },
        es = "Benchmark de razonamiento de sentido común a gran escala (44k ejemplos) que extiende el Winograd Schema Challenge con filtrado adversarial para eliminar artefactos del conjunto de datos. Los problemas de resolución de pronombres requieren sentido común físico y social.",
        zh = "一个大规模(约 4.4 万条)常识推理基准,在 Winograd Schema Challenge 之上加入对抗式筛选以去除数据集偏差。其代词消解题目需要物理与社会常识。",
        term_es = "WinoGrande",
        term_zh = "WinoGrande",
        aliases_es = { "WinoGrande" },
        aliases_zh = { "WinoGrande" },
    }
    
    data["wit dataset"] = {
        short = "Wikipedia-based Image Text dataset; a large multilingual collection of image-caption pairs extracted from Wikipedia articles, spanning over 100 languages and used for multimodal and multilingual pretraining.",
        article = nil,
        aliases = { "WIT", "WIT dataset", "Wikipedia-based Image Text", "Wikipedia Image Text dataset" },
        es = "Conjunto de datos Wikipedia-based Image Text; una gran colección multilingüe de pares imagen-descripción extraídos de artículos de Wikipedia, que abarca más de 100 idiomas y se utiliza para preentrenamiento multimodal y multilingüe.",
        zh = "基于维基百科的图文数据集(WIT);一个从维基百科条目中提取的大规模多语种图像-描述配对集合,覆盖 100 多种语言,用于多模态和多语种预训练。",
        term_es = "WIT",
        term_zh = "WIT",
        aliases_es = { "WIT", "conjunto de datos WIT", "Wikipedia-based Image Text" },
        aliases_zh = { "WIT", "WIT 数据集", "维基百科图文数据集" },
    }
    
    data["wizardcoder"] = {
        short = "Family of code LLMs (Microsoft, 2023) fine-tuned from StarCoder and Code Llama with the Evol-Instruct method on synthesized, progressively harder coding instructions. Achieved state-of-the-art HumanEval scores among open models at release.",
        article = nil,
        aliases = { "WizardCoder", "WizardCoder-15B", "WizardCoder-Python" },
        es = "Familia de LLM de código (Microsoft, 2023) ajustados a partir de StarCoder y Code Llama con el método Evol-Instruct sobre instrucciones de programación sintetizadas y progresivamente más difíciles. Alcanzó puntuaciones HumanEval punteras entre los modelos abiertos en su lanzamiento.",
        zh = "一系列代码 LLM(微软,2023),基于 StarCoder 和 Code Llama,通过 Evol-Instruct 方法在合成且难度递增的编程指令上微调。发布时在开放模型中取得了 HumanEval 的最佳成绩。",
        term_es = "WizardCoder",
        term_zh = "WizardCoder",
        aliases_es = { "WizardCoder", "WizardCoder-15B" },
        aliases_zh = { "WizardCoder", "WizardCoder-15B" },
    }
    
    data["wizardlm"] = {
        short = "Instruction-tuned LLM family (Microsoft, 2023) trained with Evol-Instruct, a method that uses an LLM to evolve seed instructions into broader and more complex variants. Released as WizardLM and WizardLM-2 fine-tunes of LLaMA and Mixtral.",
        article = nil,
        aliases = { "WizardLM", "WizardLM-2", "WizardLM 2", "Evol-Instruct WizardLM" },
        es = "Familia de LLM ajustados con instrucciones (Microsoft, 2023) entrenados con Evol-Instruct, un método que usa un LLM para hacer evolucionar instrucciones semilla en variantes más amplias y complejas. Publicada como WizardLM y WizardLM-2, ajustes finos de LLaMA y Mixtral.",
        zh = "一系列指令微调的 LLM(微软,2023),使用 Evol-Instruct 方法训练——该方法借助 LLM 把种子指令演化为更广泛、更复杂的变体。发布的版本包括基于 LLaMA 与 Mixtral 微调的 WizardLM 与 WizardLM-2。",
        term_es = "WizardLM",
        term_zh = "WizardLM",
        aliases_es = { "WizardLM", "WizardLM-2" },
        aliases_zh = { "WizardLM", "WizardLM-2" },
    }
    
    data["wn18"] = {
        short = "A knowledge-graph completion benchmark consisting of a subset of WordNet with 18 relations and 40,943 entities; later shown to suffer from inverse-relation test leakage, motivating WN18RR.",
        article = nil,
        aliases = { "WN18", "WordNet-18", "WN-18" },
        es = "Conjunto de evaluación para completado de grafos de conocimiento formado por un subconjunto de WordNet con 18 relaciones y 40 943 entidades; posteriormente se demostró que sufría de fuga por relaciones inversas, lo que motivó la creación de WN18RR.",
        zh = "一个用于知识图谱补全评测的基准,由 WordNet 的子集构成,包含 18 种关系与 40 943 个实体;后被发现存在逆关系导致的测试泄漏,从而促成了 WN18RR 的提出。",
        term_es = "WN18",
        term_zh = "WN18",
        aliases_es = { "WordNet-18", "WN-18" },
        aliases_zh = { "WN-18", "WordNet-18" },
    }
    
    data["wn18rr"] = {
        short = "A revised version of WN18 that removes inverse-relation pairs from the test set, providing a harder and more realistic benchmark for knowledge-graph link prediction.",
        article = nil,
        aliases = { "WN18RR", "WN18-RR", "WordNet18RR" },
        es = "Versión revisada de WN18 que elimina los pares de relaciones inversas del conjunto de test, ofreciendo una evaluación más difícil y realista de la predicción de enlaces en grafos de conocimiento.",
        zh = "WN18 的修订版本,从测试集中剔除了逆关系对,为知识图谱链接预测提供了更困难、更现实的基准。",
        term_es = "WN18RR",
        term_zh = "WN18RR",
        aliases_es = { "WN18-RR" },
        aliases_zh = { "WN18-RR", "WordNet18RR" },
    }
    
    data["word embedding"] = {
        short = "A dense, low-dimensional vector representation of a word in which semantically similar words are mapped to nearby points, typically learned from co-occurrence statistics in large text corpora.",
        article = "Word Embeddings",
        aliases = { "word embeddings", "word vector", "word vectors", "distributed word representation" },
        es = "Representación vectorial densa y de baja dimensión de una palabra en la que las palabras semánticamente similares se asignan a puntos cercanos, típicamente aprendida a partir de estadísticas de coocurrencia en grandes corpus de texto.",
        zh = "词的稠密低维向量表示,语义相近的词被映射到邻近的点,通常通过大规模文本语料中的共现统计学习得到。",
        term_es = "embedding de palabras",
        term_zh = "词嵌入",
        aliases_es = { "vector de palabras", "representación vectorial de palabras", "word embedding" },
        aliases_zh = { "词向量", "词嵌入向量", "word embedding" },
    }
    
    data["word embedding association test"] = {
        short = "WEAT (Caliskan et al., 2017): a statistical test for bias in word embeddings, modeled on the Implicit Association Test, that compares mean cosine similarities between target-word sets and attribute-word sets.",
        article = nil,
        aliases = { "WEAT", "weat", "WEAT test" },
        es = "WEAT (Caliskan et al., 2017): prueba estadística de sesgo en embeddings de palabras, inspirada en el Test de Asociación Implícita, que compara las similitudes coseno medias entre conjuntos de palabras objetivo y de atributo.",
        zh = "WEAT(Caliskan 等人,2017):仿照内隐联想测验设计的词嵌入偏见统计测试,通过比较目标词集合与属性词集合间的平均余弦相似度来度量偏见。",
        term_es = "Test de Asociación de Embeddings de Palabras",
        term_zh = "词嵌入关联测试",
        aliases_es = { "WEAT", "Word Embedding Association Test", "prueba de asociación de embeddings", "prueba WEAT" },
        aliases_zh = { "WEAT", "WEAT 测试", "词向量关联测试" },
    }
    
    data["word error rate"] = {
        short = "The standard metric for automatic speech recognition accuracy, computed as the sum of substitutions, deletions, and insertions divided by the number of reference words, expressed as a percentage.",
        article = nil,
        aliases = { "WER", "Word Error Rate", "word-error rate" },
        es = "Métrica estándar de precisión en reconocimiento automático de voz, calculada como la suma de sustituciones, eliminaciones e inserciones dividida entre el número de palabras de referencia, expresada como porcentaje.",
        zh = "自动语音识别准确度的标准指标,定义为替换、删除和插入次数之和除以参考词数,通常以百分比表示。",
        term_es = "tasa de error de palabras",
        term_zh = "词错误率",
        aliases_es = { "WER", "Word Error Rate", "tasa de error por palabra" },
        aliases_zh = { "WER", "字错率(词级)", "单词错误率" },
    }
    
    data["word sense disambiguation"] = {
        short = "An NLP task that determines which sense of a polysemous word is intended in a given context, typically by selecting from a sense inventory such as WordNet.",
        article = nil,
        aliases = { "WSD", "Word Sense Disambiguation", "sense disambiguation", "word-sense disambiguation" },
        es = "Tarea de PLN que determina cuál de los sentidos de una palabra polisémica se utiliza en un contexto dado, típicamente eligiendo de un inventario de sentidos como WordNet.",
        zh = "一项自然语言处理任务,判断在给定上下文中多义词所采用的具体义项,通常从 WordNet 等义项库中选择。",
        term_es = "desambiguación del sentido de las palabras",
        term_zh = "词义消歧",
        aliases_es = { "WSD", "word sense disambiguation", "desambiguación léxica", "desambiguación de sentido" },
        aliases_zh = { "WSD", "word sense disambiguation", "词义消歧任务", "义项消歧" },
    }
    
    data["word-level attribution"] = {
        short = "Attribution computed at the granularity of whole words rather than subword tokens or characters, often by aggregating token-level scores back to word boundaries.",
        article = nil,
        aliases = { "word attribution", "word-level importance" },
        es = "Atribución calculada con granularidad de palabras completas en lugar de subtokens o caracteres, normalmente agregando las puntuaciones a nivel de token a los límites de palabra.",
        zh = "在完整单词粒度而非子词 token 或字符粒度上计算的归因,通常通过将 token 级得分聚合到单词边界得到。",
        term_es = "atribución a nivel de palabra",
        term_zh = "词级归因",
        aliases_es = { "atribución por palabra", "importancia a nivel de palabra" },
        aliases_zh = { "单词级归因", "词级重要性" },
    }
    
    data["word2vec"] = {
        short = "A family of shallow neural models (CBOW and skip-gram) introduced by Mikolov et al. that learn dense word embeddings by predicting a word from its context or vice versa over a sliding window in a large corpus.",
        article = nil,
        aliases = { "Word2Vec", "Word2vec", "word-to-vec", "Mikolov word2vec" },
        es = "Familia de modelos neuronales superficiales (CBOW y skip-gram) introducida por Mikolov et al. que aprenden embeddings de palabras densos prediciendo una palabra a partir de su contexto o viceversa mediante una ventana deslizante en un gran corpus.",
        zh = "由 Mikolov 等人提出的浅层神经模型家族(CBOW 与 skip-gram),通过在大型语料中以滑动窗口由上下文预测词或由词预测上下文来学习稠密词嵌入。",
        term_es = "word2vec",
        term_zh = "word2vec",
        aliases_es = { "Word2Vec", "Word2vec" },
        aliases_zh = { "Word2Vec", "word2vec 模型" },
    }
    
    data["wordnet"] = {
        short = "A large lexical database of English in which nouns, verbs, adjectives, and adverbs are grouped into sets of synonyms (synsets) connected by semantic relations such as hypernymy and meronymy.",
        article = nil,
        aliases = { "WordNet", "Princeton WordNet", "WordNet lexical database" },
        es = "Gran base de datos léxica del inglés en la que los sustantivos, verbos, adjetivos y adverbios se agrupan en conjuntos de sinónimos (synsets) conectados por relaciones semánticas como hiperonimia y meronimia.",
        zh = "一个大型英语词汇数据库,将名词、动词、形容词和副词组织为同义词集合(synset),并通过上下位、整体-部分等语义关系相互连接。",
        term_es = "WordNet",
        term_zh = "WordNet",
        aliases_es = { "WordNet de Princeton", "base léxica WordNet" },
        aliases_zh = { "WordNet 词库", "普林斯顿 WordNet" },
    }
    
    data["wordpiece"] = {
        short = "A subword tokenization algorithm that greedily builds a vocabulary by merging symbol pairs that maximize the likelihood of the training corpus under a unigram language model. Used in BERT and related models.",
        article = nil,
        aliases = { "WordPiece", "Word Piece", "wordpiece tokenizer", "WordPiece tokenization" },
        es = "Algoritmo de tokenización en subpalabras que construye de forma voraz un vocabulario fusionando pares de símbolos que maximizan la verosimilitud del corpus de entrenamiento bajo un modelo de lenguaje unigrama. Utilizado en BERT y modelos relacionados.",
        zh = "一种子词分词算法,通过贪心地合并能在单字语言模型下最大化训练语料似然的符号对来构建词表。BERT 等模型采用该方法。",
        term_es = "WordPiece",
        term_zh = "WordPiece",
        aliases_es = { "WordPiece", "tokenizador WordPiece" },
        aliases_zh = { "WordPiece", "WordPiece 分词" },
    }
    
    data["worker node"] = {
        short = "A compute node in a distributed training system that executes assigned local computation — typically forward and backward passes on a data shard — and communicates gradients or parameters with a parameter server or peer workers.",
        article = nil,
        aliases = { "worker", "compute worker", "training worker", "worker process" },
        es = "Nodo de cómputo en un sistema de entrenamiento distribuido que ejecuta el cálculo local asignado, normalmente las pasadas hacia adelante y hacia atrás sobre una partición de los datos, y comunica gradientes o parámetros con un servidor de parámetros o con otros nodos.",
        zh = "分布式训练系统中的计算节点,负责执行分配给它的本地计算——通常是某一数据分片上的前向和反向传播,并与参数服务器或对等工作节点交换梯度或参数。",
        term_es = "nodo trabajador",
        term_zh = "工作节点",
        aliases_es = { "trabajador", "nodo de trabajo", "proceso trabajador" },
        aliases_zh = { "worker", "训练节点", "计算工作节点" },
    }
    
    data["world model"] = {
        short = "A learned generative model of an environment's dynamics that predicts next observations and rewards from current state and action, enabling agents to plan, imagine, or train policies inside the model rather than the real environment.",
        article = nil,
        aliases = { "world models", "learned world model", "environment model", "dynamics model" },
        es = "Modelo generativo aprendido de la dinámica de un entorno que predice las siguientes observaciones y recompensas a partir del estado y la acción actuales, permitiendo a los agentes planificar, imaginar o entrenar políticas dentro del modelo en lugar de en el entorno real.",
        zh = "一种习得的环境动力学生成模型,根据当前状态与动作预测下一观测和奖励,使智能体能够在模型内部进行规划、想象或训练策略,而无需直接与真实环境交互。",
        term_es = "modelo del mundo",
        term_zh = "世界模型",
        aliases_es = { "modelos del mundo", "modelo de dinámica", "modelo del entorno" },
        aliases_zh = { "环境模型", "动力学模型", "world model" },
    }
    
    data["world vocoder"] = {
        short = "A high-quality classical signal-processing vocoder by Morise et al. that decomposes speech into F0 contour, spectral envelope, and aperiodicity, widely used as a baseline in neural TTS research.",
        article = nil,
        aliases = { "WORLD", "WORLD vocoder", "Morise WORLD" },
        es = "Vocoder clásico de procesamiento de señal de alta calidad propuesto por Morise et al., que descompone la voz en contorno de F0, envolvente espectral y aperiodicidad; ampliamente utilizado como referencia en investigación de TTS neuronal.",
        zh = "Morise 等人提出的高质量经典信号处理声码器,将语音分解为基频曲线、频谱包络和非周期性成分,在神经语音合成研究中常作为基线。",
        term_es = "WORLD vocoder",
        term_zh = "WORLD 声码器",
        aliases_es = { "WORLD", "vocoder WORLD", "vocóder WORLD" },
        aliases_zh = { "WORLD", "WORLD vocoder", "WORLD 声学声码器" },
    }
    
    data["worst-case fairness"] = {
        short = "A fairness paradigm that optimizes a model's performance or constraint on the worst-off subgroup, in contrast to average-case metrics across groups.",
        article = nil,
        aliases = { "worst case fairness", "minimax fairness", "Rawlsian fairness" },
        es = "Paradigma de equidad que optimiza el rendimiento o las restricciones del modelo sobre el subgrupo en peor situación, en lugar de métricas promedio entre grupos.",
        zh = "一种公平性范式,关注并优化模型在最差子群体上的表现或约束,而非各群体的平均指标。",
        term_es = "equidad en el peor caso",
        term_zh = "最坏情况公平性",
        aliases_es = { "equidad minimax", "equidad rawlsiana", "equidad en el peor de los casos" },
        aliases_zh = { "极小极大公平性", "罗尔斯式公平性", "最差情形公平性" },
    }
    
    data["worst-group accuracy"] = {
        short = "The classification accuracy on the lowest-performing demographic or distributional subgroup; a key metric in distributionally robust optimization and group-fairness evaluation.",
        article = nil,
        aliases = { "worst group accuracy", "min-group accuracy", "minimum group accuracy" },
        es = "Precisión de clasificación sobre el subgrupo demográfico o distribucional con peor rendimiento; métrica clave en optimización distribucionalmente robusta y en evaluación de equidad grupal.",
        zh = "在表现最差的人口或分布子群体上的分类准确率;分布鲁棒优化和群体公平性评估中的关键指标。",
        term_es = "precisión del peor grupo",
        term_zh = "最差群体准确率",
        aliases_es = { "exactitud del peor grupo", "precisión mínima por grupo" },
        aliases_zh = { "最差子群准确率", "最低群体准确率" },
    }
    
    data["worst-group loss"] = {
        short = "The maximum loss attained over all subgroups; minimized in distributionally robust optimization (e.g. Group DRO) to bound performance on the worst-off group.",
        article = nil,
        aliases = { "worst group loss", "max-group loss", "maximum group loss" },
        es = "Pérdida máxima alcanzada sobre todos los subgrupos; se minimiza en optimización distribucionalmente robusta (p. ej. Group DRO) para acotar el rendimiento del grupo más perjudicado.",
        zh = "在所有子群体上取得的最大损失;在分布鲁棒优化(如 Group DRO)中通过最小化此损失来约束最差群体的表现。",
        term_es = "pérdida del peor grupo",
        term_zh = "最差群体损失",
        aliases_es = { "pérdida máxima por grupo", "pérdida máxima entre grupos" },
        aliases_zh = { "最差子群损失", "最大群体损失" },
    }
    
    data["wsj corpus"] = {
        short = "The Wall Street Journal speech corpus, a read-speech dataset of news text recordings (WSJ0 and WSJ1) released by LDC in the 1990s, long used as a benchmark for English ASR.",
        article = nil,
        aliases = { "WSJ", "Wall Street Journal corpus", "WSJ0", "WSJ1", "WSJ-0", "WSJ-1" },
        es = "Corpus de voz del Wall Street Journal, un conjunto de grabaciones de lectura de textos de noticias (WSJ0 y WSJ1) publicado por LDC en los años 90; ha sido durante mucho tiempo una referencia en reconocimiento de voz en inglés.",
        zh = "华尔街日报语音语料库,由 LDC 于 1990 年代发布的新闻朗读语音数据集(包含 WSJ0 与 WSJ1),长期作为英语语音识别的基准。",
        term_es = "corpus WSJ",
        term_zh = "WSJ 语料库",
        aliases_es = { "WSJ", "corpus Wall Street Journal", "WSJ0", "WSJ1" },
        aliases_zh = { "WSJ", "华尔街日报语料库", "WSJ0", "WSJ1" },
    }
    
    data["x-chromosome inactivation"] = {
        short = "An epigenetic process in mammalian female cells in which one of the two X chromosomes is transcriptionally silenced—initiated by the long non-coding RNA Xist—to equalize X-linked gene dosage between sexes.",
        article = nil,
        aliases = { "XCI", "Lyonization", "X inactivation", "X-inactivation" },
        es = "Proceso epigenético en células femeninas de mamíferos por el cual uno de los dos cromosomas X se silencia transcripcionalmente —iniciado por el ARN largo no codificante Xist— para igualar la dosis de genes ligados al X entre sexos.",
        zh = "哺乳动物雌性细胞中,一条 X 染色体在转录上被沉默的表观遗传过程——由长非编码 RNA Xist 启动——用于平衡两性间 X 连锁基因的剂量。",
        term_es = "inactivación del cromosoma X",
        term_zh = "X 染色体失活",
        aliases_es = { "XCI", "lionización", "inactivación X" },
        aliases_zh = { "XCI", "X 失活", "莱昂化" },
    }
    
    data["x-learner"] = {
        short = "A meta-learner for estimating heterogeneous treatment effects that imputes individual treatment effects using outcome models fit separately on treated and control units, then combines the resulting effect estimators with a propensity-score weighting. Particularly effective when treatment groups are unbalanced.",
        article = nil,
        aliases = { "X-learner", "X learner", "Künzel X-learner", "cross-learner" },
        es = "Meta-aprendiz para estimar efectos de tratamiento heterogéneos que imputa efectos individuales usando modelos de resultado ajustados por separado en tratados y controles, y combina los estimadores resultantes con una ponderación por puntaje de propensión. Especialmente efectivo cuando los grupos de tratamiento están desbalanceados.",
        zh = "一种用于估计异质处理效应的元学习器,分别在处理组和对照组拟合结果模型以推算个体处理效应,再用倾向得分加权将所得估计组合起来。在处理组规模不均衡时尤为有效。",
        term_es = "X-learner",
        term_zh = "X-learner",
        aliases_es = { "meta-aprendiz X", "X learner" },
        aliases_zh = { "X 学习器", "交叉学习器" },
    }
    
    data["x-vector"] = {
        short = "A fixed-dimensional speaker embedding produced by a TDNN trained for speaker classification, where the segment-level statistics-pooling layer's output is projected to a discriminative speaker representation.",
        article = nil,
        aliases = { "x-vectors", "xvector", "xvectors", "X-vector" },
        es = "Embedding de hablante de dimensión fija producido por una TDNN entrenada para clasificación de hablantes, donde la salida de la capa de agrupamiento estadístico a nivel de segmento se proyecta a una representación discriminativa del hablante.",
        zh = "由用于说话人分类的 TDNN 生成的固定维度说话人嵌入,将段级统计池化层的输出投影为具区分力的说话人表示。",
        term_es = "x-vector",
        term_zh = "x-vector",
        aliases_es = { "x-vectors", "xvector", "vector x" },
        aliases_zh = { "x-vector", "x 向量", "xvector" },
    }
    
    data["xai benchmark"] = {
        short = "A standardized dataset, task suite, or evaluation protocol for comparing explainable AI methods on properties such as faithfulness, robustness, and human utility.",
        article = nil,
        aliases = { "XAI benchmark", "explainability benchmark", "explainable AI benchmark" },
        es = "Conjunto de datos, batería de tareas o protocolo de evaluación estandarizado para comparar métodos de IA explicable en propiedades como fidelidad, robustez y utilidad para humanos.",
        zh = "用于比较可解释 AI 方法的标准化数据集、任务套件或评估协议,关注忠实度、鲁棒性和对人类的实用性等属性。",
        term_es = "benchmark de XAI",
        term_zh = "XAI 基准",
        aliases_es = { "benchmark de explicabilidad", "banco de pruebas de IA explicable" },
        aliases_zh = { "可解释性基准", "可解释 AI 基准" },
    }
    
    data["xavier initialization"] = {
        short = "Weight initialization scheme that draws weights from a distribution with variance 1 / fan_in (or 2 / (fan_in + fan_out)). Designed for tanh/sigmoid networks to keep activation variance roughly constant across layers.",
        article = nil,
        aliases = { "Xavier init", "Xavier initialisation", "Glorot initialization", "Glorot init", "Glorot initialisation", "Xavier-Glorot initialization" },
        es = "Esquema de inicialización de pesos que muestrea desde una distribución con varianza 1 / fan_in (o 2 / (fan_in + fan_out)). Diseñado para redes con tanh/sigmoide para mantener aproximadamente constante la varianza de las activaciones entre capas.",
        zh = "一种权重初始化方法,从方差为 1 / fan_in(或 2 / (fan_in + fan_out))的分布中采样。针对 tanh/Sigmoid 网络设计,可在各层间保持激活方差大致恒定。",
        term_es = "inicialización de Xavier",
        term_zh = "Xavier 初始化",
        aliases_es = { "inicialización Xavier", "inicialización de Glorot", "inicialización Xavier-Glorot" },
        aliases_zh = { "Xavier 初始化", "Glorot 初始化", "Xavier-Glorot 初始化" },
    }
    
    data["xenium"] = {
        short = "A 10x Genomics in situ spatial transcriptomics platform that uses padlock probes and rolling-circle amplification to image hundreds of pre-selected transcripts at subcellular resolution in tissue sections.",
        article = nil,
        aliases = { "Xenium", "10x Xenium", "Xenium In Situ" },
        es = "Plataforma de transcriptómica espacial in situ de 10x Genomics que utiliza sondas tipo padlock y amplificación por círculo rodante para visualizar cientos de transcritos preseleccionados con resolución subcelular en secciones de tejido.",
        zh = "10x Genomics 推出的原位空间转录组学平台,利用挂锁探针和滚环扩增技术,在组织切片中以亚细胞分辨率成像数百种预先选定的转录本。",
        term_es = "Xenium",
        term_zh = "Xenium",
        aliases_es = { "10x Xenium", "Xenium In Situ" },
        aliases_zh = { "10x Xenium", "Xenium 原位" },
    }
    
    data["xgnn"] = {
        short = "A model-level explainability method for graph neural networks that generates class-discriminative graph patterns (subgraphs) by training a graph generator with reinforcement learning to reveal what input structures the GNN associates with a target prediction.",
        article = nil,
        aliases = { "XGNN", "explainable GNN", "model-level GNN explainer" },
        es = "Método de explicabilidad a nivel de modelo para redes neuronales de grafos que genera patrones de grafo discriminativos por clase mediante un generador entrenado con aprendizaje por refuerzo, revelando qué estructuras de entrada asocia la GNN a una predicción.",
        zh = "一种面向图神经网络的模型级可解释性方法,通过强化学习训练图生成器,生成对目标类别具有判别性的子图模式,揭示 GNN 将哪些输入结构与某一预测相关联。",
        term_es = "XGNN",
        term_zh = "XGNN",
        aliases_es = { "XGNN", "explicador de GNN a nivel de modelo" },
        aliases_zh = { "XGNN", "图神经网络模型级解释" },
    }
    
    data["xgrad-cam"] = {
        short = "An axiomatic refinement of Grad-CAM that derives convolutional feature-map weights from the requirements of sensitivity and conservation, producing class-activation maps with stronger theoretical grounding for CNN explanations.",
        article = nil,
        aliases = { "XGrad-CAM", "XGradCAM", "Axiom-based Grad-CAM", "axiomatic Grad-CAM" },
        es = "Refinamiento axiomático de Grad-CAM que deriva los pesos de los mapas de características convolucionales a partir de las propiedades de sensibilidad y conservación, produciendo mapas de activación por clase con mejor fundamento teórico.",
        zh = "Grad-CAM 的公理化改进版本,从敏感性和守恒性两条公理出发推导卷积特征图的权重,得到具有更强理论依据的类激活图。",
        term_es = "XGrad-CAM",
        term_zh = "XGrad-CAM",
        aliases_es = { "XGrad-CAM", "Grad-CAM axiomático" },
        aliases_zh = { "XGrad-CAM", "公理化 Grad-CAM" },
    }
    
    data["xgrammar"] = {
        short = "An open-source library for fast structured generation from large language models, enforcing context-free grammars or JSON schemas via a token-level mask computed from a compressed pushdown automaton.",
        article = nil,
        aliases = { "XGrammar" },
        es = "Biblioteca de código abierto para generación estructurada eficiente de modelos de lenguaje grandes, que impone gramáticas libres de contexto o esquemas JSON mediante una máscara a nivel de token calculada con un autómata de pila comprimido.",
        zh = "一个用于大语言模型高效结构化生成的开源库,通过基于压缩下推自动机计算的词元级掩码来强制执行上下文无关文法或 JSON 模式。",
        term_es = "XGrammar",
        term_zh = "XGrammar",
        aliases_es = { "XGrammar" },
        aliases_zh = { "XGrammar" },
    }
    
    data["xls-r"] = {
        short = "A self-supervised cross-lingual speech representation model from Meta AI, scaling wav2vec 2.0 pretraining to 128 languages and up to 2 billion parameters for multilingual speech tasks.",
        article = nil,
        aliases = { "XLS-R", "XLSR", "wav2vec XLS-R", "Meta XLS-R" },
        es = "Modelo autosupervisado de representaciones de voz multilingües de Meta AI, que escala el preentrenamiento de wav2vec 2.0 a 128 idiomas y hasta 2 mil millones de parámetros para tareas de voz multilingüe.",
        zh = "Meta AI 提出的自监督跨语言语音表示模型,将 wav2vec 2.0 预训练扩展到 128 种语言、最多 20 亿参数,用于多语言语音任务。",
        term_es = "XLS-R",
        term_zh = "XLS-R",
        aliases_es = { "XLS-R", "wav2vec XLS-R", "modelo XLS-R" },
        aliases_zh = { "XLS-R", "wav2vec XLS-R", "跨语言语音表示模型 XLS-R" },
    }
    
    data["xlsr-53"] = {
        short = "An earlier cross-lingual self-supervised speech model from Meta AI based on wav2vec 2.0, pretrained jointly on 53 languages and used as the basis for low-resource ASR fine-tuning.",
        article = nil,
        aliases = { "XLSR-53", "wav2vec 2.0 XLSR-53", "XLSR53" },
        es = "Modelo autosupervisado multilingüe anterior de Meta AI, basado en wav2vec 2.0 y preentrenado conjuntamente en 53 idiomas; utilizado como base para el ajuste fino de reconocimiento de voz en idiomas con pocos recursos.",
        zh = "Meta AI 较早的跨语言自监督语音模型,基于 wav2vec 2.0 在 53 种语言上联合预训练,常作为低资源语音识别微调的基础模型。",
        term_es = "XLSR-53",
        term_zh = "XLSR-53",
        aliases_es = { "XLSR-53", "wav2vec 2.0 XLSR-53" },
        aliases_zh = { "XLSR-53", "wav2vec 2.0 XLSR-53" },
    }
    
    data["xnas"] = {
        short = "An exponentiated-gradient differentiable NAS algorithm that uses a multiplicative-weights update on architecture parameters with no-regret guarantees, improving over softmax-based DARTS in stability and final accuracy.",
        article = nil,
        aliases = { "XNAS", "Exponentiated Neural Architecture Search" },
        es = "Algoritmo diferenciable de búsqueda de arquitecturas neuronales con gradiente exponenciado que aplica una actualización multiplicativa sobre los parámetros de arquitectura con garantías de no-arrepentimiento, mejorando la estabilidad y la precisión final frente al DARTS basado en softmax.",
        zh = "一种基于指数化梯度的可微神经架构搜索算法,对架构参数采用具有无悔保证的乘性权重更新,在稳定性和最终精度上优于基于softmax的DARTS。",
        term_es = "XNAS",
        term_zh = "XNAS",
        aliases_es = { "Exponentiated NAS", "búsqueda de arquitecturas neuronales exponenciada" },
        aliases_zh = { "指数化神经架构搜索" },
    }
    
    data["xstest"] = {
        short = "A benchmark of 250 safe and 200 unsafe prompts designed to expose exaggerated safety behavior in large language models, measuring how often a model refuses harmless queries that superficially resemble harmful ones.",
        article = nil,
        aliases = { "XSTest", "Exaggerated Safety Test" },
        es = "Conjunto de evaluación de 250 instrucciones seguras y 200 inseguras diseñado para exponer comportamientos de seguridad exagerados en modelos de lenguaje, midiendo con qué frecuencia un modelo rechaza consultas inofensivas que se parecen superficialmente a consultas dañinas.",
        zh = "一个包含 250 条安全提示和 200 条不安全提示的基准测试,用于揭示大语言模型中过度安全的行为,衡量模型拒绝表面上类似有害请求的无害查询的频率。",
        term_es = "XSTest",
        term_zh = "XSTest",
        aliases_es = { "XSTest" },
        aliases_zh = { "XSTest" },
    }
    
    data["xtts"] = {
        short = "Coqui's open-source zero-shot multilingual text-to-speech model that clones a target voice from a short reference clip and synthesizes speech in many languages without per-speaker fine-tuning.",
        article = nil,
        aliases = { "XTTS", "XTTS-v2", "Coqui XTTS", "xTTS" },
        es = "Modelo de síntesis de voz multilingüe de tipo zero-shot y código abierto de Coqui que clona una voz objetivo a partir de un breve clip de referencia y sintetiza voz en muchos idiomas sin ajuste fino por hablante.",
        zh = "Coqui 开源的零样本多语言文本转语音模型,可从一段短参考音频克隆目标声音,并在多种语言下生成语音,无需对每位说话人进行微调。",
        term_es = "XTTS",
        term_zh = "XTTS",
        aliases_es = { "XTTS", "XTTS-v2", "Coqui XTTS" },
        aliases_zh = { "XTTS", "XTTS-v2", "Coqui XTTS" },
    }
    
    data["xtts-v2"] = {
        short = "An open-source multilingual text-to-speech model released by Coqui that performs zero-shot voice cloning from a few seconds of reference audio across 16 languages.",
        article = nil,
        aliases = { "XTTS-v2", "XTTS v2", "Coqui XTTS-v2" },
        es = "Modelo multilingüe de texto a voz de código abierto publicado por Coqui que realiza clonación de voz de forma zero-shot a partir de unos pocos segundos de audio de referencia, con soporte para 16 idiomas.",
        zh = "Coqui 发布的开源多语言文本转语音模型,可基于几秒钟参考音频在 16 种语言上实现零样本语音克隆。",
        term_es = "XTTS-v2",
        term_zh = "XTTS-v2",
        aliases_es = { "XTTS v2", "Coqui XTTS-v2" },
        aliases_zh = { "XTTS v2", "Coqui XTTS-v2" },
    }
    
    data["yago knowledge base"] = {
        short = "A large multilingual knowledge graph automatically built from Wikipedia, WordNet, and GeoNames, providing millions of entities and facts with a clean ontology and high-precision typing.",
        article = nil,
        aliases = { "YAGO", "Yet Another Great Ontology", "YAGO knowledge graph", "YAGO KB" },
        es = "Gran grafo de conocimiento multilingüe construido automáticamente a partir de Wikipedia, WordNet y GeoNames, que ofrece millones de entidades y hechos con una ontología limpia y un tipado de alta precisión.",
        zh = "一个大规模多语言知识图谱,通过自动整合 Wikipedia、WordNet 和 GeoNames 构建,包含数百万个实体和事实,具有清晰的本体结构和高精度的类型标注。",
        term_es = "YAGO",
        term_zh = "YAGO 知识库",
        aliases_es = { "base de conocimiento YAGO", "grafo YAGO" },
        aliases_zh = { "YAGO", "YAGO 知识图谱" },
    }
    
    data["yago3-10"] = {
        short = "A benchmark subset of the YAGO3 knowledge graph containing entities with at least ten relations, widely used for evaluating link prediction and knowledge-graph embedding models.",
        article = nil,
        aliases = { "YAGO3-10", "YAGO 3-10", "YAGO3-10 benchmark" },
        es = "Subconjunto de referencia del grafo de conocimiento YAGO3 que contiene entidades con al menos diez relaciones, ampliamente usado para evaluar modelos de predicción de enlaces e incrustación de grafos de conocimiento.",
        zh = "YAGO3 知识图谱的一个基准子集,只保留至少具有十个关系的实体,被广泛用于评估链接预测和知识图谱嵌入模型。",
        term_es = "YAGO3-10",
        term_zh = "YAGO3-10",
        aliases_es = { "benchmark YAGO3-10" },
        aliases_zh = { "YAGO3-10 基准", "YAGO3-10 数据集" },
    }
    
    data["yamnet"] = {
        short = "An audio event classifier from Google based on a MobileNetV1 backbone trained on the AudioSet ontology to predict 521 sound classes from log-mel spectrograms.",
        article = nil,
        aliases = { "YAMNet", "Yamnet" },
        es = "Clasificador de eventos sonoros de Google basado en una arquitectura MobileNetV1, entrenado sobre la ontología AudioSet para predecir 521 clases de sonido a partir de espectrogramas log-mel.",
        zh = "Google 的音频事件分类器,基于 MobileNetV1 架构在 AudioSet 标签体系上训练,从对数梅尔频谱预测 521 类声音。",
        term_es = "YAMNet",
        term_zh = "YAMNet",
        aliases_es = { "YAMNet", "modelo YAMNet" },
        aliases_zh = { "YAMNet", "YAMNet 模型" },
    }
    
    data["yao protocol"] = {
        short = "A two-party secure computation protocol, originally proposed by Andrew Yao, that evaluates an arbitrary boolean circuit on private inputs by garbling the circuit and using oblivious transfer. Foundational construction for general-purpose secure multi-party computation.",
        article = nil,
        aliases = { "Yao's protocol", "Yao garbled circuits", "Yao's garbled circuits", "garbled circuit protocol" },
        es = "Protocolo de computación segura entre dos partes, propuesto originalmente por Andrew Yao, que evalúa un circuito booleano arbitrario sobre entradas privadas mediante el cifrado del circuito (garbling) y la transferencia oblivia. Construcción fundamental de la computación multipartita segura de propósito general.",
        zh = "由姚期智最早提出的两方安全计算协议,通过对布尔电路进行混淆(garbling)并结合不经意传输,在私有输入上对任意布尔电路求值。是通用安全多方计算的基础构造。",
        term_es = "protocolo de Yao",
        term_zh = "姚氏协议",
        aliases_es = { "circuitos cifrados de Yao", "protocolo de circuitos confundidos de Yao" },
        aliases_zh = { "Yao 协议", "姚氏混淆电路协议", "混淆电路协议" },
    }
    
    data["yarn extension"] = {
        short = "A context-window extension method for RoPE-based language models that interpolates rotary embeddings non-uniformly across frequency bands, enabling much longer contexts than training with little additional fine-tuning.",
        article = nil,
        aliases = { "YaRN", "YaRN extension", "Yet another RoPE extensioN", "YaRN context extension" },
        es = "Método de extensión de la ventana de contexto para modelos de lenguaje basados en RoPE que interpola las codificaciones rotatorias de forma no uniforme entre bandas de frecuencia, permitiendo contextos mucho más largos que los del entrenamiento con poco ajuste fino adicional.",
        zh = "一种针对基于 RoPE 的语言模型的上下文窗口扩展方法,对旋转位置编码在不同频段进行非均匀插值,仅需少量额外微调即可支持远超训练长度的上下文。",
        term_es = "YaRN",
        term_zh = "YaRN",
        aliases_es = { "extensión YaRN", "YaRN" },
        aliases_zh = { "YaRN 扩展", "YaRN" },
    }
    
    data["yfcc100m"] = {
        short = "Yahoo Flickr Creative Commons 100 Million; a dataset of about 100 million Flickr images and videos under Creative Commons licenses with rich metadata including titles, tags, descriptions, and geolocation.",
        article = nil,
        aliases = { "YFCC100M", "YFCC-100M", "Yahoo Flickr Creative Commons 100M", "Yahoo Flickr Creative Commons 100 Million" },
        es = "Yahoo Flickr Creative Commons 100 Million; un conjunto de datos con aproximadamente 100 millones de imágenes y videos de Flickr bajo licencias Creative Commons, con metadatos detallados como títulos, etiquetas, descripciones y geolocalización.",
        zh = "Yahoo Flickr Creative Commons 100 Million;一个包含约一亿张 Flickr 图像和视频的数据集,均采用知识共享许可,并附有标题、标签、描述和地理位置等丰富元数据。",
        term_es = "YFCC100M",
        term_zh = "YFCC100M",
        aliases_es = { "YFCC100M", "YFCC-100M" },
        aliases_zh = { "YFCC100M", "YFCC-100M" },
    }
    
    data["yfcc15m"] = {
        short = "A 15-million-pair English-captioned subset of YFCC100M curated by OpenAI for the original CLIP paper; commonly used as a smaller-scale benchmark for contrastive vision-language pretraining.",
        article = nil,
        aliases = { "YFCC15M", "YFCC-15M", "YFCC 15M" },
        es = "Un subconjunto de 15 millones de pares con descripciones en inglés extraído de YFCC100M y curado por OpenAI para el artículo original de CLIP; se usa habitualmente como referencia a menor escala para el preentrenamiento contrastivo de visión y lenguaje.",
        zh = "YFCC100M 的一个一千五百万英文配对子集,由 OpenAI 为原始 CLIP 论文整理而成,常用作较小规模的对比式视觉-语言预训练基准。",
        term_es = "YFCC15M",
        term_zh = "YFCC15M",
        aliases_es = { "YFCC15M", "YFCC-15M" },
        aliases_zh = { "YFCC15M", "YFCC-15M" },
    }
    
    data["yi-34b"] = {
        short = "A 34-billion-parameter open-weight bilingual (English and Chinese) large language model released by 01.AI, trained on a 3-trillion-token corpus and supporting context lengths up to 200K tokens in extended variants.",
        article = nil,
        aliases = { "Yi-34B", "Yi 34B", "01.AI Yi-34B" },
        es = "Modelo de lenguaje grande bilingüe (inglés y chino) de pesos abiertos con 34 mil millones de parámetros publicado por 01.AI, entrenado con un corpus de 3 billones de tokens y con soporte de contextos de hasta 200K tokens en sus variantes extendidas.",
        zh = "由 01.AI 发布的 340 亿参数开源双语(中英)大语言模型,在 3 万亿词元语料上训练,扩展版本支持最长 200K 词元的上下文。",
        term_es = "Yi-34B",
        term_zh = "Yi-34B",
        aliases_es = { "Yi 34B", "Yi-34B de 01.AI" },
        aliases_zh = { "Yi-34B", "零一万物 Yi-34B" },
    }
    
    data["yi-vl"] = {
        short = "An open-weight multimodal vision-language model from 01.AI built on the Yi base model, supporting English and Chinese image-grounded conversation and visual question answering.",
        article = nil,
        aliases = { "Yi-VL", "Yi VL", "Yi-VL-6B", "Yi-VL-34B" },
        es = "Modelo multimodal visión-lenguaje de pesos abiertos de 01.AI construido sobre el modelo base Yi, con soporte para conversación basada en imágenes y respuesta a preguntas visuales en inglés y chino.",
        zh = "由 01.AI 发布、基于 Yi 基础模型构建的开源多模态视觉语言模型,支持中英文图像对话和视觉问答。",
        term_es = "Yi-VL",
        term_zh = "Yi-VL",
        aliases_es = { "Yi VL", "Yi-VL-6B", "Yi-VL-34B" },
        aliases_zh = { "Yi-VL", "Yi-VL-6B", "Yi-VL-34B" },
    }
    
    data["yin pitch"] = {
        short = "A classical autocorrelation-based fundamental-frequency estimation algorithm by de Cheveigné and Kawahara that uses a difference function with a cumulative-mean normalization to robustly detect pitch in monophonic signals.",
        article = nil,
        aliases = { "YIN", "YIN algorithm", "YIN pitch detection", "YIN F0" },
        es = "Algoritmo clásico de estimación de frecuencia fundamental basado en autocorrelación, propuesto por de Cheveigné y Kawahara, que usa una función de diferencia con normalización por media acumulada para detectar de forma robusta el tono en señales monofónicas.",
        zh = "de Cheveigné 与 Kawahara 提出的经典基频估计算法,基于自相关,使用累积均值归一化的差分函数,能在单音信号中稳健地检测音高。",
        term_es = "algoritmo YIN",
        term_zh = "YIN 基频算法",
        aliases_es = { "YIN", "algoritmo YIN", "estimador YIN" },
        aliases_zh = { "YIN", "YIN 算法", "YIN 音高检测" },
    }
    
    data["yolo"] = {
        short = "A family of single-stage object detectors, beginning with Redmon et al. in 2016, that frames detection as a single regression from image pixels to bounding box coordinates and class probabilities, prioritizing real-time inference. Variants include YOLOv1 through YOLOv8 and beyond.",
        article = nil,
        aliases = { "YOLO", "You Only Look Once", "YOLOv1", "YOLOv2", "YOLO9000", "YOLOv3", "YOLOv4", "YOLOv5", "YOLOv6", "YOLOv7", "YOLOv8", "YOLO-NAS", "YOLOX" },
        es = "Familia de detectores de objetos de una sola etapa, iniciada por Redmon et al. en 2016, que plantea la detección como una única regresión desde los píxeles de la imagen hacia las coordenadas de caja delimitadora y las probabilidades de clase, priorizando la inferencia en tiempo real. Las variantes incluyen YOLOv1 a YOLOv8 y posteriores.",
        zh = "由 Redmon 等人于 2016 年开创的一族单阶段目标检测器,将检测视为从图像像素到边界框坐标和类别概率的单次回归,优先考虑实时推理。变体包括 YOLOv1 至 YOLOv8 及之后版本。",
        term_es = "YOLO",
        term_zh = "YOLO",
        aliases_es = { "You Only Look Once", "YOLOv3", "YOLOv5", "YOLOv8" },
        aliases_zh = { "You Only Look Once", "YOLOv3", "YOLOv5", "YOLOv8" },
    }
    
    data["youcook2"] = {
        short = "An instructional cooking video dataset of 2000 untrimmed YouTube videos with temporally localized natural-language descriptions of recipe steps; used for video grounding, captioning, and procedural understanding benchmarks.",
        article = nil,
        aliases = { "YouCook2", "YouCookII", "YouCook 2" },
        es = "Un conjunto de datos de videos instructivos de cocina compuesto por 2000 vídeos no recortados de YouTube con descripciones en lenguaje natural localizadas temporalmente para los pasos de las recetas; se utiliza en pruebas de anclaje, descripción y comprensión procedimental de video.",
        zh = "一个烹饪教学视频数据集,包含 2000 段未剪辑的 YouTube 视频,并附有按时间定位的菜谱步骤自然语言描述;用于视频时序定位、描述生成与程序性理解基准。",
        term_es = "YouCook2",
        term_zh = "YouCook2",
        aliases_es = { "YouCook2", "YouCookII" },
        aliases_zh = { "YouCook2", "YouCookII" },
    }
    
    data["yourtts"] = {
        short = "An open-source zero-shot multi-speaker, multilingual TTS model based on VITS that conditions on speaker embeddings to synthesize new voices from a few seconds of reference audio.",
        article = nil,
        aliases = { "YourTTS", "Your-TTS", "yourTTS" },
        es = "Modelo de síntesis de voz multilocutor y multilingüe de tipo zero-shot y código abierto, basado en VITS, que se condiciona en embeddings de hablante para sintetizar nuevas voces a partir de unos segundos de audio de referencia.",
        zh = "基于 VITS 的开源零样本多说话人多语言语音合成模型,通过说话人嵌入条件化,从数秒参考音频合成新的声音。",
        term_es = "YourTTS",
        term_zh = "YourTTS",
        aliases_es = { "YourTTS", "Your-TTS" },
        aliases_zh = { "YourTTS", "Your-TTS" },
    }
    
    data["yule-simpson paradox"] = {
        short = "A statistical phenomenon in which a trend or association observed within each subgroup of a population reverses or disappears when the subgroups are aggregated. It illustrates how confounding can produce misleading marginal associations.",
        article = nil,
        aliases = { "Simpson's paradox", "Yule-Simpson paradox", "Simpson paradox", "Yule's paradox", "amalgamation paradox", "reversal paradox" },
        es = "Fenómeno estadístico en el que una tendencia o asociación observada dentro de cada subgrupo de una población se invierte o desaparece al agregar los subgrupos. Ilustra cómo el confundido puede producir asociaciones marginales engañosas.",
        zh = "一种统计现象:在总体的每个子群体中观察到的趋势或关联,在合并各子群体后会发生反转或消失。它说明了混杂因素如何导致具有误导性的边际关联。",
        term_es = "paradoja de Yule-Simpson",
        term_zh = "尤尔-辛普森悖论",
        aliases_es = { "paradoja de Simpson", "paradoja de la agregación", "paradoja de la inversión" },
        aliases_zh = { "辛普森悖论", "尤尔悖论", "聚合悖论" },
    }
    
    data["zero operation"] = {
        short = "A candidate operation in NAS search spaces that outputs all zeros, effectively disconnecting two nodes; selecting it lets the search prune edges and learn the connectivity pattern of the cell.",
        article = nil,
        aliases = { "zero op", "none operation", "no-op operation", "zero-op" },
        es = "Operación candidata en espacios de búsqueda NAS que produce todo ceros, desconectando efectivamente dos nodos; seleccionarla permite a la búsqueda podar aristas y aprender el patrón de conectividad de la celda.",
        zh = "NAS搜索空间中的一种候选操作,其输出全为零,相当于断开两个节点之间的连接;选择该操作可让搜索剪除边并学习单元的连通模式。",
        term_es = "operación cero",
        term_zh = "零操作",
        aliases_es = { "zero op", "operación nula", "operación none" },
        aliases_zh = { "zero op", "空操作", "无操作" },
    }
    
    data["zero optimizer states"] = {
        short = "ZeRO (Zero Redundancy Optimizer): a family of memory-optimization stages from DeepSpeed that shard optimizer states (Stage 1), gradients (Stage 2), and parameters (Stage 3) across data-parallel ranks, enabling training of models far larger than a single device's memory.",
        article = nil,
        aliases = { "ZeRO", "Zero Redundancy Optimizer", "ZeRO-1", "ZeRO-2", "ZeRO-3", "ZeRO Stage 3", "ZeRO sharding" },
        es = "ZeRO (Zero Redundancy Optimizer): familia de etapas de optimización de memoria de DeepSpeed que distribuyen los estados del optimizador (Etapa 1), los gradientes (Etapa 2) y los parámetros (Etapa 3) entre los rangos de paralelismo de datos, permitiendo entrenar modelos mucho mayores que la memoria de un solo dispositivo.",
        zh = "ZeRO(Zero Redundancy Optimizer,零冗余优化器):DeepSpeed 提出的一系列显存优化阶段,将优化器状态(Stage 1)、梯度(Stage 2)和参数(Stage 3)切分到各数据并行进程,使可训练模型规模远超单卡显存。",
        term_es = "ZeRO",
        term_zh = "ZeRO",
        aliases_es = { "Zero Redundancy Optimizer", "optimizador de redundancia cero", "ZeRO-3" },
        aliases_zh = { "零冗余优化器", "ZeRO 切分", "ZeRO-3" },
    }
    
    data["zero-2 sharding"] = {
        short = "The second stage of the ZeRO memory optimizer, which shards optimizer states and gradients across data-parallel workers while keeping a full copy of model parameters on every worker. Reduces per-device memory roughly proportionally to the data-parallel degree.",
        article = nil,
        aliases = { "ZeRO-2", "ZeRO Stage 2", "ZeRO stage 2 sharding", "zero stage 2" },
        es = "Segunda etapa del optimizador de memoria ZeRO, que reparte (shards) los estados del optimizador y los gradientes entre los trabajadores en paralelismo de datos, manteniendo una copia completa de los parámetros del modelo en cada uno. Reduce la memoria por dispositivo de forma aproximadamente proporcional al grado de paralelismo de datos.",
        zh = "ZeRO 内存优化器的第二阶段,将优化器状态和梯度在数据并行的各工作节点间分片,同时在每个节点上保留模型参数的完整副本。可使每设备显存占用大致按数据并行度缩减。",
        term_es = "particionamiento ZeRO-2",
        term_zh = "ZeRO-2 分片",
        aliases_es = { "ZeRO-2", "ZeRO etapa 2", "particionamiento ZeRO etapa 2" },
        aliases_zh = { "ZeRO-2", "ZeRO 第二阶段", "ZeRO 阶段 2 分片" },
    }
    
    data["zero-3 sharding"] = {
        short = "The third stage of the ZeRO memory optimizer, which shards optimizer states, gradients, and model parameters across data-parallel workers, gathering parameter shards on demand during forward and backward passes. Enables training of models too large to fit on a single device.",
        article = nil,
        aliases = { "ZeRO-3", "ZeRO Stage 3", "ZeRO stage 3 sharding", "zero stage 3", "fully sharded data parallel ZeRO" },
        es = "Tercera etapa del optimizador de memoria ZeRO, que reparte estados del optimizador, gradientes y parámetros del modelo entre los trabajadores en paralelismo de datos, recopilando los fragmentos de parámetros bajo demanda durante las pasadas hacia adelante y hacia atrás. Permite entrenar modelos demasiado grandes para caber en un solo dispositivo.",
        zh = "ZeRO 内存优化器的第三阶段,将优化器状态、梯度和模型参数同时在数据并行的各工作节点间分片,并在前向和反向传播时按需收集参数分片。能够训练单设备无法容纳的超大规模模型。",
        term_es = "particionamiento ZeRO-3",
        term_zh = "ZeRO-3 分片",
        aliases_es = { "ZeRO-3", "ZeRO etapa 3", "particionamiento ZeRO etapa 3" },
        aliases_zh = { "ZeRO-3", "ZeRO 第三阶段", "ZeRO 阶段 3 分片" },
    }
    
    data["zero-cost nas"] = {
        short = "Neural architecture search that ranks candidates using zero-cost proxies — scores computed from a single mini-batch forward/backward pass — instead of training, enabling search in CPU-minutes.",
        article = nil,
        aliases = { "zero cost NAS", "zero-cost neural architecture search", "ZC-NAS" },
        es = "Búsqueda de arquitecturas neuronales que clasifica candidatos mediante proxies de costo cero — puntuaciones calculadas a partir de una única pasada hacia adelante/atrás sobre un mini-lote — en lugar de entrenar, permitiendo búsquedas en minutos de CPU.",
        zh = "一种神经架构搜索方法,使用零成本代理(仅需一次小批量前向/反向传播即可计算的得分)对候选架构进行排序,而无需训练,可在CPU分钟级完成搜索。",
        term_es = "NAS de costo cero",
        term_zh = "零成本NAS",
        aliases_es = { "zero-cost NAS", "búsqueda de arquitecturas de costo cero", "ZC-NAS" },
        aliases_zh = { "零成本神经架构搜索", "ZC-NAS" },
    }
    
    data["zero-cost proxies"] = {
        short = "Cheap-to-compute scores (e.g., grad_norm, snip, grasp, fisher, synflow, NTK condition number, jacobian covariance) that approximate an architecture's trainability or final accuracy from one mini-batch, used to rank candidates in zero-cost NAS.",
        article = nil,
        aliases = { "zero-cost proxy", "zero cost proxies", "ZC proxies", "zero-cost NAS proxies" },
        es = "Puntuaciones de cómputo barato (p. ej., grad_norm, snip, grasp, fisher, synflow, número de condición del NTK, covarianza jacobiana) que aproximan la entrenabilidad o la precisión final de una arquitectura a partir de un mini-lote, usadas para clasificar candidatos en NAS de costo cero.",
        zh = "一组计算开销极小的指标(如grad_norm、snip、grasp、fisher、synflow、NTK条件数、雅可比协方差),仅用一个小批量即可近似估计架构的可训练性或最终精度,用于零成本NAS中的候选排序。",
        term_es = "proxies de costo cero",
        term_zh = "零成本代理",
        aliases_es = { "zero-cost proxies", "indicadores de costo cero" },
        aliases_zh = { "零成本代理指标", "zero-cost proxies", "ZC代理" },
    }
    
    data["zero-crossing rate"] = {
        short = "A simple signal feature defined as the rate at which a waveform changes sign per unit time, used in voiced/unvoiced detection, percussive-onset estimation, and basic audio classification.",
        article = nil,
        aliases = { "ZCR", "zero crossing rate", "zero-crossings rate" },
        es = "Característica simple de la señal definida como la frecuencia con la que una forma de onda cambia de signo por unidad de tiempo; se utiliza en detección de voz/no voz, estimación de inicios percusivos y clasificación básica de audio.",
        zh = "一种简单的信号特征,定义为单位时间内波形改变符号的次数,常用于浊音/清音检测、打击声起始点估计以及基本的音频分类。",
        term_es = "tasa de cruces por cero",
        term_zh = "过零率",
        aliases_es = { "ZCR", "tasa de cruce por cero", "frecuencia de cruces por cero" },
        aliases_zh = { "ZCR", "零交叉率", "过零次数率" },
    }
    
    data["zero-inflated single-cell"] = {
        short = "Statistical models for single-cell RNA-seq counts that combine a point mass at zero (representing technical dropouts) with a count distribution (typically negative binomial), used by tools such as ZINB-WaVE and SCDE to handle excess zeros.",
        article = nil,
        aliases = { "zero-inflated scRNA-seq", "zero-inflation single-cell", "ZINB single-cell", "zero-inflated negative binomial single-cell" },
        es = "Modelos estadísticos para conteos de RNA-seq de célula única que combinan una masa puntual en cero (que representa abandonos técnicos) con una distribución de conteos (habitualmente binomial negativa), usados por herramientas como ZINB-WaVE y SCDE para manejar el exceso de ceros.",
        zh = "针对单细胞 RNA-seq 计数的统计模型,将零处的点质量(表示技术性丢失)与计数分布(通常为负二项分布)相结合,用于处理过多的零值;ZINB-WaVE、SCDE 等工具采用此类模型。",
        term_es = "modelos zero-inflated en célula única",
        term_zh = "零膨胀单细胞模型",
        aliases_es = { "scRNA-seq con inflación de ceros", "ZINB en célula única" },
        aliases_zh = { "零膨胀 scRNA-seq", "ZINB 单细胞模型", "单细胞零膨胀负二项模型" },
    }
    
    data["zero-knowledge proof"] = {
        short = "A cryptographic protocol in which a prover convinces a verifier that a statement is true without revealing any information beyond the fact that the statement holds. Underpins privacy-preserving authentication, verifiable computation, and several blockchain primitives.",
        article = nil,
        aliases = { "ZKP", "zero knowledge proof", "ZK proof", "zero-knowledge protocol" },
        es = "Protocolo criptográfico en el que un demostrador convence a un verificador de que una afirmación es cierta sin revelar más información que la propia validez de la afirmación. Sustenta la autenticación con preservación de la privacidad, la computación verificable y varias primitivas de blockchain.",
        zh = "一种密码学协议,证明者向验证者证明某陈述为真,同时不泄露除该陈述成立之外的任何信息。它是隐私保护身份验证、可验证计算以及多种区块链原语的基础。",
        term_es = "prueba de conocimiento cero",
        term_zh = "零知识证明",
        aliases_es = { "ZKP", "demostración de conocimiento cero", "protocolo de conocimiento cero" },
        aliases_zh = { "ZKP", "零知识协议", "零知识论证" },
    }
    
    data["zero-shot image-text retrieval"] = {
        short = "Cross-modal retrieval evaluation in which a vision-language model trained without supervision on the target dataset must retrieve images given text queries, or text given image queries; a canonical benchmark for CLIP-style contrastive models.",
        article = nil,
        aliases = { "zero-shot image text retrieval", "zero-shot cross-modal retrieval", "ZS image-text retrieval" },
        es = "Evaluación de recuperación cross-modal en la que un modelo de visión y lenguaje, sin entrenamiento supervisado sobre el conjunto objetivo, debe recuperar imágenes a partir de consultas de texto, o texto a partir de consultas de imagen; es una prueba canónica para modelos contrastivos del estilo CLIP.",
        zh = "一种跨模态检索评测:视觉-语言模型在目标数据集上未经过有监督训练的情况下,需要根据文本查询检索图像,或根据图像查询检索文本;是 CLIP 类对比模型的典型基准。",
        term_es = "recuperación zero-shot imagen-texto",
        term_zh = "零样本图文检索",
        aliases_es = { "recuperación zero-shot imagen-texto", "recuperación cross-modal zero-shot" },
        aliases_zh = { "零样本图文检索", "零样本跨模态检索" },
    }
    
    data["zero-shot learning"] = {
        short = "Performing a task on classes or instructions that were not seen during training, typically by relying on semantic descriptions, attributes, or large pre-trained models conditioned on task instructions.",
        article = nil,
        aliases = { "zero shot learning", "zeroshot learning", "ZSL", "zero-shot classification" },
        es = "Realización de una tarea sobre clases o instrucciones que no se observaron durante el entrenamiento, normalmente apoyándose en descripciones semánticas, atributos o modelos preentrenados condicionados por instrucciones.",
        zh = "在训练期间未见过的类别或指令上完成任务,通常依赖语义描述、属性或受任务指令条件化的大型预训练模型。",
        term_es = "aprendizaje zero-shot",
        term_zh = "零样本学习",
        aliases_es = { "aprendizaje sin ejemplos", "zero-shot", "ZSL" },
        aliases_zh = { "zero-shot learning", "零样本", "ZSL" },
    }
    
    data["zero-shot nas"] = {
        short = "Neural architecture search that selects an architecture without training any candidate, relying entirely on zero-cost proxies, theoretical priors, or pretrained predictors evaluated on the unrolled architecture.",
        article = nil,
        aliases = { "zero shot NAS", "zero-shot neural architecture search" },
        es = "Búsqueda de arquitecturas neuronales que selecciona una arquitectura sin entrenar ningún candidato, basándose por completo en proxies de costo cero, priors teóricos o predictores preentrenados evaluados sobre la arquitectura desplegada.",
        zh = "一种神经架构搜索方法,完全不训练任何候选架构,仅依靠零成本代理、理论先验或预训练预测器对展开的架构进行评估来选择最终架构。",
        term_es = "NAS sin entrenamiento previo",
        term_zh = "零样本NAS",
        aliases_es = { "zero-shot NAS", "búsqueda de arquitecturas zero-shot" },
        aliases_zh = { "零样本神经架构搜索", "zero-shot NAS" },
    }
    
    data["zero-shot prompting"] = {
        short = "Prompting a language model to perform a task using only a natural-language description of the task, without providing any demonstrations of input-output behavior.",
        article = nil,
        aliases = { "Zero-Shot Prompting", "zero shot prompting", "zero-shot inference", "zero-shot learning" },
        es = "Estrategia de prompting que pide a un modelo de lenguaje realizar una tarea usando únicamente una descripción en lenguaje natural de la tarea, sin proporcionar demostraciones de pares entrada-salida.",
        zh = "仅通过对任务的自然语言描述提示语言模型完成任务,而不提供任何输入-输出示例的提示方式。",
        term_es = "prompting sin ejemplos",
        term_zh = "零样本提示",
        aliases_es = { "zero-shot prompting", "prompting zero-shot", "inferencia sin ejemplos", "aprendizaje sin ejemplos" },
        aliases_zh = { "zero-shot prompting", "零样本推理", "零样本学习", "0-shot 提示" },
    }
    
    data["zero-shot tts"] = {
        short = "A text-to-speech setting in which the model can synthesize speech in voices, languages, or styles never seen during training, typically by conditioning on reference audio or language embeddings.",
        article = nil,
        aliases = { "zero-shot TTS", "zero-shot text-to-speech", "ZS-TTS", "zero shot TTS" },
        es = "Escenario de síntesis de voz en el que el modelo puede generar voz en hablantes, idiomas o estilos nunca vistos durante el entrenamiento, generalmente condicionándose en audio de referencia o embeddings de idioma.",
        zh = "一种语音合成设置,模型能够在训练中从未见过的说话人、语言或风格上生成语音,通常通过参考音频或语言嵌入进行条件化。",
        term_es = "TTS zero-shot",
        term_zh = "零样本 TTS",
        aliases_es = { "TTS zero-shot", "síntesis de voz zero-shot", "ZS-TTS" },
        aliases_zh = { "零样本 TTS", "零样本语音合成", "ZS-TTS" },
    }
    
    data["zero-shot variant effect prediction"] = {
        short = "Predicting the functional impact of genetic or amino-acid variants without supervised training on variant-effect labels, typically by scoring mutations using the likelihoods assigned by a protein or DNA language model.",
        article = nil,
        aliases = { "zero-shot VEP", "zero-shot variant effect prediction", "zero-shot mutation effect prediction", "unsupervised variant effect prediction" },
        es = "Predicción del impacto funcional de variantes genéticas o de aminoácidos sin entrenamiento supervisado sobre etiquetas de efecto, generalmente puntuando las mutaciones mediante las verosimilitudes asignadas por un modelo de lenguaje de proteínas o de ADN.",
        zh = "在无须使用变异效应标签进行有监督训练的情况下,预测基因或氨基酸变异的功能影响,通常通过蛋白质或 DNA 语言模型为突变赋予的似然性进行打分。",
        term_es = "predicción zero-shot del efecto de variantes",
        term_zh = "零样本变异效应预测",
        aliases_es = { "VEP zero-shot", "predicción no supervisada del efecto de variantes" },
        aliases_zh = { "零样本突变效应预测", "无监督变异效应预测" },
    }
    
    data["zero-shot video classification multimodal"] = {
        short = "Classifying videos into action or event categories using a multimodal vision-language model without fine-tuning on the target label set; class names are encoded as natural-language prompts and matched to video features.",
        article = nil,
        aliases = { "zero-shot video classification", "multimodal zero-shot video classification", "ZS video classification" },
        es = "Clasificación de videos en categorías de acción o evento usando un modelo multimodal de visión y lenguaje sin ajuste fino sobre el conjunto de etiquetas objetivo; los nombres de las clases se codifican como prompts en lenguaje natural y se comparan con las representaciones del video.",
        zh = "使用多模态视觉-语言模型对视频进行动作或事件分类,在目标标签集上不进行微调;类别名称被编码为自然语言提示,与视频特征进行匹配。",
        term_es = "clasificación zero-shot multimodal de video",
        term_zh = "多模态零样本视频分类",
        aliases_es = { "clasificación zero-shot de video", "clasificación zero-shot multimodal de video" },
        aliases_zh = { "零样本视频分类", "多模态零样本视频分类" },
    }
    
    data["zero-shot voice cloning"] = {
        short = "Synthesis of speech in a target speaker's voice using only a short reference clip and no additional fine-tuning, typically achieved by conditioning a TTS model on a speaker embedding extracted from the reference.",
        article = nil,
        aliases = { "zero-shot voice clone", "ZS voice cloning", "zero shot voice cloning", "zero-shot speaker cloning" },
        es = "Síntesis de voz con la voz de un hablante objetivo usando solo un breve clip de referencia y sin ajuste fino adicional; suele lograrse condicionando un modelo de TTS en un embedding de hablante extraído del clip de referencia.",
        zh = "仅使用一段短参考音频、无需额外微调即可合成目标说话人音色的语音,通常通过让 TTS 模型在从参考音频提取的说话人嵌入上条件化来实现。",
        term_es = "clonación de voz zero-shot",
        term_zh = "零样本声音克隆",
        aliases_es = { "clonado de voz zero-shot", "clonación zero-shot de voz", "ZS voice cloning" },
        aliases_zh = { "零样本声音克隆", "零样本语音克隆", "零样本说话人克隆" },
    }
    
    data["zero-shot vqa"] = {
        short = "Answering questions about images or videos without task-specific fine-tuning, typically by prompting a frozen vision-language model whose pretraining did not include the target VQA dataset.",
        article = nil,
        aliases = { "zero-shot VQA", "zero-shot visual question answering", "ZS-VQA" },
        es = "Responder preguntas sobre imágenes o videos sin ajuste fino específico para la tarea, normalmente mediante prompting a un modelo de visión y lenguaje congelado cuyo preentrenamiento no incluyó el conjunto VQA objetivo.",
        zh = "在不针对任务进行微调的情况下回答关于图像或视频的问题,通常通过对一个冻结的视觉-语言模型进行提示完成,且该模型预训练时未见过目标 VQA 数据集。",
        term_es = "VQA zero-shot",
        term_zh = "零样本视觉问答",
        aliases_es = { "VQA zero-shot", "respuesta visual a preguntas zero-shot" },
        aliases_zh = { "零样本视觉问答", "零样本 VQA" },
    }
    
    data["zero123"] = {
        short = "A diffusion-based model that synthesizes novel views of an object from a single RGB image conditioned on a relative camera pose, enabling 3D reconstruction and view interpolation without multi-view training data.",
        article = nil,
        aliases = { "Zero-1-to-3", "Zero123", "Zero 1-to-3" },
        es = "Modelo basado en difusión que sintetiza vistas novedosas de un objeto a partir de una sola imagen RGB condicionado por una pose de cámara relativa, permitiendo reconstrucción 3D e interpolación de vistas sin datos de entrenamiento multi-vista.",
        zh = "一种基于扩散模型的方法,以单张 RGB 图像为输入并以相对相机位姿为条件合成物体的新视角,可在无需多视图训练数据的情况下实现 3D 重建和视角插值。",
        term_es = "Zero123",
        term_zh = "Zero123",
        aliases_es = { "Zero-1-to-3", "Zero 1-to-3" },
        aliases_zh = { "Zero-1-to-3", "Zero 1-to-3" },
    }
    
    data["zeroscope"] = {
        short = "An open-weight text-to-video diffusion model fine-tuned from ModelScope's text-to-video model, producing short watermark-free clips at resolutions up to 1024x576.",
        article = nil,
        aliases = { "Zeroscope", "ZeroScope", "Zeroscope V2", "zeroscope_v2" },
        es = "Modelo de difusión texto-a-vídeo de pesos abiertos ajustado a partir del modelo texto-a-vídeo de ModelScope, que genera clips cortos sin marca de agua con resoluciones de hasta 1024x576.",
        zh = "一个开源的文本到视频扩散模型,从 ModelScope 的文本到视频模型微调而来,可生成最高 1024x576 分辨率的无水印短视频片段。",
        term_es = "Zeroscope",
        term_zh = "Zeroscope",
        aliases_es = { "ZeroScope", "Zeroscope V2" },
        aliases_zh = { "ZeroScope", "Zeroscope V2" },
    }
    
    data["zerospeech challenge"] = {
        short = "A recurring benchmark series for unsupervised discovery of speech units (phones, words, language models) from raw audio without textual supervision, organized since 2015.",
        article = nil,
        aliases = { "ZeroSpeech", "Zero Resource Speech Challenge", "Zero-Resource Speech Challenge", "ZRC" },
        es = "Serie recurrente de benchmarks para el descubrimiento no supervisado de unidades del habla (fonos, palabras, modelos de lenguaje) a partir de audio sin supervisión textual, organizada desde 2015.",
        zh = "自 2015 年起举办的系列基准评测,旨在从原始音频中无监督地发现语音单元(音素、词、语言模型),不使用文本监督。",
        term_es = "ZeroSpeech Challenge",
        term_zh = "ZeroSpeech 挑战赛",
        aliases_es = { "ZeroSpeech", "Zero Resource Speech Challenge", "desafío ZeroSpeech" },
        aliases_zh = { "ZeroSpeech", "零资源语音挑战赛", "Zero Resource Speech Challenge" },
    }
    
    data["zinc database"] = {
        short = "A free, curated database of commercially available compounds prepared in 3D ready-to-dock formats, maintained by the Irwin and Shoichet laboratories for use in virtual screening and ligand discovery.",
        article = nil,
        aliases = { "ZINC", "ZINC database", "ZINC compound database", "ZINC15", "ZINC20" },
        es = "Base de datos gratuita y curada de compuestos disponibles comercialmente, preparados en formatos 3D listos para acoplamiento, mantenida por los laboratorios de Irwin y Shoichet para el cribado virtual y el descubrimiento de ligandos.",
        zh = "由 Irwin 与 Shoichet 实验室维护的免费、经过精心整理的可购买化合物数据库,化合物以可直接对接的三维格式提供,广泛用于虚拟筛选和配体发现。",
        term_es = "base de datos ZINC",
        term_zh = "ZINC 数据库",
        aliases_es = { "ZINC", "ZINC15", "ZINC20" },
        aliases_zh = { "ZINC", "ZINC15", "ZINC20", "ZINC 化合物库" },
    }
    
    data["zinc15"] = {
        short = "The 2015 release of the ZINC virtual-screening database, comprising more than 230 million purchasable compounds in 3D dock-ready format and offering tranche-based browsing by physicochemical properties.",
        article = nil,
        aliases = { "ZINC15", "ZINC 15", "ZINC-15" },
        es = "Versión de 2015 de la base de datos de cribado virtual ZINC, que contiene más de 230 millones de compuestos comprables en formato 3D listo para acoplamiento y ofrece navegación por particiones según propiedades fisicoquímicas.",
        zh = "ZINC 虚拟筛选数据库的 2015 年版本,收录超过 2.3 亿个可购买的三维对接就绪化合物,并按理化性质分区供检索。",
        term_es = "ZINC15",
        term_zh = "ZINC15",
        aliases_es = { "ZINC 15", "ZINC-15" },
        aliases_zh = { "ZINC 15", "ZINC-15" },
    }
    
    data["zinc20"] = {
        short = "The 2020 release of the ZINC virtual-screening database, expanded to over 1.4 billion purchasable compounds and incorporating make-on-demand combinatorial libraries from vendors such as Enamine.",
        article = nil,
        aliases = { "ZINC20", "ZINC 20", "ZINC-20" },
        es = "Versión de 2020 de la base de datos de cribado virtual ZINC, ampliada a más de 1400 millones de compuestos comprables e incorporando bibliotecas combinatorias bajo pedido de proveedores como Enamine.",
        zh = "ZINC 虚拟筛选数据库的 2020 年版本,扩展至超过 14 亿个可购买化合物,并纳入了 Enamine 等供应商按需合成的组合化学库。",
        term_es = "ZINC20",
        term_zh = "ZINC20",
        aliases_es = { "ZINC 20", "ZINC-20" },
        aliases_zh = { "ZINC 20", "ZINC-20" },
    }
    
    data["zinc250k"] = {
        short = "A benchmark subset of roughly 250,000 drug-like molecules sampled from the ZINC database, popularized by Kusner et al. (2017) and widely used to train and evaluate molecular generative models.",
        article = nil,
        aliases = { "ZINC250k", "ZINC-250k", "ZINC 250k", "ZINC250K" },
        es = "Subconjunto de referencia de aproximadamente 250 000 moléculas con propiedades de fármaco muestreadas de la base de datos ZINC, popularizado por Kusner et al. (2017) y ampliamente utilizado para entrenar y evaluar modelos generativos moleculares.",
        zh = "从 ZINC 数据库中抽取的约 25 万个类药分子的基准子集,由 Kusner 等人于 2017 年推广,被广泛用于训练和评估分子生成模型。",
        term_es = "ZINC250k",
        term_zh = "ZINC250k",
        aliases_es = { "ZINC-250k", "ZINC 250k" },
        aliases_zh = { "ZINC-250k", "ZINC 250k" },
    }
    
    data["zipformer"] = {
        short = "A Transformer-based encoder for speech recognition from the k2 / icefall project that processes audio at multiple temporal resolutions in a U-Net-like structure for improved efficiency and accuracy.",
        article = nil,
        aliases = { "Zipformer", "zip-former", "k2 Zipformer" },
        es = "Codificador basado en Transformer para reconocimiento de voz del proyecto k2/icefall, que procesa el audio en múltiples resoluciones temporales mediante una estructura tipo U-Net para mejorar la eficiencia y la precisión.",
        zh = "k2/icefall 项目提出的基于 Transformer 的语音识别编码器,采用类 U-Net 结构在多种时间分辨率下处理音频,以兼顾效率与精度。",
        term_es = "Zipformer",
        term_zh = "Zipformer",
        aliases_es = { "Zipformer", "codificador Zipformer" },
        aliases_zh = { "Zipformer", "k2 Zipformer" },
    }
    
    return data