Module:Glossary/data 1

    From Marovi AI

    Documentation for this module may be created at Module:Glossary/data 1/doc

    local data = {}
    
    data["(1+1) evolution"] = {
        short = "A minimalist evolutionary strategy in which a single parent produces a single mutated offspring per generation and the better of the two survives; used as a baseline in neural architecture search.",
        article = nil,
        aliases = { "(1+1)-ES", "(1+1) ES", "1+1 evolution", "one-plus-one evolution", "(1+1) evolutionary strategy" },
        es = "Estrategia evolutiva minimalista en la que un único padre produce un único hijo mutado por generación y sobrevive el mejor de los dos; se usa como referencia en búsqueda de arquitecturas neuronales.",
        zh = "一种极简进化策略,每代由单个父代产生单个突变后代,二者中更优者存活;常作为神经架构搜索的基线。",
        term_es = "evolución (1+1)",
        term_zh = "(1+1) 进化策略",
        aliases_es = { "(1+1)-ES", "estrategia evolutiva (1+1)", "evolución uno-más-uno" },
        aliases_zh = { "(1+1)-ES", "(1+1) 进化算法", "一加一进化策略" },
    }
    
    data["10x genomics"] = {
        short = "A company and platform for single-cell and spatial genomics that uses microfluidic droplet partitioning with cell-specific barcodes to enable high-throughput single-cell RNA-seq, ATAC-seq, and multi-omic assays. Often refers to the Chromium instrument and its data formats.",
        article = nil,
        aliases = { "10X Genomics", "10x", "10X", "Chromium 10x", "10x Chromium" },
        es = "Empresa y plataforma de genómica unicelular y espacial que utiliza microfluidica con partición en gotas y códigos de barras específicos por célula para habilitar RNA-seq, ATAC-seq y ensayos multi-ómicos unicelulares de alto rendimiento. Suele referirse al instrumento Chromium y sus formatos de datos.",
        zh = "一家提供单细胞与空间基因组学技术的公司及平台,利用基于液滴的微流控分区与细胞特异性条形码,实现高通量单细胞 RNA-seq、ATAC-seq 与多组学检测。常指其 Chromium 仪器及相关数据格式。",
        term_es = "10x Genomics",
        term_zh = "10x Genomics",
        aliases_es = { "10X", "Chromium 10x" },
        aliases_zh = { "10X", "Chromium", "10x Chromium" },
    }
    
    data["16s rrna"] = {
        short = "The 16S ribosomal RNA gene, a component of the small subunit of bacterial and archaeal ribosomes, whose alternating conserved and variable regions make it the standard marker for taxonomic profiling of prokaryotic communities.",
        article = nil,
        aliases = { "16S rRNA", "16S ribosomal RNA", "16S rRNA gene", "16S", "SSU rRNA (prokaryote)" },
        es = "Gen del ARN ribosómico 16S, componente de la subunidad pequeña del ribosoma de bacterias y arqueas, cuyas regiones conservadas y variables alternantes lo convierten en el marcador estándar para el perfilado taxonómico de comunidades procariotas.",
        zh = "16S 核糖体 RNA 基因,是细菌与古菌核糖体小亚基的组成部分;其交替的保守区与可变区使其成为原核生物群落分类分析的标准标记基因。",
        term_es = "ARNr 16S",
        term_zh = "16S rRNA",
        aliases_es = { "ARN ribosómico 16S", "gen 16S", "16S rRNA" },
        aliases_zh = { "16S 核糖体 RNA", "16S 基因", "16S" },
    }
    
    data["1x1 convolution"] = {
        short = "A convolution with a 1×1 kernel that operates only across channels at each spatial location, used to project, expand, or compress channel dimensions and to add nonlinearity efficiently in modern CNN architectures.",
        article = nil,
        aliases = { "1×1 convolution", "1x1 conv", "1×1 conv", "one-by-one convolution", "pointwise convolution", "1x1 convolutional layer" },
        es = "Convolución con un núcleo de 1×1 que opera únicamente entre canales en cada posición espacial; se utiliza para proyectar, expandir o comprimir las dimensiones de canal y para añadir no linealidad de forma eficiente en arquitecturas modernas de CNN.",
        zh = "使用 1×1 卷积核的卷积,仅在每个空间位置对通道维度进行运算,用于在现代 CNN 架构中投影、扩展或压缩通道维度并高效地引入非线性。",
        term_es = "convolución 1×1",
        term_zh = "1×1 卷积",
        aliases_es = { "convolución uno por uno", "convolución 1x1", "convolución puntual", "1x1 convolution" },
        aliases_zh = { "1x1 卷积", "逐点卷积", "pointwise 卷积", "1×1 conv" },
    }
    
    data["2d qsar"] = {
        short = "Quantitative structure-activity relationship modeling that predicts biological activity from two-dimensional molecular descriptors such as topological indices, fingerprints, and physicochemical features, without using three-dimensional conformations.",
        article = nil,
        aliases = { "2D QSAR", "2D-QSAR", "two-dimensional QSAR", "2D quantitative structure-activity relationship" },
        es = "Modelado QSAR (relación cuantitativa estructura-actividad) que predice la actividad biológica a partir de descriptores moleculares bidimensionales como índices topológicos, huellas digitales (fingerprints) y propiedades fisicoquímicas, sin usar conformaciones tridimensionales.",
        zh = "二维定量构效关系(2D QSAR)建模方法,通过拓扑指数、分子指纹和理化性质等二维描述符预测生物活性,不使用三维构象信息。",
        term_es = "QSAR 2D",
        term_zh = "2D QSAR",
        aliases_es = { "2D QSAR", "QSAR bidimensional", "QSAR 2D" },
        aliases_zh = { "2D QSAR", "二维定量构效关系", "二维 QSAR" },
    }
    
    data["2wikimultihopqa"] = {
        short = "A multi-hop question answering benchmark constructed from Wikipedia and Wikidata; each question is paired with structured evidence chains and requires reasoning over at least two paragraphs.",
        article = nil,
        aliases = { "2WikiMultiHopQA", "2Wiki", "2WikiMultihopQA", "2-Wiki Multi-Hop QA" },
        es = "Un benchmark de preguntas y respuestas multi-hop construido a partir de Wikipedia y Wikidata; cada pregunta se acompaña de cadenas de evidencia estructuradas y requiere razonar sobre al menos dos párrafos.",
        zh = "一个基于维基百科和 Wikidata 构建的多跳问答基准;每个问题都附有结构化证据链,且需要在至少两个段落上进行推理。",
        term_es = "2WikiMultiHopQA",
        term_zh = "2WikiMultiHopQA",
        aliases_es = { "2WikiMultiHopQA", "2Wiki" },
        aliases_zh = { "2WikiMultiHopQA", "2Wiki" },
    }
    
    data["3d alignment"] = {
        short = "Superposition of three-dimensional molecular structures by minimizing differences in atomic positions or pharmacophoric features, used to compare conformers, score similarity, and prepare inputs for 3D-QSAR and structure-based design.",
        article = nil,
        aliases = { "3D alignment", "three-dimensional alignment", "molecular 3D alignment", "3D molecular superposition" },
        es = "Superposición de estructuras moleculares tridimensionales minimizando diferencias en posiciones atómicas o rasgos farmacofóricos, usada para comparar confórmeros, calcular similitud y preparar entradas para QSAR 3D y diseño basado en estructura.",
        zh = "三维分子结构的叠合方法,通过最小化原子位置或药效团特征的差异来对齐分子,用于比较构象、计算相似度,并为 3D QSAR 和基于结构的药物设计提供输入。",
        term_es = "alineación 3D",
        term_zh = "3D 比对",
        aliases_es = { "alineamiento 3D", "superposición 3D", "alineación tridimensional" },
        aliases_zh = { "3D 对齐", "三维比对", "分子三维叠合" },
    }
    
    data["3d gaussian splatting"] = {
        short = "A novel-view-synthesis technique that represents a scene as a set of anisotropic 3D Gaussians and rasterizes them by projection-based splatting, achieving real-time rendering with quality comparable to neural radiance fields.",
        article = nil,
        aliases = { "3DGS", "Gaussian Splatting", "3D-GS", "gaussian splatting" },
        es = "Técnica de síntesis de nuevas vistas que representa una escena como un conjunto de gaussianas 3D anisotrópicas y las rasteriza mediante splatting por proyección, logrando renderizado en tiempo real con calidad comparable a los campos de radiancia neuronal.",
        zh = "一种新视角合成技术,将场景表示为一组各向异性的三维高斯函数,并通过基于投影的 splatting 进行光栅化,在保持与神经辐射场相当质量的同时实现实时渲染。",
        term_es = "splatting gaussiano 3D",
        term_zh = "三维高斯泼溅",
        aliases_es = { "3DGS", "gaussian splatting", "splatting de gaussianas 3D" },
        aliases_zh = { "3D 高斯溅射", "高斯泼溅", "3DGS" },
    }
    
    data["3d molecule diffusion"] = {
        short = "Generative diffusion models that operate directly on three-dimensional atomic coordinates of molecules, producing chemically valid 3D structures by iteratively denoising Gaussian noise in coordinate (and often atom-type) space.",
        article = nil,
        aliases = { "3D molecule diffusion", "3D molecular diffusion", "3D diffusion model for molecules", "3D molecule diffusion model" },
        es = "Modelos generativos de difusión que operan directamente sobre las coordenadas atómicas tridimensionales de las moléculas, produciendo estructuras 3D químicamente válidas mediante la eliminación iterativa de ruido gaussiano en el espacio de coordenadas (y normalmente también de tipos atómicos).",
        zh = "直接在分子三维原子坐标上运行的生成式扩散模型,通过在坐标空间(通常还包括原子类型空间)中迭代去除高斯噪声来生成化学合理的三维分子结构。",
        term_es = "difusión de moléculas 3D",
        term_zh = "三维分子扩散",
        aliases_es = { "modelo de difusión 3D para moléculas", "difusión molecular 3D" },
        aliases_zh = { "3D 分子扩散", "三维分子扩散模型", "3D molecule diffusion" },
    }
    
    data["3d qsar"] = {
        short = "Quantitative structure-activity relationship method that correlates biological activity with three-dimensional molecular fields, typically electrostatic and steric, sampled around aligned conformers; CoMFA and CoMSIA are canonical examples.",
        article = nil,
        aliases = { "3D QSAR", "3D-QSAR", "three-dimensional QSAR", "CoMFA", "CoMSIA", "3D quantitative structure-activity relationship" },
        es = "Método QSAR que correlaciona la actividad biológica con campos moleculares tridimensionales, típicamente electrostáticos y estéricos, muestreados alrededor de confórmeros alineados; CoMFA y CoMSIA son ejemplos canónicos.",
        zh = "将生物活性与三维分子场(通常是静电场和立体场)相关联的定量构效关系方法,需要先对齐构象后在网格点上采样分子场,CoMFA 和 CoMSIA 是经典代表。",
        term_es = "QSAR 3D",
        term_zh = "3D QSAR",
        aliases_es = { "3D QSAR", "QSAR tridimensional", "CoMFA", "CoMSIA" },
        aliases_zh = { "三维定量构效关系", "三维 QSAR", "CoMFA", "CoMSIA" },
    }
    
    data["5-way 1-shot"] = {
        short = "A standard few-shot classification protocol in which each episode contains 5 classes with 1 labeled support example per class, evaluated on unseen query examples drawn from the same 5 classes.",
        article = nil,
        aliases = { "5-way 1 shot", "5 way 1 shot", "5-way-1-shot", "five-way one-shot" },
        es = "Protocolo estándar de clasificación con pocos ejemplos en el que cada episodio contiene 5 clases con 1 ejemplo de soporte etiquetado por clase, evaluado sobre ejemplos de consulta no vistos extraídos de las mismas 5 clases.",
        zh = "少样本分类的标准协议:每个 episode 包含 5 类,每类 1 个带标签的支持样本,并在来自相同 5 类的未见查询样本上评估。",
        term_es = "5-way 1-shot",
        term_zh = "5-way 1-shot",
        aliases_es = { "5-way 1-shot", "5 vías 1 ejemplo", "cinco-vías un-ejemplo" },
        aliases_zh = { "5-way 1-shot", "5 类 1 样本", "五类一样本" },
    }
    
    data["5-way 5-shot"] = {
        short = "A standard few-shot classification protocol with 5 classes per episode and 5 labeled support examples per class, providing a slightly easier setting than 5-way 1-shot.",
        article = nil,
        aliases = { "5-way 5 shot", "5 way 5 shot", "5-way-5-shot", "five-way five-shot" },
        es = "Protocolo estándar de clasificación con pocos ejemplos con 5 clases por episodio y 5 ejemplos de soporte etiquetados por clase, lo que constituye un escenario ligeramente más sencillo que 5-way 1-shot.",
        zh = "少样本分类的标准协议:每个 episode 含 5 类,每类 5 个带标签支持样本,比 5-way 1-shot 略为容易。",
        term_es = "5-way 5-shot",
        term_zh = "5-way 5-shot",
        aliases_es = { "5-way 5-shot", "5 vías 5 ejemplos", "cinco-vías cinco-ejemplos" },
        aliases_zh = { "5-way 5-shot", "5 类 5 样本", "五类五样本" },
    }
    
    data["80% rule"] = {
        short = "A US Equal Employment Opportunity Commission guideline (also called the four-fifths rule) under which a selection rate for any protected group below 80% of the rate for the most-favored group is treated as evidence of adverse impact.",
        article = nil,
        aliases = { "four-fifths rule", "4/5ths rule", "four fifths rule", "eighty percent rule", "EEOC 80% rule" },
        es = "Directriz de la EEOC de EE. UU. (también llamada regla de los cuatro quintos) según la cual una tasa de selección para un grupo protegido inferior al 80% de la del grupo más favorecido se considera evidencia de impacto adverso.",
        zh = "美国平等就业机会委员会(EEOC)的一项准则(又称四五分之规则):当某一受保护群体的录用率低于最优待遇群体录用率的 80% 时,即视为存在不利影响的证据。",
        term_es = "regla del 80%",
        term_zh = "80% 规则",
        aliases_es = { "regla de los cuatro quintos", "regla 4/5", "regla del ochenta por ciento" },
        aliases_zh = { "四五分之规则", "4/5 规则", "八成规则" },
    }
    
    data["a-to-i editing"] = {
        short = "A post-transcriptional RNA editing process in which adenosine residues are deaminated to inosine, catalyzed by ADAR enzymes. Because translation and most sequencing pipelines read inosine as guanosine, A-to-I editing can recode proteins and alter splicing or microRNA targeting.",
        article = nil,
        aliases = { "A-to-I editing", "A→I editing", "adenosine-to-inosine editing", "ADAR editing", "RNA A-to-I editing" },
        es = "Proceso de edición post-transcripcional del ARN en el que residuos de adenosina son desaminados a inosina, catalizado por enzimas ADAR. Como la traducción y la mayoría de los pipelines de secuenciación leen la inosina como guanosina, la edición A-a-I puede recodificar proteínas y alterar el empalme o la unión de microARN.",
        zh = "一种转录后 RNA 编辑过程,由 ADAR 酶催化将腺苷脱氨转化为肌苷。由于翻译机器和大多数测序流程都将肌苷读作鸟苷,A-to-I 编辑可重新编码蛋白质并影响剪接或 microRNA 靶向。",
        term_es = "edición A a I",
        term_zh = "A-to-I 编辑",
        aliases_es = { "edición A→I", "edición de adenosina a inosina", "edición por ADAR" },
        aliases_zh = { "腺苷到肌苷编辑", "ADAR 编辑", "A→I 编辑" },
    }
    
    data["a/b testing"] = {
        short = "A randomized controlled experiment that compares two variants (A and B) of a product, page or treatment by randomly assigning users to one variant and measuring a target outcome metric, yielding an unbiased estimate of the average treatment effect.",
        article = nil,
        aliases = { "A/B test", "AB testing", "AB test", "split testing", "split test", "online controlled experiment", "bucket testing" },
        es = "Experimento controlado aleatorizado que compara dos variantes (A y B) de un producto, página o tratamiento asignando aleatoriamente a los usuarios a una de las variantes y midiendo una métrica de resultado, lo que permite estimar de forma insesgada el efecto medio del tratamiento.",
        zh = "一种随机对照实验,将用户随机分配到产品、页面或处理的两个变体(A 与 B)中的一个,并测量目标指标,从而对平均处理效应进行无偏估计。",
        term_es = "pruebas A/B",
        term_zh = "A/B 测试",
        aliases_es = { "test A/B", "experimentación A/B", "experimento A/B", "prueba A/B" },
        aliases_zh = { "AB 测试", "A/B 实验", "分流测试", "在线对照实验" },
    }
    
    data["a2c"] = {
        short = "A synchronous on-policy actor-critic algorithm that updates the policy using the advantage estimate (return minus state value) and is the deterministic, batched counterpart of A3C.",
        article = nil,
        aliases = { "A2C", "Advantage Actor-Critic", "advantage actor critic", "synchronous advantage actor-critic" },
        es = "Algoritmo actor-crítico on-policy y síncrono que actualiza la política usando la estimación de la ventaja (retorno menos valor del estado), y es la contraparte determinista y por lotes de A3C.",
        zh = "一种同步的同策略 actor-critic 算法,使用优势估计(回报减去状态价值)来更新策略,是 A3C 的确定性批处理对应版本。",
        term_es = "A2C",
        term_zh = "A2C",
        aliases_es = { "actor-crítico de ventaja" },
        aliases_zh = { "优势演员-评论家", "Advantage Actor-Critic" },
    }
    
    data["a3c"] = {
        short = "An asynchronous on-policy actor-critic algorithm in which multiple parallel workers interact with their own copies of the environment and asynchronously update a shared global network, removing the need for a replay buffer.",
        article = nil,
        aliases = { "A3C", "Asynchronous Advantage Actor-Critic", "asynchronous actor-critic" },
        es = "Algoritmo actor-crítico on-policy y asíncrono en el que múltiples workers paralelos interactúan con sus propias copias del entorno y actualizan de forma asíncrona una red global compartida, eliminando la necesidad de un replay buffer.",
        zh = "一种异步的同策略 actor-critic 算法,多个并行工作者与各自的环境副本交互并异步更新共享的全局网络,从而无需经验回放缓冲区。",
        term_es = "A3C",
        term_zh = "A3C",
        aliases_es = { "actor-crítico de ventaja asíncrono" },
        aliases_zh = { "异步优势演员-评论家", "Asynchronous Advantage Actor-Critic" },
    }
    
    data["ab initio folding"] = {
        short = "Predicting the three-dimensional structure of a protein directly from its amino acid sequence without using known homologous templates, typically by sampling conformations under a physics- or fragment-based energy function.",
        article = nil,
        aliases = { "ab initio protein folding", "de novo protein folding", "template-free folding", "ab initio structure prediction" },
        es = "Predicción de la estructura tridimensional de una proteína directamente a partir de su secuencia de aminoácidos, sin emplear plantillas homólogas conocidas, habitualmente muestreando conformaciones bajo una función de energía basada en física o en fragmentos.",
        zh = "在不使用已知同源模板的情况下,仅根据氨基酸序列预测蛋白质三维结构的方法,通常在基于物理或基于片段的能量函数下采样构象。",
        term_es = "plegamiento ab initio",
        term_zh = "从头折叠",
        aliases_es = { "plegamiento de novo", "predicción ab initio de estructura", "plegamiento sin plantilla" },
        aliases_zh = { "无模板折叠", "ab initio 折叠", "de novo 折叠" },
    }
    
    data["abadie kappa"] = {
        short = "A reweighting identity due to Alberto Abadie that, under a local average treatment effect (LATE) framework with a binary instrument, expresses any moment of the outcome among compliers as an expectation involving a kappa weight built from the propensity score; used to estimate complier-specific quantities.",
        article = nil,
        aliases = { "Abadie's kappa", "Abadie kappa weighting", "kappa weighting", "Abadie weighting" },
        es = "Identidad de reponderación debida a Alberto Abadie que, en el marco del efecto medio local del tratamiento (LATE) con un instrumento binario, expresa cualquier momento del resultado entre los cumplidores como una esperanza con un peso kappa construido a partir del puntaje de propensión; sirve para estimar cantidades específicas de los cumplidores.",
        zh = "由 Alberto Abadie 提出的一种重加权恒等式:在二元工具变量的局部平均处理效应(LATE)框架下,将顺从者子总体的任意结果矩表示为以倾向得分构造的 kappa 权重下的期望,用于估计顺从者特定的量。",
        term_es = "kappa de Abadie",
        term_zh = "Abadie kappa",
        aliases_es = { "kappa de Abadie", "ponderación kappa de Abadie", "ponderación de Abadie" },
        aliases_zh = { "Abadie 的 kappa", "Abadie kappa 加权", "kappa 加权" },
    }
    
    data["abdiffuser"] = {
        short = "A diffusion-based generative model for de novo antibody design that jointly samples complementarity-determining region (CDR) sequence and structure, using equivariant networks over residue coordinates.",
        article = nil,
        aliases = { "AbDiffuser", "Ab-Diffuser", "antibody diffuser", "antibody diffusion model" },
        es = "Modelo generativo basado en difusión para el diseño de novo de anticuerpos que muestrea conjuntamente la secuencia y la estructura de las regiones determinantes de complementariedad (CDR), empleando redes equivariantes sobre coordenadas de residuos.",
        zh = "一种基于扩散模型的从头抗体设计方法,使用对残基坐标具有等变性的网络,联合采样互补决定区(CDR)的序列与结构。",
        term_es = "AbDiffuser",
        term_zh = "AbDiffuser",
        aliases_es = { "AbDiffuser", "difusor de anticuerpos" },
        aliases_zh = { "AbDiffuser", "抗体扩散模型" },
    }
    
    data["abduction-action-prediction"] = {
        short = "Pearl's three-step procedure for computing counterfactuals in a structural causal model: (1) abduction — update the distribution of exogenous noise given evidence; (2) action — modify the model with do(X = x); (3) prediction — compute the resulting outcome distribution under the modified model.",
        article = nil,
        aliases = { "abduction action prediction", "abduction, action, prediction", "three-step counterfactual procedure", "Pearl's three steps", "Pearl counterfactual procedure" },
        es = "Procedimiento de tres pasos de Pearl para calcular contrafácticos en un modelo causal estructural: (1) abducción, actualizar la distribución del ruido exógeno dada la evidencia; (2) acción, modificar el modelo con do(X = x); (3) predicción, calcular la distribución del resultado bajo el modelo modificado.",
        zh = "Pearl 提出的在结构因果模型中计算反事实的三步法:(1) 溯因——根据观察证据更新外生噪声的分布;(2) 行动——用 do(X = x) 干预修改模型;(3) 预测——在修改后的模型下计算目标变量的分布。",
        term_es = "abducción-acción-predicción",
        term_zh = "溯因–行动–预测",
        aliases_es = { "abducción, acción, predicción", "procedimiento de tres pasos para contrafácticos", "tres pasos de Pearl" },
        aliases_zh = { "溯因-行动-预测", "三步反事实程序", "Pearl 三步法" },
    }
    
    data["abductive learning"] = {
        short = "A learning paradigm coupling perception via a neural network with abductive logical reasoning over a domain knowledge base, so that hypotheses about latent symbols are inferred jointly from sub-symbolic input and prior rules.",
        article = nil,
        aliases = { "abductive learning", "ABL", "abductive machine learning" },
        es = "Un paradigma de aprendizaje que combina la percepción mediante una red neuronal con el razonamiento abductivo lógico sobre una base de conocimiento del dominio, de modo que las hipótesis sobre símbolos latentes se infieren conjuntamente a partir de la entrada subsimbólica y reglas previas.",
        zh = "一种将基于神经网络的感知与基于领域知识库的溯因逻辑推理相结合的学习范式,通过子符号输入与先验规则共同推断潜在符号的假设。",
        term_es = "aprendizaje abductivo",
        term_zh = "溯因学习",
        aliases_es = { "aprendizaje abductivo", "ABL" },
        aliases_zh = { "溯因学习", "ABL", "外展学习" },
    }
    
    data["abductive natural language inference"] = {
        short = "aNLI: a natural language inference task in which, given two observations, a model must select (or generate) the most plausible explanation that connects them; introduced as a benchmark for commonsense abductive reasoning.",
        article = nil,
        aliases = { "aNLI", "abductive NLI", "abductive natural language inference", "Abductive Reasoning in Narrative Text" },
        es = "aNLI: una tarea de inferencia en lenguaje natural en la que, dadas dos observaciones, el modelo debe seleccionar (o generar) la explicación más plausible que las conecta; se introdujo como banco de pruebas para el razonamiento abductivo de sentido común.",
        zh = "aNLI:一种自然语言推断任务,给定两个观察,模型需要选择(或生成)最合理的解释将其联系起来;作为常识溯因推理基准而被提出。",
        term_es = "aNLI",
        term_zh = "aNLI",
        aliases_es = { "aNLI", "inferencia abductiva en lenguaje natural" },
        aliases_zh = { "aNLI", "溯因自然语言推断" },
    }
    
    data["abductive reasoning"] = {
        short = "Inference to the best (most plausible) explanation: from observations and background knowledge, choose the hypothesis that, if true, would best account for the observations; complements deduction and induction.",
        article = nil,
        aliases = { "abductive reasoning", "abduction", "inference to the best explanation", "IBE" },
        es = "Inferencia a la mejor (más plausible) explicación: a partir de observaciones y conocimiento previo, se elige la hipótesis que, de ser cierta, explicaría mejor las observaciones; complementa la deducción y la inducción.",
        zh = "对最佳(最合理)解释的推断:在观察和背景知识基础上,选择若为真则最能解释观察的假设;与演绎和归纳互为补充。",
        term_es = "razonamiento abductivo",
        term_zh = "溯因推理",
        aliases_es = { "razonamiento abductivo", "abducción", "inferencia a la mejor explicación" },
        aliases_zh = { "溯因推理", "外展推理", "最佳解释推断" },
    }
    
    data["ablation-cam"] = {
        short = "A class-activation-map variant that attributes spatial importance by ablating each feature map and measuring the resulting drop in the target class score, removing the dependence on gradients used by Grad-CAM.",
        article = nil,
        aliases = { "Ablation-CAM", "AblationCAM", "ablation CAM", "ablation class activation mapping" },
        es = "Variante de mapa de activación de clase que atribuye importancia espacial ablacionando cada mapa de características y midiendo la caída resultante en la puntuación de la clase objetivo, eliminando así la dependencia de los gradientes utilizada por Grad-CAM.",
        zh = "一种类激活映射变体,通过消融(屏蔽)每个特征图并测量目标类得分的下降来归因空间重要性,从而消除 Grad-CAM 对梯度的依赖。",
        term_es = "Ablation-CAM",
        term_zh = "Ablation-CAM",
        aliases_es = { "AblationCAM", "mapa de activación de clase por ablación" },
        aliases_zh = { "AblationCAM", "消融类激活映射" },
    }
    
    data["abnumber"] = {
        short = "An open-source Python library for antibody sequence numbering and CDR annotation, wrapping ANARCI to assign Kabat, Chothia, IMGT, AHo, and Martin schemes to variable-region sequences.",
        article = nil,
        aliases = { "AbNumber", "abnumber", "Python AbNumber" },
        es = "Biblioteca de Python de código abierto para la numeración de secuencias de anticuerpos y la anotación de CDR; envuelve ANARCI para asignar los esquemas Kabat, Chothia, IMGT, AHo y Martin a secuencias de la región variable.",
        zh = "开源 Python 库,用于抗体序列编号和 CDR 注释;它封装了 ANARCI,可将 Kabat、Chothia、IMGT、AHo 和 Martin 等编号方案应用于可变区序列。",
        term_es = "AbNumber",
        term_zh = "AbNumber",
        aliases_es = { "AbNumber" },
        aliases_zh = { "AbNumber" },
    }
    
    data["absolute binding free energy"] = {
        short = "The thermodynamic free energy difference between a ligand bound to a target and the same ligand free in solution, computed from end-state simulations rather than relative-to-a-reference perturbations.",
        article = nil,
        aliases = { "ABFE", "absolute binding free energy calculation", "absolute free energy of binding", "absolute BFE" },
        es = "Diferencia de energía libre termodinámica entre un ligando unido a su diana y el mismo ligando libre en disolución, calculada a partir de simulaciones en los estados extremos en lugar de perturbaciones relativas a una referencia.",
        zh = "配体与靶标结合态和在溶液中游离态之间的热力学自由能差,通过端态模拟直接计算,而非相对于参考化合物的相对扰动。",
        term_es = "energía libre de unión absoluta",
        term_zh = "绝对结合自由能",
        aliases_es = { "ABFE", "energía libre absoluta de unión", "cálculo de ABFE" },
        aliases_zh = { "ABFE", "绝对结合自由能计算", "absolute binding free energy" },
    }
    
    data["absolute continuity"] = {
        short = "A property of one measure relative to another in which every set of measure zero in the second has measure zero in the first; equivalently, the Radon-Nikodym theorem guarantees a density between them.",
        article = nil,
        aliases = { "absolutely continuous", "absolutely continuous measure" },
        es = "Propiedad de una medida respecto a otra según la cual todo conjunto de medida cero en la segunda tiene medida cero en la primera; equivalentemente, el teorema de Radon-Nikodym garantiza la existencia de una densidad entre ellas.",
        zh = "一种测度相对于另一测度的性质,要求后者的零测集在前者中也为零测集;等价地,Radon-Nikodym 定理保证了两测度之间存在密度函数。",
        term_es = "continuidad absoluta",
        term_zh = "绝对连续性",
        aliases_es = { "absolutamente continua", "medida absolutamente continua" },
        aliases_zh = { "绝对连续", "绝对连续测度" },
    }
    
    data["absolute convergence"] = {
        short = "A property of an infinite series in which the series of absolute values of its terms also converges; an absolutely convergent series is convergent and may be rearranged without changing its sum.",
        article = nil,
        aliases = { "absolutely convergent", "absolutely convergent series" },
        es = "Propiedad de una serie infinita según la cual la serie formada por los valores absolutos de sus términos también converge; una serie absolutamente convergente es convergente y puede reordenarse sin alterar su suma.",
        zh = "无穷级数的一种性质,要求其各项绝对值组成的级数也收敛;绝对收敛的级数本身收敛,且重排后求和值不变。",
        term_es = "convergencia absoluta",
        term_zh = "绝对收敛",
        aliases_es = { "absolutamente convergente", "serie absolutamente convergente" },
        aliases_zh = { "绝对收敛级数" },
    }
    
    data["absorption"] = {
        short = "The ADMET property describing how a drug crosses biological membranes from its administration site into the systemic circulation; commonly characterized by Caco-2 permeability, intestinal absorption, and oral bioavailability.",
        article = nil,
        aliases = { "drug absorption", "intestinal absorption", "oral absorption" },
        es = "Propiedad ADMET que describe cómo un fármaco atraviesa las membranas biológicas desde el sitio de administración hasta la circulación sistémica; suele caracterizarse mediante permeabilidad Caco-2, absorción intestinal y biodisponibilidad oral.",
        zh = "ADMET 中描述药物从给药部位穿过生物膜进入体循环的性质,常用 Caco-2 透过性、肠道吸收和口服生物利用度来表征。",
        term_es = "absorción",
        term_zh = "吸收",
        aliases_es = { "absorción del fármaco", "absorción intestinal", "absorción oral" },
        aliases_zh = { "药物吸收", "肠道吸收", "口服吸收" },
    }
    
    data["abstaining classifier"] = {
        short = "A classifier that may refuse to predict on inputs it deems too uncertain, returning an abstention symbol; predictions are evaluated only on the accepted subset, trading coverage for selective accuracy.",
        article = nil,
        aliases = { "selective classifier", "classifier with reject option", "reject-option classifier" },
        es = "Clasificador que puede negarse a predecir sobre entradas consideradas demasiado inciertas, devolviendo un símbolo de abstención; las predicciones se evalúan solo sobre el subconjunto aceptado, intercambiando cobertura por precisión selectiva.",
        zh = "一种允许在不确定输入上拒绝预测的分类器,输出弃权标记;仅在被接受的子集上评估预测,以覆盖率换取选择性精度。",
        term_es = "clasificador con abstención",
        term_zh = "弃权分类器",
        aliases_es = { "clasificador selectivo", "clasificador con opción de rechazo" },
        aliases_zh = { "选择性分类器", "拒绝选项分类器" },
    }
    
    data["abstention"] = {
        short = "The option for a model to decline to make a prediction on inputs where its confidence is below a threshold; a core mechanism of selective classification and uncertainty-aware decision systems.",
        article = nil,
        aliases = { "reject option", "prediction abstention", "model abstention" },
        es = "Opción de un modelo de declinar la predicción en entradas cuya confianza está por debajo de un umbral; mecanismo central de la clasificación selectiva y de sistemas de decisión conscientes de la incertidumbre.",
        zh = "模型在置信度低于阈值的输入上选择不作预测的能力;是选择性分类和不确定性感知决策系统的核心机制。",
        term_es = "abstención",
        term_zh = "弃权",
        aliases_es = { "opción de rechazo", "abstención de predicción" },
        aliases_zh = { "拒绝预测", "弃答", "拒绝选项" },
    }
    
    data["abstract meaning representation"] = {
        short = "AMR: a rooted, directed, acyclic graph that encodes the meaning of a sentence as concepts (nodes) and semantic relations (labeled edges), abstracting away from surface syntax and morphology.",
        article = nil,
        aliases = { "AMR", "Abstract Meaning Representation" },
        es = "AMR: un grafo dirigido acíclico con raíz que codifica el significado de una oración como conceptos (nodos) y relaciones semánticas (aristas etiquetadas), abstrayendo la sintaxis y morfología superficiales.",
        zh = "AMR:一种有根有向无环图,将句子的意义编码为概念(节点)和语义关系(带标签的边),从表层句法和形态中抽象出来。",
        term_es = "AMR",
        term_zh = "AMR",
        aliases_es = { "AMR", "representación abstracta de significado" },
        aliases_zh = { "AMR", "抽象语义表示" },
    }
    
    data["abstractive rationale"] = {
        short = "A free-form natural-language explanation generated by a model to justify its prediction, in contrast to extractive rationales that highlight a subset of input tokens.",
        article = nil,
        aliases = { "abstractive explanation", "generated rationale", "free-text rationale", "natural language rationale" },
        es = "Explicación en lenguaje natural de forma libre generada por un modelo para justificar su predicción, en contraste con las explicaciones extractivas que solo resaltan un subconjunto de los tokens de entrada.",
        zh = "由模型生成的自由形式自然语言解释,用于说明其预测理由;与仅突出输入子集的抽取式理由形成对比。",
        term_es = "explicación abstractiva",
        term_zh = "生成式解释",
        aliases_es = { "racional abstractivo", "explicación generada", "racional en texto libre" },
        aliases_zh = { "抽象式理由", "生成式理由", "自由文本理由" },
    }
    
    data["accelerated gradient"] = {
        short = "A class of first-order optimization methods that use momentum, most notably Nesterov's accelerated gradient, to achieve the optimal O(1/k^2) convergence rate on smooth convex problems.",
        article = nil,
        aliases = { "Nesterov accelerated gradient", "NAG", "Nesterov momentum", "accelerated gradient descent", "Nesterov's accelerated gradient" },
        es = "Clase de métodos de optimización de primer orden que utilizan momento, en particular el gradiente acelerado de Nesterov, para alcanzar la tasa óptima de convergencia O(1/k^2) en problemas convexos suaves.",
        zh = "一类引入动量的一阶优化方法,最具代表性的是Nesterov加速梯度,可在光滑凸问题上达到最优的O(1/k^2)收敛率。",
        term_es = "gradiente acelerado",
        term_zh = "加速梯度法",
        aliases_es = { "gradiente acelerado de Nesterov", "NAG", "momento de Nesterov" },
        aliases_zh = { "Nesterov加速梯度", "NAG", "Nesterov动量" },
    }
    
    data["accelerated md"] = {
        short = "An enhanced-sampling molecular dynamics method that adds a non-negative boost potential to the underlying potential energy surface when below a threshold, lowering barriers and accelerating rare transitions while allowing reweighting to recover canonical averages.",
        article = nil,
        aliases = { "aMD", "accelerated molecular dynamics", "accelerated MD" },
        es = "Método de dinámica molecular con muestreo mejorado que añade un potencial de impulso no negativo a la superficie de energía potencial subyacente cuando ésta queda por debajo de un umbral, reduciendo barreras y acelerando transiciones raras; permite reponderar para recuperar promedios canónicos.",
        zh = "一种增强采样的分子动力学方法,当势能低于阈值时叠加一个非负的提升势,从而降低能垒、加速稀有转变,并可通过重加权恢复正则系综平均量。",
        term_es = "dinámica molecular acelerada",
        term_zh = "加速分子动力学",
        aliases_es = { "aMD", "accelerated MD", "DM acelerada" },
        aliases_zh = { "aMD", "加速 MD", "accelerated MD" },
    }
    
    data["accent classification"] = {
        short = "The task of automatically identifying a speaker's regional or non-native accent from a speech recording, typically framed as supervised classification over a fixed accent inventory.",
        article = nil,
        aliases = { "accent identification", "accent recognition", "AID" },
        es = "Tarea de identificar automáticamente el acento regional o no nativo de un hablante a partir de una grabación de voz, normalmente formulada como clasificación supervisada sobre un inventario fijo de acentos.",
        zh = "从语音录音中自动识别说话人地域或非母语口音的任务,通常被建模为针对固定口音类别集的有监督分类问题。",
        term_es = "clasificación de acento",
        term_zh = "口音分类",
        aliases_es = { "identificación de acento", "reconocimiento de acento" },
        aliases_zh = { "口音识别", "口音辨识" },
    }
    
    data["accent conversion"] = {
        short = "A speech generation task that transforms an utterance from a source accent to a target accent while preserving speaker identity and linguistic content.",
        article = nil,
        aliases = { "accent transfer", "voice accent conversion" },
        es = "Tarea de generación de voz que transforma una elocución desde un acento de origen a un acento objetivo, preservando la identidad del hablante y el contenido lingüístico.",
        zh = "一种语音生成任务,将一段话语从源口音转换为目标口音,同时保留说话人身份与语言内容。",
        term_es = "conversión de acento",
        term_zh = "口音转换",
        aliases_es = { "transferencia de acento" },
        aliases_zh = { "口音迁移" },
    }
    
    data["accented speech recognition"] = {
        short = "Automatic speech recognition specialized for or robust to accented speech, where pronunciation deviates from the standard variety used to train mainstream ASR models.",
        article = nil,
        aliases = { "accented ASR", "accent-robust speech recognition", "accent-robust ASR" },
        es = "Reconocimiento automático del habla especializado en o robusto frente a habla con acento, donde la pronunciación se desvía de la variedad estándar utilizada para entrenar modelos ASR convencionales.",
        zh = "针对带口音语音的自动语音识别,旨在对偏离主流 ASR 模型训练所用标准发音的口音保持鲁棒性。",
        term_es = "reconocimiento de habla con acento",
        term_zh = "带口音语音识别",
        aliases_es = { "ASR con acento", "ASR robusto a acentos" },
        aliases_zh = { "口音语音识别", "带口音 ASR" },
    }
    
    data["accountability framework"] = {
        short = "A structured set of policies, roles, processes, and documentation requirements that assigns responsibility for the outcomes of an AI system to identifiable people or organizations, and prescribes how decisions are reviewed and remediated.",
        article = nil,
        aliases = { "AI accountability framework", "accountability structure" },
        es = "Conjunto estructurado de políticas, roles, procesos y requisitos de documentación que asigna a personas u organizaciones identificables la responsabilidad por los resultados de un sistema de IA, y establece cómo se revisan y remedian las decisiones.",
        zh = "一套结构化的政策、角色、流程与文档要求,将 AI 系统结果的责任归属于可识别的个人或组织,并规定如何审查和纠正相关决策。",
        term_es = "marco de rendición de cuentas",
        term_zh = "问责框架",
        aliases_es = { "marco de responsabilidad de IA", "estructura de rendición de cuentas" },
        aliases_zh = { "AI 问责框架", "责任框架" },
    }
    
    data["accountability gap"] = {
        short = "The condition in which harms produced by an AI system cannot be clearly attributed to any party — designer, deployer, operator, or user — leaving affected individuals without an effective avenue for redress.",
        article = nil,
        aliases = { "responsibility gap", "AI accountability gap" },
        es = "Situación en la que los daños producidos por un sistema de IA no pueden atribuirse claramente a ninguna parte —diseñador, implementador, operador o usuario—, dejando a los afectados sin una vía efectiva de reparación.",
        zh = "AI 系统造成的危害无法清晰归责于设计者、部署者、运营者或用户中任何一方的情形,使受影响个体缺乏有效的追责与救济渠道。",
        term_es = "brecha de responsabilidad",
        term_zh = "问责缺口",
        aliases_es = { "vacío de rendición de cuentas", "brecha de rendición de cuentas" },
        aliases_zh = { "责任缺口", "问责真空" },
    }
    
    data["accuracy"] = {
        short = "The fraction of predictions that exactly match the ground-truth label, (TP+TN)/(TP+TN+FP+FN). Standard for balanced classification but misleading on imbalanced data, where a trivial majority predictor can score well.",
        article = nil,
        aliases = { "classification accuracy", "acc", "accuracy score" },
        es = "Fracción de predicciones que coinciden exactamente con la etiqueta verdadera, (TP+TN)/(TP+TN+FP+FN). Es estándar en clasificación balanceada, pero resulta engañosa en datos desbalanceados, donde un predictor trivial de la clase mayoritaria puede obtener buenos valores.",
        zh = "预测与真实标签完全一致的比例,(TP+TN)/(TP+TN+FP+FN)。在类别均衡的分类任务中是常用指标,但在类别不均衡数据上具有误导性——多数类预测器即可获得较高分数。",
        term_es = "exactitud",
        term_zh = "准确率",
        aliases_es = { "precisión global", "acc", "accuracy" },
        aliases_zh = { "正确率", "accuracy" },
    }
    
    data["accuracy disparity"] = {
        short = "A difference in predictive accuracy of a model across demographic subgroups, often measured as the gap between best-served and worst-served groups; a common signal of unfair model performance.",
        article = nil,
        aliases = { "subgroup accuracy disparity", "accuracy disparities" },
        es = "Diferencia en la exactitud predictiva de un modelo entre subgrupos demográficos, medida habitualmente como la brecha entre los grupos mejor y peor atendidos; señal frecuente de desempeño injusto.",
        zh = "模型在不同人口子群体上的预测准确率之差,通常以最优与最劣群体之间的差距衡量,是模型公平性问题的常见信号。",
        term_es = "disparidad de exactitud",
        term_zh = "准确率差异",
        aliases_es = { "disparidad de precisión", "disparidades de exactitud" },
        aliases_zh = { "准确性差异", "子群体准确率差距" },
    }
    
    data["accuracy gap"] = {
        short = "The numerical difference in accuracy (or error rate) between two groups, conditions, or models — for example between majority and minority demographic groups, or between training and deployment populations.",
        article = nil,
        aliases = { "accuracy difference", "error gap" },
        es = "Diferencia numérica en exactitud (o tasa de error) entre dos grupos, condiciones o modelos —por ejemplo entre grupos demográficos mayoritarios y minoritarios, o entre poblaciones de entrenamiento e implementación.",
        zh = "两个群体、条件或模型在准确率(或错误率)上的数值差距,例如多数群体与少数群体之间,或训练与部署人群之间的差异。",
        term_es = "brecha de exactitud",
        term_zh = "准确率差距",
        aliases_es = { "diferencia de precisión", "brecha de error" },
        aliases_zh = { "准确性差距", "误差差距" },
    }
    
    data["accuracy parity"] = {
        short = "A fairness criterion requiring that a classifier achieve equal overall accuracy across protected groups; weaker than equalized odds because it does not constrain false-positive and false-negative rates separately.",
        article = nil,
        aliases = { "overall accuracy equality", "accuracy equality" },
        es = "Criterio de equidad que exige que un clasificador alcance la misma exactitud global en todos los grupos protegidos; más débil que las probabilidades igualadas porque no restringe por separado las tasas de falsos positivos y falsos negativos.",
        zh = "一种公平性标准,要求分类器在所有受保护群体上达到相同的整体准确率;其约束弱于等化几率,因为不分别限制假阳性与假阴性率。",
        term_es = "paridad de exactitud",
        term_zh = "准确率均等",
        aliases_es = { "igualdad de exactitud", "paridad de precisión" },
        aliases_zh = { "整体准确率均等", "准确性均等" },
    }
    
    data["accuracy-fairness tradeoff"] = {
        short = "The empirical observation that enforcing fairness constraints on a model often reduces overall predictive accuracy, requiring practitioners to choose an operating point that balances aggregate performance against equitable treatment.",
        article = nil,
        aliases = { "fairness-accuracy tradeoff", "accuracy fairness trade-off", "fairness accuracy trade-off" },
        es = "Observación empírica de que imponer restricciones de equidad a un modelo suele reducir la exactitud predictiva global, obligando a los profesionales a elegir un punto operativo que equilibre el rendimiento agregado con un trato equitativo.",
        zh = "经验观察表明,对模型施加公平性约束通常会降低整体预测准确率,因此实践者需要在总体性能与公平对待之间选择平衡的工作点。",
        term_es = "compromiso entre exactitud y equidad",
        term_zh = "准确率—公平性权衡",
        aliases_es = { "compensación exactitud-equidad", "trade-off exactitud-equidad" },
        aliases_zh = { "公平性与准确率权衡", "公平—准确率折衷" },
    }
    
    data["accuracy-latency tradeoff"] = {
        short = "The deployment-oriented design tension between predictive quality and inference latency, often optimized jointly in hardware-aware neural architecture search via Pareto fronts.",
        article = nil,
        aliases = { "accuracy/latency tradeoff", "accuracy vs latency tradeoff", "latency-accuracy tradeoff", "accuracy-latency trade-off" },
        es = "Tensión de diseño orientada al despliegue entre la calidad predictiva y la latencia de inferencia, optimizada con frecuencia de manera conjunta en búsqueda de arquitecturas neuronales consciente del hardware mediante frentes de Pareto.",
        zh = "面向部署的预测精度与推理延迟之间的设计权衡,常通过帕累托前沿在硬件感知的神经架构搜索中联合优化。",
        term_es = "compensación precisión-latencia",
        term_zh = "精度-延迟权衡",
        aliases_es = { "compensación precisión/latencia", "trade-off precisión-latencia", "compromiso precisión-latencia" },
        aliases_zh = { "精度-延迟折中", "准确率-延迟权衡", "延迟-精度权衡" },
    }
    
    data["acdc"] = {
        short = "Automatic Circuit DisCovery — a mechanistic-interpretability algorithm that finds the minimal computational subgraph (circuit) in a transformer responsible for a given behavior by iteratively pruning edges in its attention and MLP graph.",
        article = nil,
        aliases = { "ACDC", "Automatic Circuit DisCovery", "automatic circuit discovery" },
        es = "Descubrimiento Automático de Circuitos: algoritmo de interpretabilidad mecanicista que identifica el subgrafo computacional mínimo (circuito) de un transformer responsable de un comportamiento dado, podando iterativamente aristas en su grafo de atención y MLP.",
        zh = "自动电路发现(Automatic Circuit DisCovery):一种机械可解释性算法,通过迭代地修剪 Transformer 注意力和 MLP 图中的边,识别负责特定行为的最小计算子图(电路)。",
        term_es = "ACDC",
        term_zh = "ACDC",
        aliases_es = { "descubrimiento automático de circuitos" },
        aliases_zh = { "自动电路发现" },
    }
    
    data["acoustic echo cancellation"] = {
        short = "A signal processing technique that removes the echo of a loudspeaker signal picked up by a nearby microphone, used in hands-free telephony, conferencing and voice assistants.",
        article = nil,
        aliases = { "AEC", "echo cancellation", "acoustic echo canceller" },
        es = "Técnica de procesamiento de señal que elimina el eco de una señal de altavoz captada por un micrófono cercano, usada en telefonía manos libres, conferencias y asistentes de voz.",
        zh = "一种信号处理技术,用于消除附近麦克风拾取到的扬声器信号回声,广泛应用于免提通话、会议系统和语音助手。",
        term_es = "cancelación de eco acústico",
        term_zh = "声学回声消除",
        aliases_es = { "AEC", "cancelación de eco" },
        aliases_zh = { "AEC", "回声消除" },
    }
    
    data["acoustic event detection"] = {
        short = "The task of detecting and temporally localizing sound events (e.g. a dog bark, glass break, alarm) within an audio stream, producing onset/offset times and class labels.",
        article = nil,
        aliases = { "AED", "sound event detection", "SED", "audio event detection" },
        es = "Tarea de detectar y localizar temporalmente eventos sonoros (por ejemplo, un ladrido, la rotura de un cristal o una alarma) en una señal de audio, produciendo instantes de inicio/fin y etiquetas de clase.",
        zh = "在音频流中检测并在时间上定位声音事件(如狗吠、玻璃破碎、警报)的任务,输出起止时间与类别标签。",
        term_es = "detección de eventos acústicos",
        term_zh = "声学事件检测",
        aliases_es = { "AED", "detección de eventos sonoros", "SED" },
        aliases_zh = { "AED", "声音事件检测", "SED" },
    }
    
    data["acoustic feature"] = {
        short = "A numerical representation extracted from an audio waveform — such as MFCCs, mel-filterbank energies, spectrograms, or pitch — used as input to downstream speech and audio models.",
        article = nil,
        aliases = { "acoustic features", "audio feature", "speech feature" },
        es = "Representación numérica extraída de una forma de onda de audio —como MFCC, energías de banco de filtros mel, espectrogramas o pitch— usada como entrada para modelos de habla y audio.",
        zh = "从音频波形中提取的数值表示,如 MFCC、梅尔滤波器组能量、频谱图或基频,用作下游语音和音频模型的输入。",
        term_es = "característica acústica",
        term_zh = "声学特征",
        aliases_es = { "características acústicas", "rasgo acústico" },
        aliases_zh = { "音频特征", "语音特征" },
    }
    
    data["acoustic model"] = {
        short = "The component of a speech recognition system that maps acoustic features to phonetic or sub-word units. In modern end-to-end ASR it is fused with the language model into a single neural network.",
        article = nil,
        aliases = { "AM", "acoustic models" },
        es = "Componente de un sistema de reconocimiento de voz que asigna características acústicas a unidades fonéticas o subléxicas. En ASR moderno de extremo a extremo se integra con el modelo de lenguaje en una única red neuronal.",
        zh = "语音识别系统中将声学特征映射到音素或子词单元的组件。在现代端到端 ASR 中,它与语言模型融合为单一的神经网络。",
        term_es = "modelo acústico",
        term_zh = "声学模型",
        aliases_es = { "AM", "modelos acústicos" },
        aliases_zh = { "AM" },
    }
    
    data["acoustic model adaptation"] = {
        short = "Techniques for adjusting an acoustic model to a new speaker, channel, or domain using limited target data, such as MAP/MLLR adaptation, i-vector conditioning, or fine-tuning.",
        article = nil,
        aliases = { "AM adaptation", "speaker adaptation", "acoustic adaptation" },
        es = "Técnicas para ajustar un modelo acústico a un nuevo hablante, canal o dominio con datos limitados, como adaptación MAP/MLLR, condicionamiento por i-vectors o ajuste fino.",
        zh = "利用有限目标数据将声学模型调整到新说话人、通道或领域的技术,如 MAP/MLLR 自适应、i-vector 条件化或微调。",
        term_es = "adaptación del modelo acústico",
        term_zh = "声学模型自适应",
        aliases_es = { "adaptación acústica", "adaptación al hablante" },
        aliases_zh = { "声学模型适应", "说话人自适应" },
    }
    
    data["acoustic scene classification"] = {
        short = "The task of assigning an audio recording to a predefined environmental scene category (e.g. street, park, office), typically benchmarked on the DCASE challenge datasets.",
        article = nil,
        aliases = { "ASC", "scene classification" },
        es = "Tarea de asignar una grabación de audio a una categoría de escena ambiental predefinida (por ejemplo, calle, parque, oficina), evaluada habitualmente en los conjuntos de datos del reto DCASE.",
        zh = "将音频录音归入预定义环境场景类别(如街道、公园、办公室)的任务,通常在 DCASE 挑战赛数据集上评估。",
        term_es = "clasificación de escenas acústicas",
        term_zh = "声学场景分类",
        aliases_es = { "ASC", "clasificación de escenas" },
        aliases_zh = { "ASC", "场景分类" },
    }
    
    data["acoustic tokens"] = {
        short = "Discrete codes obtained by quantizing audio with a neural codec (e.g. SoundStream, EnCodec) so that audio can be modeled autoregressively as a sequence, as in AudioLM and VALL-E.",
        article = nil,
        aliases = { "audio tokens", "neural audio codec tokens", "codec tokens" },
        es = "Códigos discretos obtenidos al cuantizar audio con un códec neuronal (por ejemplo, SoundStream o EnCodec) para que el audio pueda modelarse autorregresivamente como una secuencia, como en AudioLM y VALL-E.",
        zh = "通过神经音频编解码器(如 SoundStream、EnCodec)对音频进行量化得到的离散码,使音频可像序列一样自回归建模,如 AudioLM 与 VALL-E 所采用。",
        term_es = "tokens acústicos",
        term_zh = "声学 token",
        aliases_es = { "tokens de audio", "tokens de códec neuronal" },
        aliases_zh = { "音频 token", "音频离散标记", "编解码 token" },
    }
    
    data["acquisition function"] = {
        short = "A function over input space, computed from a Bayesian surrogate's predictive distribution, that scores candidate points by their expected utility; common choices include expected improvement, probability of improvement, UCB, and Thompson sampling.",
        article = nil,
        aliases = { "acquisition functions", "BO acquisition function", "acquisition criterion" },
        es = "Función sobre el espacio de entrada, calculada a partir de la distribución predictiva de un sustituto bayesiano, que puntúa puntos candidatos según su utilidad esperada; opciones comunes incluyen mejora esperada, probabilidad de mejora, UCB y muestreo de Thompson.",
        zh = "在输入空间上定义的函数,基于贝叶斯代理模型的预测分布对候选点的预期效用进行打分;常见选择包括期望改进、改进概率、UCB和Thompson采样。",
        term_es = "función de adquisición",
        term_zh = "采集函数",
        aliases_es = { "criterio de adquisición", "función de adquisición de BO" },
        aliases_zh = { "采集准则", "贝叶斯优化采集函数" },
    }
    
    data["action recognition multimodal"] = {
        short = "Action or activity recognition that fuses multiple input modalities — typically RGB video, optical flow, audio, depth, or skeleton — to classify the action being performed. Multimodal fusion typically improves robustness over single-stream approaches.",
        article = nil,
        aliases = { "multimodal action recognition", "multi-modal action recognition", "multimodal activity recognition" },
        es = "Reconocimiento de acciones o actividades que fusiona múltiples modalidades de entrada —normalmente vídeo RGB, flujo óptico, audio, profundidad o esqueleto— para clasificar la acción que se está realizando. La fusión multimodal suele mejorar la robustez frente a los enfoques monomodales.",
        zh = "融合多种输入模态(通常包括 RGB 视频、光流、音频、深度或骨架)的动作或活动识别任务,用于判别正在进行的动作。多模态融合通常比单流方法更鲁棒。",
        term_es = "reconocimiento de acciones multimodal",
        term_zh = "多模态动作识别",
        aliases_es = { "reconocimiento multimodal de acciones", "reconocimiento de actividades multimodal" },
        aliases_zh = { "多模态行为识别", "多模态活动识别" },
    }
    
    data["action value"] = {
        short = "The expected return obtainable from a given state-action pair when following a specified policy thereafter, denoted Q^π(s,a) = E[G_t | s_t = s, a_t = a, π]. Central to value-based methods such as Q-learning and DQN.",
        article = nil,
        aliases = { "action-value", "action value function", "Q-value", "Q(s,a)" },
        es = "Retorno esperado obtenible desde un par estado-acción dado siguiendo después una política especificada, denotado Q^π(s,a) = E[G_t | s_t = s, a_t = a, π]. Es central en métodos basados en valor como Q-learning y DQN.",
        zh = "在执行指定状态-动作对后再遵循给定策略时可获得的期望回报,记作 Q^π(s,a) = E[G_t | s_t = s, a_t = a, π]。是 Q-learning 和 DQN 等基于价值方法的核心量。",
        term_es = "valor de acción",
        term_zh = "动作价值",
        aliases_es = { "función de valor de acción", "valor Q", "Q(s,a)" },
        aliases_zh = { "动作值", "Q值", "Q(s,a)", "动作价值函数" },
    }
    
    data["actionable recourse"] = {
        short = "A framework introduced by Ustun et al. (2019) that requires algorithmic decision systems to provide affected individuals with concrete, feasible changes to mutable features that would flip an unfavorable prediction.",
        article = nil,
        aliases = { "actionable recourse", "actionable algorithmic recourse", "feasible recourse" },
        es = "Marco propuesto por Ustun et al. (2019) que exige que los sistemas de decisión algorítmica ofrezcan a las personas afectadas cambios concretos y factibles sobre características modificables que permitirían revertir una predicción desfavorable.",
        zh = "Ustun 等人于 2019 年提出的框架,要求算法决策系统向受影响个体提供针对可变特征的具体且可行的改动方案,使不利预测得以翻转。",
        term_es = "recurso accionable",
        term_zh = "可行算法补救",
        aliases_es = { "recurso algorítmico accionable", "recurso factible" },
        aliases_zh = { "可操作算法补救", "可行补救" },
    }
    
    data["activation atlas"] = {
        short = "An interpretability visualization that projects high-dimensional activations of a convolutional network onto a 2D grid using dimensionality reduction, revealing the visual concepts encoded across the layer (Carter et al., 2019).",
        article = nil,
        aliases = { "activation atlas", "activation atlases" },
        es = "Visualización de interpretabilidad que proyecta las activaciones de alta dimensión de una red convolucional sobre una cuadrícula 2D mediante reducción de dimensionalidad, revelando los conceptos visuales codificados en la capa (Carter et al., 2019).",
        zh = "一种可解释性可视化方法,通过降维将卷积网络的高维激活投影到二维网格上,揭示该层所编码的视觉概念(Carter 等人,2019)。",
        term_es = "atlas de activaciones",
        term_zh = "激活图集",
        aliases_es = { "atlas de activación" },
        aliases_zh = { "激活地图集", "激活图谱" },
    }
    
    data["activation checkpointing"] = {
        short = "Synonym for gradient checkpointing: discarding selected forward-pass activations and recomputing them in the backward pass to reduce peak training memory at the cost of additional compute.",
        article = nil,
        aliases = { "activation rematerialization", "activation recomputation", "selective activation recomputation" },
        es = "Sinónimo de checkpointing de gradientes: descartar activaciones seleccionadas del paso hacia adelante y recalcularlas en el paso hacia atrás para reducir la memoria máxima de entrenamiento a costa de cómputo adicional.",
        zh = "梯度检查点的同义说法:在前向传播中丢弃选定的激活,在反向传播时重新计算,以增加少量计算换取显著降低的训练峰值显存。",
        term_es = "checkpointing de activaciones",
        term_zh = "激活检查点",
        aliases_es = { "recomputación de activaciones", "rematerialización de activaciones" },
        aliases_zh = { "激活重计算", "选择性激活重计算" },
    }
    
    data["activation function"] = {
        short = "A nonlinear function applied element-wise to a layer's outputs (e.g., ReLU, sigmoid, tanh, GELU); enables neural networks to model nonlinear relationships.",
        article = nil,
        aliases = { "activation", "nonlinearity" },
        es = "Función no lineal aplicada elemento por elemento a las salidas de una capa (por ejemplo, ReLU, sigmoide, tanh, GELU); permite que las redes neuronales modelen relaciones no lineales.",
        zh = "应用于层输出每个元素的非线性函数(如 ReLU、sigmoid、tanh、GELU);使神经网络能够建模非线性关系。",
        term_es = "función de activación",
        term_zh = "激活函数",
        aliases_es = { "activación", "no linealidad" },
        aliases_zh = { "非线性函数" },
    }
    
    data["activation maximization"] = {
        short = "An interpretability technique that synthesizes the input that maximally activates a specified neuron, channel, or layer, used to visualize the features detected by units in a deep network.",
        article = nil,
        aliases = { "activation maximization", "activation maximisation", "feature visualization", "input optimization" },
        es = "Técnica de interpretabilidad que sintetiza la entrada que activa al máximo una neurona, canal o capa especificada, utilizada para visualizar las características detectadas por las unidades de una red profunda.",
        zh = "一种可解释性技术,通过合成最大化激活指定神经元、通道或层的输入,从而可视化深度网络中各单元所检测到的特征。",
        term_es = "maximización de activación",
        term_zh = "激活最大化",
        aliases_es = { "maximización de activaciones", "visualización de características" },
        aliases_zh = { "特征可视化", "输入优化" },
    }
    
    data["activation patching"] = {
        short = "A causal interpretability method that replaces activations at chosen sites of a model with those recorded from a counterfactual forward pass to localize which components mediate a target behavior. Also called causal tracing.",
        article = nil,
        aliases = { "activation patching", "causal tracing", "patching", "causal mediation analysis" },
        es = "Método de interpretabilidad causal que reemplaza las activaciones en puntos elegidos de un modelo por las registradas en un paso hacia adelante contrafactual, con el fin de localizar qué componentes median un comportamiento objetivo. También se denomina trazado causal.",
        zh = "一种因果可解释性方法,将模型中所选位置的激活替换为反事实前向传播中记录的激活,用以定位负责目标行为的组件,亦称为因果追踪。",
        term_es = "parcheado de activaciones",
        term_zh = "激活修补",
        aliases_es = { "trazado causal", "parcheo de activaciones" },
        aliases_zh = { "因果追踪", "激活打补丁" },
    }
    
    data["activation steering"] = {
        short = "An inference-time technique that adds learned direction vectors to a model's hidden states to bias its outputs toward a desired behavior, style, or concept without updating model weights.",
        article = nil,
        aliases = { "activation steering", "steering vectors", "representation engineering", "activation addition", "ActAdd" },
        es = "Técnica aplicada en tiempo de inferencia que añade vectores de dirección aprendidos a los estados ocultos de un modelo para sesgar sus salidas hacia un comportamiento, estilo o concepto deseado, sin actualizar los pesos del modelo.",
        zh = "一种推理时技术,通过向模型隐藏状态中加入学习得到的方向向量,使输出偏向期望的行为、风格或概念,而无需更新模型权重。",
        term_es = "dirección de activaciones",
        term_zh = "激活引导",
        aliases_es = { "vectores de dirección", "ingeniería de representaciones" },
        aliases_zh = { "引导向量", "激活加法", "表征工程" },
    }
    
    data["activation-aware quantization"] = {
        short = "A weight-quantization method for large language models that selects per-channel scaling using statistics of the activations, preserving the weights most important to the layer's outputs to reduce accuracy loss at low bit widths.",
        article = nil,
        aliases = { "AWQ", "Activation-aware Weight Quantization", "activation aware quantization" },
        es = "Método de cuantización de pesos para grandes modelos de lenguaje que selecciona el escalado por canal a partir de estadísticas de las activaciones, preservando los pesos más relevantes para la salida de la capa y reduciendo así la pérdida de precisión a bajas profundidades de bits.",
        zh = "一种面向大型语言模型的权重量化方法,依据激活值的统计信息选择逐通道缩放,保留对该层输出最关键的权重,从而在低比特位宽下减少精度损失。",
        term_es = "cuantización consciente de activaciones",
        term_zh = "激活感知量化",
        aliases_es = { "AWQ", "cuantización AWQ" },
        aliases_zh = { "AWQ", "激活感知权重量化" },
    }
    
    data["active learning"] = {
        short = "A learning setting in which the model interactively selects which examples to be labeled next, aiming to maximize performance per labeling effort by querying the most informative samples.",
        article = nil,
        aliases = { "AL", "query learning" },
        es = "Marco de aprendizaje en el que el modelo selecciona de forma interactiva qué ejemplos deben ser etiquetados a continuación, con el fin de maximizar el rendimiento por esfuerzo de etiquetado consultando las muestras más informativas.",
        zh = "一种学习设定,模型交互式地选择接下来要标注的样本,通过查询最具信息量的样本来最大化每次标注的收益。",
        term_es = "aprendizaje activo",
        term_zh = "主动学习",
        aliases_es = { "AL", "aprendizaje por consultas" },
        aliases_zh = { "active learning", "查询学习" },
    }
    
    data["activity cliff"] = {
        short = "A pair of structurally very similar molecules whose biological activities differ by orders of magnitude, breaking the smoothness assumption of QSAR models and serving as a stress test for molecular property predictors.",
        article = nil,
        aliases = { "activity cliffs", "AC", "structure-activity cliff" },
        es = "Par de moléculas estructuralmente muy similares cuya actividad biológica difiere en órdenes de magnitud, lo que rompe la hipótesis de suavidad de los modelos QSAR y sirve como prueba de estrés para los predictores de propiedades moleculares.",
        zh = "结构高度相似但生物活性相差数个数量级的分子对,它打破了 QSAR 模型的连续性假设,常被用作分子性质预测器的难例测试。",
        term_es = "acantilado de actividad",
        term_zh = "活性悬崖",
        aliases_es = { "activity cliff", "acantilados de actividad", "AC" },
        aliases_zh = { "活性断崖", "活性悬崖对", "activity cliff" },
    }
    
    data["actor-critic"] = {
        short = "A class of reinforcement learning architectures combining a parameterized policy (the actor), which selects actions, with a learned value function (the critic), which evaluates them and provides lower-variance gradient signals to update the actor.",
        article = nil,
        aliases = { "actor critic", "actor-critic methods", "actor-critic algorithm" },
        es = "Familia de arquitecturas de aprendizaje por refuerzo que combinan una política parametrizada (el actor), que selecciona acciones, con una función de valor aprendida (el crítico), que las evalúa y proporciona señales de gradiente con menor varianza para actualizar al actor.",
        zh = "一类强化学习架构,将参数化策略(actor,行动者)与学习得到的价值函数(critic,评判者)结合:行动者负责选择动作,评判者负责评估这些动作,并向行动者提供方差更低的梯度信号以进行更新。",
        term_es = "actor-crítico",
        term_zh = "行动者-评判者",
        aliases_es = { "actor crítico", "métodos actor-crítico" },
        aliases_zh = { "actor-critic", "演员-评论家", "演员-评判家" },
    }
    
    data["ad targeting bias"] = {
        short = "Systematic skew in which advertising platforms deliver ads for jobs, housing, credit, or other opportunities disproportionately to or away from particular demographic groups, even absent advertiser intent.",
        article = nil,
        aliases = { "advertising targeting bias", "ad delivery bias", "advertising delivery bias" },
        es = "Sesgo sistemático por el cual las plataformas publicitarias entregan anuncios de empleo, vivienda, crédito u otras oportunidades de forma desproporcionada hacia o lejos de determinados grupos demográficos, incluso sin intención del anunciante.",
        zh = "广告平台在投放就业、住房、信贷等机会类广告时,对特定人口群体出现系统性偏向或排除的现象,即便广告主并无此意图。",
        term_es = "sesgo de segmentación publicitaria",
        term_zh = "广告定向偏差",
        aliases_es = { "sesgo en la entrega de anuncios", "sesgo de targeting publicitario" },
        aliases_zh = { "广告投放偏差", "广告定位偏见" },
    }
    
    data["ad-psgd"] = {
        short = "Asynchronous Decentralized Parallel Stochastic Gradient Descent (Lian et al., 2018): a peer-to-peer SGD variant in which workers asynchronously average parameters with random neighbors over a communication graph.",
        article = nil,
        aliases = { "AD-PSGD", "Asynchronous Decentralized Parallel SGD", "asynchronous decentralized parallel stochastic gradient descent" },
        es = "Asynchronous Decentralized Parallel Stochastic Gradient Descent (Lian et al., 2018): variante peer-to-peer de SGD en la que los trabajadores promedian asincrónicamente sus parámetros con vecinos aleatorios sobre un grafo de comunicación.",
        zh = "异步去中心化并行随机梯度下降(Lian 等人,2018),一种点对点 SGD 变体,工作节点在通信图上与随机邻居异步地对参数取平均。",
        term_es = "AD-PSGD",
        term_zh = "AD-PSGD",
        aliases_es = { "AD-PSGD", "SGD paralelo descentralizado asíncrono" },
        aliases_zh = { "AD-PSGD", "异步去中心化并行 SGD", "异步分布式并行随机梯度下降" },
    }
    
    data["adadelta"] = {
        short = "An adaptive learning rate optimizer that addresses AdaGrad's monotonically decreasing rate by replacing the cumulative sum of squared gradients with an exponentially decaying average, eliminating the need for a manual base learning rate.",
        article = nil,
        aliases = { "AdaDelta", "Adadelta" },
        es = "Optimizador con tasa de aprendizaje adaptativa que aborda el decaimiento monótono de AdaGrad sustituyendo la suma acumulada de gradientes al cuadrado por un promedio con decaimiento exponencial, eliminando la necesidad de fijar manualmente una tasa base.",
        zh = "一种自适应学习率优化器,通过将累积平方梯度和替换为指数衰减平均,解决了 AdaGrad 学习率单调递减的问题,无需手动设置基础学习率。",
        term_es = "AdaDelta",
        term_zh = "AdaDelta",
        aliases_es = {},
        aliases_zh = {},
    }
    
    data["adagrad"] = {
        short = "An adaptive learning rate optimizer that scales each parameter's update by the inverse square root of the sum of all past squared gradients, giving smaller steps to frequently updated parameters.",
        article = nil,
        aliases = { "AdaGrad", "Adagrad", "adaptive gradient algorithm" },
        es = "Optimizador con tasa de aprendizaje adaptativa que escala la actualización de cada parámetro por la raíz cuadrada inversa de la suma de todos los gradientes pasados al cuadrado, asignando pasos más pequeños a los parámetros actualizados con frecuencia.",
        zh = "一种自适应学习率优化器,将每个参数的更新按所有过去梯度平方和的平方根倒数进行缩放,使频繁更新的参数获得较小步长。",
        term_es = "AdaGrad",
        term_zh = "AdaGrad",
        aliases_es = { "algoritmo de gradiente adaptativo" },
        aliases_zh = { "自适应梯度算法" },
    }
    
    data["adaloss"] = {
        short = "An adaptive loss-weighting method for multi-task and multi-objective training that automatically rebalances task losses based on their relative magnitudes or learning progress.",
        article = nil,
        aliases = { "AdaLoss", "Ada-Loss", "adaptive loss balancing" },
        es = "Método adaptativo de ponderación de pérdidas para entrenamiento multitarea y multiobjetivo que reequilibra automáticamente las pérdidas de cada tarea según sus magnitudes relativas o su progreso de aprendizaje.",
        zh = "用于多任务和多目标训练的自适应损失加权方法,根据各任务损失的相对幅度或学习进度自动重新平衡。",
        term_es = "AdaLoss",
        term_zh = "AdaLoss",
        aliases_es = { "AdaLoss", "Ada-Loss", "ponderación adaptativa de pérdidas" },
        aliases_zh = { "AdaLoss", "自适应损失加权", "自适应多任务损失" },
    }
    
    data["adam"] = {
        short = "An adaptive learning rate optimizer that combines momentum with per-parameter rate scaling using estimates of first and second moments of the gradients. One of the most widely used optimizers in deep learning.",
        article = "Adam A Method for Stochastic Optimization",
        aliases = { "Adam", "Adam optimizer", "Adam optimiser", "adaptive moment estimation" },
        es = "Optimizador con tasa de aprendizaje adaptativa que combina momentum con escalado por parámetro usando estimaciones del primer y segundo momento de los gradientes. Uno de los optimizadores más utilizados en aprendizaje profundo.",
        zh = "一种自适应学习率优化器,通过梯度的一阶矩和二阶矩估计将动量与逐参数速率缩放相结合。深度学习中使用最广泛的优化器之一。",
        term_es = "Adam",
        term_zh = "Adam",
        aliases_es = { "optimizador Adam", "estimación adaptativa de momentos" },
        aliases_zh = { "Adam 优化器", "自适应矩估计" },
    }
    
    data["adams-bashforth method"] = {
        short = "A family of explicit linear multistep methods for solving ordinary differential equations that approximates the solution at the next step using a polynomial interpolation of the derivative at several previous steps.",
        article = nil,
        aliases = { "Adams-Bashforth", "Adams–Bashforth method", "Adams-Bashforth scheme" },
        es = "Familia de métodos multipaso lineales explícitos para resolver ecuaciones diferenciales ordinarias que aproxima la solución en el paso siguiente mediante interpolación polinómica de la derivada en varios pasos anteriores.",
        zh = "一族用于求解常微分方程的显式线性多步法,通过对前几步导数进行多项式插值来逼近下一步的解。",
        term_es = "método de Adams-Bashforth",
        term_zh = "Adams-Bashforth 方法",
        aliases_es = { "Adams-Bashforth", "esquema de Adams-Bashforth" },
        aliases_zh = { "Adams-Bashforth 法", "亚当斯-巴什福斯方法" },
    }
    
    data["adamw"] = {
        short = "A variant of Adam that decouples weight decay from the gradient-based update, applying decay directly to the parameters. Often outperforms Adam with L2 regularization on transformer training.",
        article = nil,
        aliases = { "AdamW", "Adam with decoupled weight decay", "decoupled weight decay Adam" },
        es = "Variante de Adam que desacopla el decaimiento de pesos de la actualización basada en gradiente, aplicando el decaimiento directamente sobre los parámetros. Suele superar a Adam con regularización L2 en el entrenamiento de transformers.",
        zh = "Adam 的一种变体,将权重衰减与基于梯度的更新解耦,直接对参数应用衰减。在 transformer 训练中通常优于使用 L2 正则化的 Adam。",
        term_es = "AdamW",
        term_zh = "AdamW",
        aliases_es = { "Adam con weight decay desacoplado" },
        aliases_zh = { "AdamW 优化器", "解耦权重衰减 Adam" },
    }
    
    data["adapter trimming"] = {
        short = "A preprocessing step for high-throughput sequencing reads that detects and removes the synthetic adapter oligonucleotides ligated during library preparation, preventing them from being mismapped or misinterpreted during downstream alignment and variant calling.",
        article = nil,
        aliases = { "adapter clipping", "adapter removal", "read trimming", "sequencing adapter trimming" },
        es = "Paso de preprocesamiento de lecturas de secuenciación de alto rendimiento que detecta y elimina los oligonucleótidos adaptadores sintéticos ligados durante la preparación de la biblioteca, evitando que sean alineados o interpretados incorrectamente en pasos posteriores.",
        zh = "高通量测序数据的预处理步骤,识别并去除文库制备过程中连接的人工接头序列,避免其在后续比对和变异检测中被错配或误解。",
        term_es = "recorte de adaptadores",
        term_zh = "接头修剪",
        aliases_es = { "eliminación de adaptadores", "trimming de adaptadores", "recorte de lecturas" },
        aliases_zh = { "接头去除", "adapter trimming", "adapter 修剪" },
    }
    
    data["adapter tuning"] = {
        short = "A parameter-efficient fine-tuning approach that inserts small trainable bottleneck modules (adapters) between or within the layers of a frozen pretrained model, leaving the original parameters unchanged.",
        article = nil,
        aliases = { "adapters", "adapter modules", "adapter-based tuning", "Houlsby adapters" },
        es = "Enfoque de ajuste fino eficiente en parámetros que inserta pequeños módulos cuello-de-botella entrenables (adaptadores) entre o dentro de las capas de un modelo preentrenado congelado, dejando inalterados los parámetros originales.",
        zh = "一种参数高效微调方法,在冻结的预训练模型的层之间或层内插入小型可训练瓶颈模块(适配器),原始参数保持不变。",
        term_es = "ajuste con adaptadores",
        term_zh = "适配器微调",
        aliases_es = { "adaptadores", "módulos adaptadores", "ajuste basado en adaptadores" },
        aliases_zh = { "适配器调优", "适配器模块", "Adapter Tuning" },
    }
    
    data["adaptive calibration error"] = {
        short = "A calibration metric that, unlike fixed-bin ECE, places bin boundaries so each bin contains an equal number of predictions, reducing sensitivity to bin choice and giving more reliable estimates on imbalanced confidence distributions.",
        article = nil,
        aliases = { "ACE", "adaptive ECE", "adaptive expected calibration error" },
        es = "Métrica de calibración que, a diferencia del ECE de bins fijos, sitúa los límites de los bins de modo que cada uno contenga el mismo número de predicciones, reduciendo la sensibilidad a la elección de bins y dando estimaciones más fiables en distribuciones de confianza desequilibradas.",
        zh = "一种校准指标,与固定分箱的ECE不同,其分箱边界使每个箱包含数量相等的预测,从而降低对分箱选择的敏感度,在置信度分布不均衡时给出更可靠的估计。",
        term_es = "error de calibración adaptativo",
        term_zh = "自适应校准误差",
        aliases_es = { "ACE", "ECE adaptativo" },
        aliases_zh = { "ACE", "自适应ECE", "自适应期望校准误差" },
    }
    
    data["adaptive learning rate"] = {
        short = "A learning rate that varies during training, either per parameter (as in Adam or RMSProp) or over time according to a schedule, instead of remaining a fixed scalar.",
        article = nil,
        aliases = { "adaptive step size" },
        es = "Tasa de aprendizaje que varía durante el entrenamiento, ya sea por parámetro (como en Adam o RMSProp) o a lo largo del tiempo según un calendario, en lugar de mantenerse como un escalar fijo.",
        zh = "在训练过程中变化的学习率,可以按参数(如 Adam、RMSProp)或按时间表进行调整,而非固定为常数。",
        term_es = "tasa de aprendizaje adaptativa",
        term_zh = "自适应学习率",
        aliases_es = { "tamaño de paso adaptativo" },
        aliases_zh = { "自适应步长" },
    }
    
    data["adaptive optimizer"] = {
        short = "An optimization algorithm that adjusts a per-parameter learning rate from statistics of past gradients, such as Adam, RMSProp, AdaGrad, and AdamW.",
        article = nil,
        aliases = { "adaptive optimization method", "adaptive gradient method" },
        es = "Algoritmo de optimización que ajusta una tasa de aprendizaje por parámetro a partir de estadísticas de gradientes pasados, como Adam, RMSProp, AdaGrad y AdamW.",
        zh = "根据历史梯度统计为每个参数调整学习率的优化算法,例如 Adam、RMSProp、AdaGrad 和 AdamW。",
        term_es = "optimizador adaptativo",
        term_zh = "自适应优化器",
        aliases_es = { "método adaptativo de gradiente" },
        aliases_zh = { "自适应梯度方法" },
    }
    
    data["adaptive personalization federated"] = {
        short = "An adaptive-personalization federated-learning approach in which each client interpolates between a globally shared model and a locally trained one, with the mixing weight tuned per client.",
        article = nil,
        aliases = { "adaptive personalization in federated learning", "adaptive personalized federated learning", "APFL" },
        es = "Enfoque de aprendizaje federado con personalización adaptativa en el que cada cliente interpola entre un modelo global compartido y uno entrenado localmente, ajustando por cliente el peso de mezcla.",
        zh = "一类自适应个性化联邦学习方法,每个客户端在共享的全局模型与本地训练模型之间进行插值,并按客户端调整混合权重。",
        term_es = "personalización adaptativa federada",
        term_zh = "自适应个性化联邦学习",
        aliases_es = { "personalización adaptativa en aprendizaje federado", "APFL" },
        aliases_zh = { "联邦学习中的自适应个性化", "APFL" },
    }
    
    data["adaptive pooling"] = {
        short = "A pooling operation in which the user specifies the desired output size and the kernel size and stride are computed automatically, allowing the same network to accept inputs of varying spatial dimensions.",
        article = nil,
        aliases = { "adaptive avg pooling", "adaptive average pooling", "adaptive max pooling", "AdaptiveAvgPool", "AdaptiveMaxPool" },
        es = "Operación de pooling en la que el usuario especifica el tamaño de salida deseado y el tamaño del núcleo y el stride se calculan automáticamente, permitiendo que la misma red acepte entradas con dimensiones espaciales variables.",
        zh = "一种池化操作,用户指定所需的输出尺寸,核大小和步长由系统自动计算,使同一网络能够接受不同空间尺寸的输入。",
        term_es = "adaptive pooling",
        term_zh = "自适应池化",
        aliases_es = { "pooling adaptativo", "agrupación adaptativa" },
        aliases_zh = { "adaptive pooling", "自适应平均池化", "自适应最大池化" },
    }
    
    data["adaptive quadrature"] = {
        short = "A class of numerical integration methods that recursively subdivide the integration interval based on a local error estimate, concentrating evaluations where the integrand varies most.",
        article = nil,
        aliases = { "adaptive integration", "adaptive numerical integration" },
        es = "Clase de métodos de integración numérica que subdividen recursivamente el intervalo de integración con base en una estimación local del error, concentrando las evaluaciones donde el integrando varía más.",
        zh = "一类数值积分方法,根据局部误差估计递归地细分积分区间,将计算集中在被积函数变化最剧烈的区域。",
        term_es = "cuadratura adaptativa",
        term_zh = "自适应求积",
        aliases_es = { "integración adaptativa", "integración numérica adaptativa" },
        aliases_zh = { "自适应积分", "自适应数值积分" },
    }
    
    data["adaptive rag"] = {
        short = "A retrieval-augmented generation strategy that dynamically selects between answering directly, performing a single retrieval, or running a multi-step retrieval loop based on an estimate of query complexity.",
        article = nil,
        aliases = { "Adaptive-RAG", "adaptive retrieval-augmented generation", "query-adaptive RAG" },
        es = "Estrategia de generación aumentada con recuperación que selecciona dinámicamente entre responder directamente, realizar una sola recuperación o ejecutar un bucle de recuperación de múltiples pasos según una estimación de la complejidad de la consulta.",
        zh = "一种检索增强生成策略,根据对查询复杂度的估计,动态地在直接作答、单次检索或多步检索循环之间进行选择。",
        term_es = "RAG adaptativo",
        term_zh = "自适应 RAG",
        aliases_es = { "Adaptive-RAG", "generación aumentada con recuperación adaptativa" },
        aliases_zh = { "Adaptive-RAG", "自适应检索增强生成" },
    }
    
    data["adaptive tts"] = {
        short = "Text-to-speech systems that adapt to a target speaker, style, or prosody from a small amount of reference audio, often via speaker embeddings or few-shot fine-tuning.",
        article = nil,
        aliases = { "adaptive TTS", "voice adaptation TTS", "speaker-adaptive TTS", "few-shot TTS" },
        es = "Sistemas de síntesis de voz que se adaptan a un hablante, estilo o prosodia objetivo a partir de una pequeña cantidad de audio de referencia, frecuentemente mediante embeddings de hablante o ajuste fino con pocos ejemplos.",
        zh = "能够根据少量参考音频适配目标说话人、风格或韵律的文本到语音系统,通常借助说话人嵌入或少样本微调实现。",
        term_es = "TTS adaptativo",
        term_zh = "自适应 TTS",
        aliases_es = { "síntesis de voz adaptativa", "TTS de pocos ejemplos" },
        aliases_zh = { "自适应语音合成", "少样本 TTS" },
    }
    
    data["additive noise model"] = {
        short = "A structural causal model in which each variable is generated as a deterministic function of its parents plus an independent additive noise term, Y = f(X) + N with N ⫫ X; widely used as an identifiability assumption in causal discovery from observational data.",
        article = nil,
        aliases = { "ANM", "additive noise SCM", "additive-noise model", "additive noise structural causal model" },
        es = "Modelo causal estructural en el que cada variable se genera como una función determinista de sus padres más un término de ruido aditivo independiente, Y = f(X) + N con N ⫫ X; se utiliza ampliamente como supuesto de identificabilidad en el descubrimiento causal a partir de datos observacionales.",
        zh = "一种结构因果模型,每个变量被建模为其父节点的确定性函数加上独立的加性噪声项,即 Y = f(X) + N,且 N 与 X 独立;在基于观察数据的因果发现中常作为可识别性假设使用。",
        term_es = "modelo de ruido aditivo",
        term_zh = "加性噪声模型",
        aliases_es = { "ANM", "modelo causal con ruido aditivo", "modelo estructural con ruido aditivo" },
        aliases_zh = { "ANM", "加性噪声因果模型", "加性噪声结构因果模型" },
    }
    
    data["additive secret sharing"] = {
        short = "A cryptographic primitive that splits a secret into shares whose sum (modulo a prime or 2^k) equals the secret; the basis for many secure multi-party computation and federated-learning protocols.",
        article = nil,
        aliases = { "additive sharing", "additive secret-sharing", "arithmetic secret sharing" },
        es = "Primitiva criptográfica que divide un secreto en partes cuya suma (módulo un primo o 2^k) reconstruye el secreto; base de muchos protocolos de cómputo multiparte seguro y aprendizaje federado.",
        zh = "一种密码学原语,将秘密拆分为若干份,使其在素数或 2^k 模下之和等于该秘密;是众多安全多方计算和联邦学习协议的基础。",
        term_es = "compartición aditiva de secretos",
        term_zh = "加性秘密共享",
        aliases_es = { "compartición aditiva", "secret sharing aditivo", "compartición aritmética de secretos" },
        aliases_zh = { "加性份额", "加法秘密共享", "算术秘密共享" },
    }
    
    data["adjoint operator"] = {
        short = "For a bounded linear operator A on a Hilbert space, the unique operator A* satisfying ⟨Ax, y⟩ = ⟨x, A*y⟩ for all x, y; it generalizes the conjugate transpose of a matrix to infinite-dimensional settings.",
        article = nil,
        aliases = { "adjoint", "Hermitian adjoint", "operator adjoint" },
        es = "Para un operador lineal acotado A en un espacio de Hilbert, el único operador A* que cumple ⟨Ax, y⟩ = ⟨x, A*y⟩ para todo x, y; generaliza la transpuesta conjugada de una matriz al caso de dimensión infinita.",
        zh = "对于希尔伯特空间上的有界线性算子 A,满足 ⟨Ax, y⟩ = ⟨x, A*y⟩ 的唯一算子 A*;它将矩阵的共轭转置推广到无限维空间。",
        term_es = "operador adjunto",
        term_zh = "伴随算子",
        aliases_es = { "adjunto", "adjunto hermítico" },
        aliases_zh = { "共轭算子", "Hermite 伴随" },
    }
    
    data["adjustment formula"] = {
        short = "The g-formula expressing a causal effect as a weighted average of conditional outcome means over a valid adjustment set Z, P(Y | do(X=x)) = Σ_z P(Y | X=x, Z=z) P(Z=z); the workhorse identification result for backdoor adjustment.",
        article = nil,
        aliases = { "g-formula", "adjustment identity", "covariate adjustment formula", "backdoor adjustment formula" },
        es = "La fórmula g, que expresa un efecto causal como un promedio ponderado de las medias condicionales del resultado sobre un conjunto de ajuste válido Z, P(Y | do(X=x)) = Σ_z P(Y | X=x, Z=z) P(Z=z); es el resultado central de identificación para el ajuste por puerta trasera.",
        zh = "g 公式,将因果效应表达为在有效调整集 Z 上对条件结果均值的加权平均:P(Y | do(X=x)) = Σ_z P(Y | X=x, Z=z) P(Z=z);这是后门调整最核心的可识别性结果。",
        term_es = "fórmula de ajuste",
        term_zh = "调整公式",
        aliases_es = { "fórmula g", "fórmula de ajuste por covariables", "fórmula de ajuste por puerta trasera", "identidad de ajuste" },
        aliases_zh = { "g 公式", "协变量调整公式", "后门调整公式" },
    }
    
    data["adjustment set"] = {
        short = "A set of observed variables Z whose conditioning identifies the causal effect of X on Y via the adjustment formula; in a DAG, a valid adjustment set must block all backdoor paths from X to Y without including descendants of X on causal paths.",
        article = nil,
        aliases = { "valid adjustment set", "covariate adjustment set", "confounder adjustment set", "backdoor adjustment set" },
        es = "Conjunto de variables observadas Z cuya condicionalización identifica el efecto causal de X sobre Y mediante la fórmula de ajuste; en un DAG, un conjunto de ajuste válido debe bloquear todos los caminos por puerta trasera de X a Y sin incluir descendientes de X que estén en caminos causales.",
        zh = "一组可观测变量 Z,对其取条件可通过调整公式识别 X 对 Y 的因果效应;在有向无环图中,有效的调整集必须阻断 X 到 Y 的所有后门路径,且不包含位于因果路径上的 X 的后代。",
        term_es = "conjunto de ajuste",
        term_zh = "调整集",
        aliases_es = { "conjunto de ajuste válido", "conjunto de ajuste por covariables", "conjunto de ajuste de confusores" },
        aliases_zh = { "有效调整集", "协变量调整集", "后门调整集", "混杂调整集" },
    }
    
    data["adme"] = {
        short = "Absorption, distribution, metabolism, and excretion: the four pharmacokinetic properties that govern how a compound moves through the body and that drug discovery seeks to optimize alongside potency.",
        article = nil,
        aliases = { "ADME", "absorption distribution metabolism excretion", "ADME properties" },
        es = "Absorción, distribución, metabolismo y excreción: las cuatro propiedades farmacocinéticas que rigen cómo un compuesto se mueve por el organismo y que el descubrimiento de fármacos busca optimizar junto con la potencia.",
        zh = "吸收、分布、代谢、排泄(ADME):决定化合物在体内运动的四项药代动力学性质,是药物发现中与活性同等重要的优化目标。",
        term_es = "ADME",
        term_zh = "ADME",
        aliases_es = { "ADME", "absorción distribución metabolismo excreción", "propiedades ADME" },
        aliases_zh = { "ADME", "吸收分布代谢排泄", "ADME 性质" },
    }
    
    data["admet"] = {
        short = "Absorption, distribution, metabolism, excretion, and toxicity: the extension of ADME with toxicity endpoints, used as the core property panel for assessing drug-likeness and developability of candidate compounds.",
        article = nil,
        aliases = { "ADMET", "ADME-Tox", "ADME/Tox", "absorption distribution metabolism excretion toxicity" },
        es = "Absorción, distribución, metabolismo, excreción y toxicidad: extensión de ADME con criterios de toxicidad, utilizada como panel central de propiedades para evaluar la calidad farmacológica y desarrollabilidad de compuestos candidatos.",
        zh = "吸收、分布、代谢、排泄与毒性(ADMET):在 ADME 基础上加入毒性终点,是评估候选化合物成药性和可开发性的核心性质组合。",
        term_es = "ADMET",
        term_zh = "ADMET",
        aliases_es = { "ADMET", "ADME-Tox", "ADME/Tox" },
        aliases_zh = { "ADMET", "ADME-Tox", "吸收分布代谢排泄毒性" },
    }
    
    data["admet prediction"] = {
        short = "Computational prediction of ADMET endpoints (e.g., Caco-2, hERG, CYP inhibition, AMES, hepatotoxicity) from molecular structure, typically via QSAR models, deep learning on graphs or fingerprints, or multi-task neural networks.",
        article = nil,
        aliases = { "ADMET prediction", "ADMET property prediction", "in silico ADMET", "computational ADMET" },
        es = "Predicción computacional de propiedades ADMET (p. ej. Caco-2, hERG, inhibición de CYP, AMES, hepatotoxicidad) a partir de la estructura molecular, típicamente mediante modelos QSAR, aprendizaje profundo sobre grafos o huellas digitales, o redes neuronales multitarea.",
        zh = "基于分子结构对 ADMET 终点(如 Caco-2、hERG、CYP 抑制、Ames、肝毒性等)进行计算预测,通常使用 QSAR 模型、基于图或分子指纹的深度学习,或多任务神经网络。",
        term_es = "predicción de ADMET",
        term_zh = "ADMET 预测",
        aliases_es = { "predicción ADMET", "predicción computacional de ADMET", "ADMET in silico" },
        aliases_zh = { "ADMET 性质预测", "计算 ADMET", "ADMET prediction" },
    }
    
    data["admet-ai"] = {
        short = "An open-source ADMET prediction tool from the Stanford Zitnik/Pande groups built on Chemprop message-passing neural networks, providing fast multi-task estimates over the TDC ADMET benchmark suite.",
        article = nil,
        aliases = { "ADMET-AI", "ADMET AI", "admetai" },
        es = "Herramienta de código abierto para predicción de ADMET desarrollada por los grupos de Zitnik/Pande en Stanford, construida sobre redes neuronales de paso de mensajes Chemprop y que proporciona estimaciones multitarea rápidas sobre el conjunto de pruebas ADMET de TDC.",
        zh = "由斯坦福 Zitnik/Pande 团队开发的开源 ADMET 预测工具,基于 Chemprop 消息传递神经网络,能在 TDC ADMET 基准上快速给出多任务预测结果。",
        term_es = "ADMET-AI",
        term_zh = "ADMET-AI",
        aliases_es = { "ADMET-AI", "ADMET AI" },
        aliases_zh = { "ADMET-AI", "ADMET AI" },
    }
    
    data["admetlab"] = {
        short = "A free web platform from the Cao group for ADMET property prediction and medicinal-chemistry profiling of small molecules, integrating dozens of endpoint models behind a SMILES-input interface.",
        article = nil,
        aliases = { "ADMETlab", "ADMETLab", "ADMETlab 2.0", "ADMETlab 3.0" },
        es = "Plataforma web gratuita del grupo de Cao para la predicción de propiedades ADMET y el perfilado de química medicinal de moléculas pequeñas; integra decenas de modelos de criterios de valoración tras una interfaz que recibe SMILES.",
        zh = "由 Cao 课题组提供的免费在线平台,用于小分子的 ADMET 性质预测和药物化学性质评估,在一个接受 SMILES 输入的界面后整合了数十个终点预测模型。",
        term_es = "ADMETlab",
        term_zh = "ADMETlab",
        aliases_es = { "ADMETlab", "ADMETlab 2.0", "ADMETlab 3.0" },
        aliases_zh = { "ADMETlab", "ADMETlab 2.0", "ADMETlab 3.0" },
    }
    
    data["admixture"] = {
        short = "The process by which previously separated populations interbreed, producing individuals whose genomes are mosaics of ancestry from multiple source populations. Also refers to ADMIXTURE, a popular software for estimating individual ancestry proportions from genotype data.",
        article = nil,
        aliases = { "genetic admixture", "ADMIXTURE (software)", "population admixture", "ancestry admixture" },
        es = "Proceso por el cual poblaciones previamente separadas se entrecruzan, produciendo individuos cuyos genomas son mosaicos de ascendencia de varias poblaciones fuente. También se refiere a ADMIXTURE, un software popular para estimar las proporciones individuales de ascendencia a partir de datos de genotipos.",
        zh = "原本分离的群体相互交配产生后代的过程,其基因组是来自多个源群体的镶嵌祖源。也指 ADMIXTURE,一种基于基因型数据估计个体祖源比例的常用软件。",
        term_es = "mezcla genética",
        term_zh = "混合(基因混合)",
        aliases_es = { "admixture", "mezcla poblacional", "ADMIXTURE (software)" },
        aliases_zh = { "基因混合", "群体混合", "ADMIXTURE 软件" },
    }
    
    data["adobe firefly"] = {
        short = "Adobe's family of generative AI models for image generation, vector art, text effects, and video, integrated into Creative Cloud applications and trained primarily on licensed and public-domain content.",
        article = nil,
        aliases = { "Firefly", "Adobe Firefly model", "Firefly Image Model" },
        es = "Familia de modelos de IA generativa de Adobe para generación de imágenes, arte vectorial, efectos de texto y vídeo, integrada en las aplicaciones de Creative Cloud y entrenada principalmente con contenido licenciado y de dominio público.",
        zh = "Adobe 推出的一系列生成式 AI 模型,用于图像生成、矢量图形、文字效果和视频,集成于 Creative Cloud 应用中,主要使用授权内容和公有领域内容进行训练。",
        term_es = "Adobe Firefly",
        term_zh = "Adobe Firefly",
        aliases_es = { "Firefly" },
        aliases_zh = { "Firefly", "萤火虫" },
    }
    
    data["adv-prop nas"] = {
        short = "A neural architecture search variant that integrates AdvProp's auxiliary batch-norm training with adversarial examples into the search loop to discover architectures that are simultaneously accurate and robust.",
        article = nil,
        aliases = { "AdvProp NAS", "Adv-Prop NAS", "AdvProp-NAS", "AdvProp neural architecture search" },
        es = "Variante de búsqueda de arquitecturas neuronales que integra el entrenamiento con normalización por lotes auxiliar y ejemplos adversariales de AdvProp en el bucle de búsqueda, para descubrir arquitecturas que sean simultáneamente precisas y robustas.",
        zh = "一种神经架构搜索变体,将 AdvProp 的辅助批归一化与对抗样本训练融入搜索循环,以发现兼具高精度和鲁棒性的架构。",
        term_es = "Adv-Prop NAS",
        term_zh = "AdvProp NAS",
        aliases_es = { "AdvProp NAS", "Adv-Prop NAS", "NAS con AdvProp" },
        aliases_zh = { "AdvProp NAS", "Adv-Prop NAS", "AdvProp 神经架构搜索" },
    }
    
    data["advanced rag"] = {
        short = "An umbrella term for retrieval-augmented generation pipelines that go beyond naive single-pass retrieval, incorporating techniques such as query rewriting, hybrid retrieval, reranking, and iterative or hierarchical retrieval.",
        article = nil,
        aliases = { "advanced retrieval-augmented generation", "advanced-RAG", "modular RAG" },
        es = "Término general para los pipelines de generación aumentada con recuperación que superan la recuperación ingenua de un solo paso, incorporando técnicas como la reescritura de consultas, la recuperación híbrida, el reordenamiento y la recuperación iterativa o jerárquica.",
        zh = "用于指代超越简单单次检索的检索增强生成流水线的统称,融合了查询改写、混合检索、重排序以及迭代或分层检索等技术。",
        term_es = "RAG avanzado",
        term_zh = "高级 RAG",
        aliases_es = { "generación aumentada con recuperación avanzada", "RAG modular" },
        aliases_zh = { "高级检索增强生成", "进阶 RAG" },
    }
    
    data["advantage"] = {
        short = "In reinforcement learning, the function A^π(s,a) = Q^π(s,a) − V^π(s), measuring how much better taking action a in state s is than the policy's average behavior at s. Used to reduce variance in policy-gradient estimators.",
        article = nil,
        aliases = { "advantage function", "A(s,a)", "advantage estimate" },
        es = "En aprendizaje por refuerzo, la función A^π(s,a) = Q^π(s,a) − V^π(s), que mide cuánto mejor es tomar la acción a en el estado s respecto al comportamiento medio de la política en s. Se utiliza para reducir la varianza en los estimadores de gradiente de política.",
        zh = "在强化学习中,函数 A^π(s,a) = Q^π(s,a) − V^π(s),衡量在状态 s 下采取动作 a 相对于策略在该状态下的平均表现好多少。常用于降低策略梯度估计器的方差。",
        term_es = "ventaja",
        term_zh = "优势",
        aliases_es = { "función de ventaja", "A(s,a)" },
        aliases_zh = { "优势函数", "advantage", "A(s,a)" },
    }
    
    data["adversarial calibration"] = {
        short = "Calibration evaluated under adversarial perturbations of inputs: a model is adversarially calibrated if its confidence remains aligned with accuracy on attacked examples, not just on clean ones.",
        article = nil,
        aliases = { "adversarially robust calibration", "adversarial calibration error" },
        es = "Calibración evaluada bajo perturbaciones adversariales de las entradas: un modelo está adversarialmente calibrado si su confianza permanece alineada con la precisión en ejemplos atacados, no solo en los limpios.",
        zh = "在对抗扰动下评估的校准性:当模型在受攻击样本上的置信度仍与精度一致(而不仅在干净样本上)时,称其具有对抗校准性。",
        term_es = "calibración adversarial",
        term_zh = "对抗校准",
        aliases_es = { "calibración adversarialmente robusta", "error de calibración adversarial" },
        aliases_zh = { "对抗鲁棒校准", "对抗校准误差" },
    }
    
    data["adversarial debiasing"] = {
        short = "An in-processing fairness technique that trains a predictor jointly with an adversary which attempts to recover the protected attribute from the predictor's output, encouraging representations that are predictive of the label but uninformative about the protected attribute.",
        article = nil,
        aliases = { "adversarial debiasing method", "adversarial bias mitigation" },
        es = "Técnica de equidad en procesamiento que entrena un predictor junto con un adversario que intenta recuperar el atributo protegido a partir de la salida del predictor, incentivando representaciones predictivas de la etiqueta pero no informativas sobre el atributo protegido.",
        zh = "一种过程内公平性技术:联合训练预测器与一个试图从预测器输出中还原受保护属性的对抗者,从而促使表示对标签具有预测性但对受保护属性不具信息量。",
        term_es = "desessgo adversarial",
        term_zh = "对抗去偏",
        aliases_es = { "mitigación adversarial de sesgos", "debiasing adversarial" },
        aliases_zh = { "对抗性去偏", "对抗式去偏置" },
    }
    
    data["adversarial diffusion distillation"] = {
        short = "A distillation technique that compresses a multi-step diffusion teacher into a one- or few-step student by combining a score-distillation objective with an adversarial loss against real images.",
        article = nil,
        aliases = { "ADD", "adversarial diffusion distillation (ADD)", "SDXL Turbo distillation" },
        es = "Técnica de destilación que comprime un modelo de difusión maestro de múltiples pasos en un estudiante de uno o pocos pasos, combinando un objetivo de destilación de puntuaciones con una pérdida adversarial frente a imágenes reales.",
        zh = "一种蒸馏技术,将多步扩散教师模型压缩为单步或少步的学生模型,结合分数蒸馏目标与针对真实图像的对抗损失。",
        term_es = "destilación adversarial de difusión",
        term_zh = "对抗扩散蒸馏",
        aliases_es = { "ADD", "destilación de difusión adversarial" },
        aliases_zh = { "ADD", "对抗式扩散蒸馏" },
    }
    
    data["adversarial example"] = {
        short = "An input crafted by applying a small, often imperceptible perturbation to a legitimate example so that a model produces an incorrect output. Used to study and improve model robustness.",
        article = nil,
        aliases = { "adversarial input", "adversarial perturbation", "adversarial sample" },
        es = "Entrada construida aplicando una perturbación pequeña, a menudo imperceptible, sobre un ejemplo legítimo para que un modelo produzca una salida incorrecta. Se usa para estudiar y mejorar la robustez de los modelos.",
        zh = "通过对合法样本施加微小、通常不可察觉的扰动而构造的输入,使模型产生错误输出。用于研究和提升模型的鲁棒性。",
        term_es = "ejemplo adversarial",
        term_zh = "对抗样本",
        aliases_es = { "ejemplo adversario", "muestra adversarial", "perturbación adversarial" },
        aliases_zh = { "对抗性样本", "对抗输入", "对抗扰动" },
    }
    
    data["adversarial fairness audit"] = {
        short = "An evaluation procedure that uses adversarially crafted inputs or queries to probe an AI system for disparate behavior across protected groups, surfacing fairness failures that benign benchmarks miss.",
        article = nil,
        aliases = { "adversarial fairness auditing", "adversarial bias audit" },
        es = "Procedimiento de evaluación que utiliza entradas o consultas adversariales para sondear un sistema de IA en busca de comportamientos dispares entre grupos protegidos, revelando fallos de equidad que los benchmarks benignos no detectan.",
        zh = "一种评估流程,使用对抗性构造的输入或查询来探测 AI 系统在受保护群体间的差异化行为,揭示常规基准难以发现的公平性问题。",
        term_es = "auditoría adversarial de equidad",
        term_zh = "对抗式公平性审计",
        aliases_es = { "auditoría de equidad adversarial", "auditoría adversarial de sesgos" },
        aliases_zh = { "对抗性公平审计", "对抗公平性审查" },
    }
    
    data["adversarial loss"] = {
        short = "Loss arising from a min-max game between a generator and a discriminator (or critic), as in GANs, used to train models whose outputs are indistinguishable from real data.",
        article = nil,
        aliases = { "GAN loss", "generator-discriminator loss", "minimax loss" },
        es = "Pérdida que surge de un juego min-max entre un generador y un discriminador (o crítico), como en las GANs, utilizada para entrenar modelos cuyas salidas son indistinguibles de los datos reales.",
        zh = "在生成器与判别器(或评论家)之间的极小极大博弈中产生的损失(如 GAN 中),用于训练输出与真实数据难以区分的模型。",
        term_es = "pérdida adversarial",
        term_zh = "对抗损失",
        aliases_es = { "pérdida adversaria", "pérdida GAN", "pérdida minimax" },
        aliases_zh = { "GAN 损失", "对抗性损失", "极小极大损失" },
    }
    
    data["adversarial prompting"] = {
        short = "The practice of crafting inputs that exploit weaknesses of a language model in order to elicit unintended behavior, such as bypassing safety policies, leaking system prompts, or producing prohibited content.",
        article = nil,
        aliases = { "adversarial prompts", "prompt attack", "adversarial prompt attack" },
        es = "Práctica de diseñar entradas que explotan las debilidades de un modelo de lenguaje para inducir comportamientos no deseados, como eludir políticas de seguridad, filtrar el prompt del sistema o producir contenido prohibido.",
        zh = "通过精心构造输入以利用语言模型弱点的做法,旨在诱发模型出现非预期行为,例如绕过安全策略、泄露系统提示或生成被禁止的内容。",
        term_es = "prompting adversarial",
        term_zh = "对抗性提示",
        aliases_es = { "ataques de prompt", "prompts adversariales" },
        aliases_zh = { "对抗提示", "提示攻击", "对抗性提示攻击" },
    }
    
    data["adversarial reweighting"] = {
        short = "A fairness method that learns instance weights via an adversarial objective so that examples on which group-conditional accuracy is poor are upweighted during training, improving worst-group performance without requiring protected-attribute labels at inference.",
        article = nil,
        aliases = { "ARL", "adversarial reweighted learning" },
        es = "Método de equidad que aprende pesos por instancia mediante un objetivo adversarial, de modo que los ejemplos donde la exactitud condicional por grupo es baja se ponderan más durante el entrenamiento, mejorando el desempeño del peor grupo sin requerir etiquetas del atributo protegido en inferencia.",
        zh = "一种公平性方法:通过对抗目标学习样本权重,对群体条件准确率较差的样本上调权重,从而提升最差群体的性能,且无需在推理时获得受保护属性标签。",
        term_es = "reponderación adversarial",
        term_zh = "对抗性重加权",
        aliases_es = { "ARL", "aprendizaje con reponderación adversarial" },
        aliases_zh = { "ARL", "对抗式重加权" },
    }
    
    data["adversarial robustness federated"] = {
        short = "The study and design of federated-learning algorithms that maintain accuracy under adversarial inputs or malicious participants who craft perturbations or poisoned updates.",
        article = nil,
        aliases = { "adversarial robustness in federated learning", "federated adversarial robustness" },
        es = "Estudio y diseño de algoritmos de aprendizaje federado que mantienen la precisión frente a entradas adversarias o participantes maliciosos que generan perturbaciones o actualizaciones envenenadas.",
        zh = "研究和设计在面对对抗输入或制造扰动/毒化更新的恶意参与方时仍能保持准确率的联邦学习算法。",
        term_es = "robustez adversaria federada",
        term_zh = "联邦学习中的对抗鲁棒性",
        aliases_es = { "robustez adversaria en aprendizaje federado", "robustez adversarial federada" },
        aliases_zh = { "联邦对抗鲁棒性", "联邦学习对抗鲁棒性" },
    }
    
    data["adversarial saliency"] = {
        short = "Saliency or attribution maps computed by analyzing or constructing adversarial perturbations to identify the input features that most strongly drive a model's prediction.",
        article = nil,
        aliases = { "adversarial saliency", "adversarial saliency map" },
        es = "Mapas de saliencia o atribución obtenidos al analizar o construir perturbaciones adversariales para identificar los rasgos de entrada que más influyen en la predicción de un modelo.",
        zh = "通过分析或构造对抗性扰动获得的显著性或归因图,用于识别对模型预测影响最大的输入特征。",
        term_es = "saliencia adversarial",
        term_zh = "对抗显著性",
        aliases_es = { "mapa de saliencia adversarial" },
        aliases_zh = { "对抗显著图", "对抗显著性图" },
    }
    
    data["adversarial training"] = {
        short = "A training procedure that augments the dataset with adversarial examples generated against the current model, encouraging the model to be robust to small worst-case input perturbations.",
        article = nil,
        aliases = { "adversarial robustness training", "robust training", "PGD training", "min-max adversarial training" },
        es = "Procedimiento de entrenamiento que amplía el conjunto de datos con ejemplos adversariales generados contra el modelo actual, incentivando que el modelo sea robusto frente a pequeñas perturbaciones en el peor caso.",
        zh = "一种训练方法,使用针对当前模型生成的对抗样本扩充数据集,促使模型对最坏情况下的小幅输入扰动具有鲁棒性。",
        term_es = "entrenamiento adversarial",
        term_zh = "对抗训练",
        aliases_es = { "entrenamiento robusto", "entrenamiento con ejemplos adversariales", "entrenamiento PGD" },
        aliases_zh = { "对抗性训练", "鲁棒训练", "PGD 训练" },
    }
    
    data["adverse impact"] = {
        short = "In US anti-discrimination law and AI fairness practice, a substantially different selection or outcome rate that disadvantages members of a protected class, regardless of whether the disparity was intended.",
        article = nil,
        aliases = { "disparate impact", "adverse impact discrimination" },
        es = "En el derecho antidiscriminación de EE. UU. y en la práctica de equidad en IA, una tasa de selección o resultado sustancialmente diferente que perjudica a los miembros de una clase protegida, independientemente de si la disparidad fue intencional.",
        zh = "在美国反歧视法和 AI 公平性实践中,指对受保护群体成员造成显著不利的选拔或结果差异,无论该差异是否出于故意。",
        term_es = "impacto adverso",
        term_zh = "不利影响",
        aliases_es = { "impacto dispar", "discriminación por impacto adverso" },
        aliases_zh = { "差别性影响", "不利影响歧视" },
    }
    
    data["adverse impact ratio"] = {
        short = "The ratio of the selection rate for a protected group to the selection rate for the most-favored group; values below 0.8 are commonly treated as prima facie evidence of adverse impact under the four-fifths rule.",
        article = nil,
        aliases = { "AIR", "impact ratio", "selection rate ratio" },
        es = "Cociente entre la tasa de selección de un grupo protegido y la tasa del grupo más favorecido; valores inferiores a 0,8 suelen considerarse evidencia prima facie de impacto adverso bajo la regla de los cuatro quintos.",
        zh = "受保护群体的录用率与最优群体录用率之比;该比值低于 0.8 通常被视为依据“四五分之规则”构成不利影响的初步证据。",
        term_es = "razón de impacto adverso",
        term_zh = "不利影响比率",
        aliases_es = { "AIR", "ratio de impacto adverso", "cociente de impacto" },
        aliases_zh = { "AIR", "影响比率", "不利影响比" },
    }
    
    data["aesthetic score"] = {
        short = "A scalar produced by a learned predictor that estimates how visually appealing a human would find an image, typically trained on aesthetic-rating datasets. Widely used to filter or reweight image corpora for generative model training.",
        article = nil,
        aliases = { "aesthetics score", "aesthetic predictor score", "image aesthetic score", "LAION aesthetic score" },
        es = "Valor escalar producido por un predictor aprendido que estima el grado de atractivo visual que una persona percibiría en una imagen, normalmente entrenado con conjuntos de datos de valoraciones estéticas. Se utiliza ampliamente para filtrar o reponderar corpus de imágenes destinados al entrenamiento de modelos generativos.",
        zh = "由学习得到的预测器输出的标量,用于估计图像在人类观感上的美学吸引力,通常基于美学评分数据集训练。常用于在生成模型训练中筛选或重加权图像语料。",
        term_es = "puntuación estética",
        term_zh = "美学评分",
        aliases_es = { "puntaje estético", "puntuación de estética", "puntuación estética LAION" },
        aliases_zh = { "美学分数", "美感评分", "LAION 美学评分" },
    }
    
    data["affine combination"] = {
        short = "A linear combination of points (or vectors) in which the coefficients sum to one; affine combinations of two points trace out the line through them.",
        article = nil,
        aliases = { "affine combinations" },
        es = "Combinación lineal de puntos (o vectores) en la que los coeficientes suman uno; las combinaciones afines de dos puntos describen la recta que los contiene.",
        zh = "系数之和为一的点(或向量)的线性组合;两点的仿射组合恰好描出经过它们的直线。",
        term_es = "combinación afín",
        term_zh = "仿射组合",
        aliases_es = { "combinaciones afines" },
        aliases_zh = { "仿射组合" },
    }
    
    data["affine space"] = {
        short = "A geometric structure that generalizes Euclidean space by removing the distinguished origin: it consists of points and a vector space acting freely and transitively on them by translation.",
        article = nil,
        aliases = { "affine spaces" },
        es = "Estructura geométrica que generaliza el espacio euclídeo eliminando el origen privilegiado: consta de puntos y un espacio vectorial que actúa de forma libre y transitiva sobre ellos por traslación.",
        zh = "一种推广欧几里得空间的几何结构,去掉了特定的原点:由点的集合和一个通过平移自由且传递地作用于这些点的向量空间组成。",
        term_es = "espacio afín",
        term_zh = "仿射空间",
        aliases_es = { "espacios afines" },
        aliases_zh = { "仿射空间" },
    }
    
    data["affine transformation"] = {
        short = "A map between affine spaces of the form x ↦ Ax + b, composed of a linear transformation A and a translation b; it preserves collinearity and ratios of distances along lines.",
        article = nil,
        aliases = { "affine map", "affine transformations", "affinity" },
        es = "Aplicación entre espacios afines de la forma x ↦ Ax + b, compuesta por una transformación lineal A y una traslación b; preserva la colinealidad y las razones de distancias a lo largo de rectas.",
        zh = "形如 x ↦ Ax + b 的仿射空间间映射,由线性变换 A 和平移 b 复合而成;它保持共线性以及直线上的距离比例。",
        term_es = "transformación afín",
        term_zh = "仿射变换",
        aliases_es = { "aplicación afín", "transformaciones afines" },
        aliases_zh = { "仿射映射", "仿射变换" },
    }
    
    data["age bias"] = {
        short = "Systematic disparity in an AI system's behavior or outcomes that disadvantages individuals on the basis of age, such as resume screeners that penalize older applicants or recommendation systems that under-serve older users.",
        article = nil,
        aliases = { "ageism in AI", "age-based bias", "age discrimination bias" },
        es = "Disparidad sistemática en el comportamiento o los resultados de un sistema de IA que perjudica a personas en función de su edad, por ejemplo filtros de currículums que penalizan a candidatos mayores o sistemas de recomendación que atienden peor a usuarios mayores.",
        zh = "AI 系统在行为或结果上对个体因年龄而产生的系统性不利差异,例如对年长求职者评分偏低的简历筛选系统,或对年长用户服务质量较差的推荐系统。",
        term_es = "sesgo por edad",
        term_zh = "年龄偏见",
        aliases_es = { "edadismo en IA", "discriminación por edad en IA" },
        aliases_zh = { "AI 年龄歧视", "基于年龄的偏差" },
    }
    
    data["age discrimination in ai"] = {
        short = "The use of AI systems in ways that produce unlawful or unfair differential treatment based on age, particularly in employment, lending, healthcare, or insurance decisions.",
        article = nil,
        aliases = { "AI age discrimination", "age discrimination by AI", "ageism in AI systems" },
        es = "Uso de sistemas de IA de forma que produzca un trato diferencial ilegal o injusto basado en la edad, especialmente en decisiones de empleo, crédito, atención sanitaria o seguros.",
        zh = "在就业、信贷、医疗或保险等决策中,AI 系统以非法或不公正的方式基于年龄产生差别对待。",
        term_es = "discriminación por edad en IA",
        term_zh = "AI 中的年龄歧视",
        aliases_es = { "discriminación etaria en IA", "edadismo en sistemas de IA" },
        aliases_zh = { "AI 年龄歧视", "人工智能中的年龄歧视" },
    }
    
    data["ageing evolution"] = {
        short = "Also known as regularized evolution; a tournament-selection evolutionary algorithm by Real et al. that removes the oldest individual rather than the worst at each step, used to discover AmoebaNet.",
        article = nil,
        aliases = { "aging evolution", "regularized evolution", "regularised evolution", "Ageing Evolution", "Real et al. evolution" },
        es = "También conocido como evolución regularizada; algoritmo evolutivo con selección por torneo de Real et al. que elimina al individuo más antiguo en lugar del peor en cada paso, utilizado para descubrir AmoebaNet.",
        zh = "又称正则化进化;Real 等人提出的锦标赛选择进化算法,在每一步移除最老的个体而非最差的个体,用于发现 AmoebaNet。",
        term_es = "evolución por envejecimiento",
        term_zh = "老化进化",
        aliases_es = { "aging evolution", "evolución regularizada", "evolución envejeciente" },
        aliases_zh = { "aging evolution", "正则化进化", "老化进化算法" },
    }
    
    data["ageing selection"] = {
        short = "The selection rule at the heart of ageing/regularized evolution: at each step the oldest individual in the population is discarded, encouraging continual exploration and avoiding lock-in to early elites.",
        article = nil,
        aliases = { "aging selection", "ageing-based selection", "age-based selection", "regularized selection" },
        es = "Regla de selección central de la evolución por envejecimiento (regularizada): en cada paso se descarta al individuo más antiguo de la población, lo que fomenta la exploración continua y evita el bloqueo en élites tempranas.",
        zh = "老化/正则化进化的核心选择规则:每一步丢弃种群中最老的个体,从而促进持续探索,避免锁定在早期精英解上。",
        term_es = "selección por envejecimiento",
        term_zh = "老化选择",
        aliases_es = { "aging selection", "selección por edad", "selección regularizada" },
        aliases_zh = { "aging selection", "基于年龄的选择", "正则化选择" },
    }
    
    data["agent loop"] = {
        short = "The repeated cycle in which a language-model-based agent observes the current state, reasons about the next action, executes a tool or produces output, and then incorporates the result before the next iteration.",
        article = nil,
        aliases = { "agentic loop", "perception-action loop", "ReAct loop", "tool-use loop" },
        es = "Ciclo repetido en el que un agente basado en un modelo de lenguaje observa el estado actual, razona sobre la siguiente acción, ejecuta una herramienta o produce una salida y luego incorpora el resultado antes de la siguiente iteración.",
        zh = "基于语言模型的智能体不断重复的循环:观察当前状态、对下一步动作进行推理、调用工具或产出结果,并在进入下一轮之前将结果纳入上下文。",
        term_es = "bucle del agente",
        term_zh = "智能体循环",
        aliases_es = { "bucle agéntico", "ciclo del agente", "bucle ReAct" },
        aliases_zh = { "代理循环", "智能体回路", "ReAct 循环" },
    }
    
    data["agentic rag"] = {
        short = "A retrieval-augmented generation pattern in which an autonomous agent decides when and what to retrieve, possibly issuing multiple queries, calling additional tools, and chaining reasoning steps before answering.",
        article = nil,
        aliases = { "Agentic-RAG", "agent-based RAG", "agentic retrieval-augmented generation" },
        es = "Patrón de generación aumentada con recuperación en el que un agente autónomo decide cuándo y qué recuperar, pudiendo emitir múltiples consultas, invocar herramientas adicionales y encadenar pasos de razonamiento antes de responder.",
        zh = "一种检索增强生成范式,由自主智能体决定何时以及检索什么内容,可能发起多次查询、调用额外工具,并在作答前串联多步推理。",
        term_es = "RAG agéntico",
        term_zh = "智能体 RAG",
        aliases_es = { "RAG basado en agentes", "Agentic-RAG" },
        aliases_zh = { "Agentic RAG", "代理式 RAG", "智能体检索增强生成" },
    }
    
    data["agentic system"] = {
        short = "An AI system in which one or more language-model-driven agents pursue goals over multiple steps by planning, calling tools, and acting in an environment, rather than producing a single response to a single prompt.",
        article = nil,
        aliases = { "agent system", "AI agent system", "LLM agent system" },
        es = "Sistema de IA en el que uno o más agentes guiados por modelos de lenguaje persiguen objetivos a lo largo de múltiples pasos, planificando, invocando herramientas y actuando en un entorno, en lugar de producir una sola respuesta a un único prompt.",
        zh = "一种 AI 系统,由一个或多个由语言模型驱动的智能体通过规划、调用工具并在环境中行动,跨多步追求目标,而不是对单个提示给出单一回复。",
        term_es = "sistema agéntico",
        term_zh = "智能体系统",
        aliases_es = { "sistema de agentes", "sistema de agentes LLM" },
        aliases_zh = { "代理系统", "智能体式系统", "LLM 智能体系统" },
    }
    
    data["agentic workflow"] = {
        short = "A workflow in which a large language model breaks a task into subtasks and executes them iteratively, often through tool use, reflection, and multi-step planning, instead of producing the answer in one pass.",
        article = nil,
        aliases = { "agent workflow", "agentic pipeline", "LLM agentic workflow" },
        es = "Flujo de trabajo en el que un gran modelo de lenguaje descompone una tarea en subtareas y las ejecuta de forma iterativa, a menudo mediante uso de herramientas, reflexión y planificación de múltiples pasos, en lugar de generar la respuesta en una sola pasada.",
        zh = "一种工作流,大型语言模型将任务分解为子任务,并通过工具使用、自我反思与多步规划逐步执行,而不是一次性给出答案。",
        term_es = "flujo de trabajo agéntico",
        term_zh = "智能体工作流",
        aliases_es = { "workflow agéntico", "pipeline agéntico" },
        aliases_zh = { "代理工作流", "智能体流程", "LLM 智能体工作流" },
    }
    
    data["agentless"] = {
        short = "An approach to LLM-based software tasks, notably code repair, that avoids autonomous agent loops and instead uses a fixed multi-stage pipeline of localization, generation, and validation, often outperforming agent frameworks on benchmarks like SWE-bench.",
        article = nil,
        aliases = { "Agentless", "agentless approach", "agentless pipeline" },
        es = "Enfoque para tareas de software basadas en LLM, en particular la reparación de código, que evita los bucles autónomos de agentes y utiliza en su lugar una tubería fija de varias etapas de localización, generación y validación, a menudo superando a los marcos agénticos en benchmarks como SWE-bench.",
        zh = "面向基于 LLM 的软件任务(尤其是代码修复)的一种方法,避免使用自主智能体循环,而采用定位、生成与验证三阶段的固定流水线,在 SWE-bench 等基准上常优于智能体框架。",
        term_es = "Agentless",
        term_zh = "Agentless",
        aliases_es = { "enfoque agentless", "pipeline agentless" },
        aliases_zh = { "无智能体方法", "Agentless 方法" },
    }
    
    data["agnostic federated learning"] = {
        short = "A federated-learning formulation (Mohri et al., 2019) that minimizes the worst-case loss over any mixture of client distributions, providing distributionally robust guarantees against unknown deployment populations.",
        article = nil,
        aliases = { "AFL", "Mohri agnostic federated learning" },
        es = "Formulación de aprendizaje federado (Mohri et al., 2019) que minimiza la pérdida en el peor caso sobre cualquier mezcla de distribuciones de clientes, ofreciendo garantías distribucionalmente robustas frente a poblaciones de despliegue desconocidas.",
        zh = "Mohri 等人(2019)提出的联邦学习形式,最小化任意客户端分布混合下的最坏情况损失,为未知部署人群提供分布鲁棒性保证。",
        term_es = "aprendizaje federado agnóstico",
        term_zh = "不可知联邦学习",
        aliases_es = { "AFL", "aprendizaje federado agnóstico de distribución" },
        aliases_zh = { "AFL", "对客户端分布不可知的联邦学习" },
    }
    
    data["ai accountability"] = {
        short = "The principle and set of practices ensuring that identifiable parties are answerable for the design, deployment, and outcomes of AI systems, including obligations to document, audit, justify, and remediate decisions.",
        article = nil,
        aliases = { "artificial intelligence accountability", "AI responsibility" },
        es = "Principio y conjunto de prácticas que garantizan que partes identificables respondan por el diseño, la implementación y los resultados de los sistemas de IA, incluidas las obligaciones de documentar, auditar, justificar y remediar decisiones.",
        zh = "确保可识别的相关方对 AI 系统的设计、部署及结果承担责任的原则与一系列实践,包括文档化、审计、说明理由和补救决策的义务。",
        term_es = "rendición de cuentas en IA",
        term_zh = "AI 问责制",
        aliases_es = { "responsabilidad de la IA", "responsabilidad en inteligencia artificial" },
        aliases_zh = { "人工智能问责", "AI 责任制" },
    }
    
    data["ai act"] = {
        short = "The European Union regulation (Regulation (EU) 2024/1689) establishing harmonized rules for AI systems based on a risk-tiered framework, banning certain uses, imposing obligations on high-risk systems, and creating transparency requirements for general-purpose AI.",
        article = nil,
        aliases = { "AI Act", "EU AI Act", "European AI Act", "Artificial Intelligence Act", "Regulation (EU) 2024/1689" },
        es = "Reglamento de la Unión Europea (Reglamento (UE) 2024/1689) que establece normas armonizadas para los sistemas de IA basadas en un marco por niveles de riesgo, prohibiendo ciertos usos, imponiendo obligaciones a los sistemas de alto riesgo y creando requisitos de transparencia para la IA de propósito general.",
        zh = "欧盟于 2024 年通过的人工智能法规(条例 (EU) 2024/1689),按风险分级建立统一规则,禁止部分用途,对高风险系统设定义务,并对通用人工智能提出透明度要求。",
        term_es = "Reglamento de IA",
        term_zh = "《人工智能法》",
        aliases_es = { "Ley de IA", "Reglamento Europeo de IA", "Reglamento (UE) 2024/1689" },
        aliases_zh = { "欧盟人工智能法", "AI 法案", "欧盟 AI 法案" },
    }
    
    data["ai audit"] = {
        short = "A structured assessment of an AI system's data, models, processes, and outputs against defined criteria — typically performance, fairness, security, or regulatory compliance — performed internally or by an independent third party.",
        article = nil,
        aliases = { "AI audit", "algorithmic audit", "AI system audit" },
        es = "Evaluación estructurada de los datos, modelos, procesos y resultados de un sistema de IA conforme a criterios definidos —típicamente desempeño, equidad, seguridad o cumplimiento normativo—, realizada internamente o por un tercero independiente.",
        zh = "依据既定标准(通常包括性能、公平性、安全性或合规性)对 AI 系统的数据、模型、流程和输出进行的结构化评估,可由内部团队或独立第三方执行。",
        term_es = "auditoría de IA",
        term_zh = "AI 审计",
        aliases_es = { "auditoría algorítmica", "auditoría de sistemas de IA" },
        aliases_zh = { "人工智能审计", "算法审计", "AI 系统审计" },
    }
    
    data["ai bill of rights"] = {
        short = "The 2022 White House Office of Science and Technology Policy Blueprint for an AI Bill of Rights, a non-binding US framework articulating five protections for the public against harms from automated systems.",
        article = nil,
        aliases = { "Blueprint for an AI Bill of Rights", "AI Bill of Rights", "OSTP AI Bill of Rights", "White House AI Bill of Rights" },
        es = "Blueprint for an AI Bill of Rights publicado en 2022 por la Oficina de Política Científica y Tecnológica de la Casa Blanca, un marco no vinculante de EE. UU. que articula cinco protecciones para el público frente a los daños de los sistemas automatizados.",
        zh = "2022 年由美国白宫科技政策办公室发布的《人工智能权利法案蓝图》,一份不具法律约束力的框架,提出针对自动化系统危害的五项公众保护原则。",
        term_es = "Carta de Derechos de la IA",
        term_zh = "《人工智能权利法案》蓝图",
        aliases_es = { "Blueprint for an AI Bill of Rights", "Declaración de Derechos de la IA", "Carta de derechos de IA de la Casa Blanca" },
        aliases_zh = { "AI 权利法案", "白宫 AI 权利法案蓝图", "美国 AI 权利法案" },
    }
    
    data["ai ethics"] = {
        short = "The interdisciplinary field studying the moral principles, values, and norms that should guide the design, development, deployment, and use of AI systems, including fairness, accountability, transparency, autonomy, privacy, and safety.",
        article = nil,
        aliases = { "artificial intelligence ethics", "ethics of AI" },
        es = "Campo interdisciplinario que estudia los principios morales, valores y normas que deben guiar el diseño, desarrollo, implementación y uso de los sistemas de IA, incluidas la equidad, la rendición de cuentas, la transparencia, la autonomía, la privacidad y la seguridad.",
        zh = "一门跨学科领域,研究在 AI 系统的设计、开发、部署与使用中应遵循的道德原则、价值观和规范,涵盖公平、问责、透明、自主、隐私与安全等议题。",
        term_es = "ética de la IA",
        term_zh = "人工智能伦理",
        aliases_es = { "ética de la inteligencia artificial", "ética en IA" },
        aliases_zh = { "AI 伦理", "人工智能道德" },
    }
    
    data["ai ethics board"] = {
        short = "An internal or external advisory body within an organization that reviews AI projects against ethical principles, policy commitments, and societal impact, and issues binding or advisory recommendations.",
        article = nil,
        aliases = { "AI ethics committee", "AI ethics review board", "ethics review board" },
        es = "Órgano consultivo interno o externo de una organización que revisa los proyectos de IA conforme a principios éticos, compromisos de política y su impacto social, y emite recomendaciones vinculantes o consultivas.",
        zh = "组织内部或外部的咨询机构,依据伦理原则、政策承诺和社会影响审查 AI 项目,并出具具有约束力或建议性的意见。",
        term_es = "comité de ética de IA",
        term_zh = "AI 伦理委员会",
        aliases_es = { "consejo de ética de IA", "junta de ética de IA", "comité de revisión ética" },
        aliases_zh = { "人工智能伦理委员会", "AI 伦理审查委员会" },
    }
    
    data["ai feynman"] = {
        short = "A physics-inspired symbolic regression algorithm that recovers analytical formulas from numerical data by recursively exploiting properties such as symmetry, separability, low-dimensional structure, and physical units.",
        article = nil,
        aliases = { "AI Feynman", "AI-Feynman" },
        es = "Un algoritmo de regresión simbólica inspirado en la física que recupera fórmulas analíticas a partir de datos numéricos explotando recursivamente propiedades como simetría, separabilidad, estructura de baja dimensión y unidades físicas.",
        zh = "一种受物理启发的符号回归算法,通过递归利用对称性、可分离性、低维结构和物理单位等性质,从数值数据中恢复解析公式。",
        term_es = "AI Feynman",
        term_zh = "AI Feynman",
        aliases_es = { "AI Feynman" },
        aliases_zh = { "AI Feynman" },
    }
    
    data["ai governance"] = {
        short = "The system of policies, standards, processes, and oversight mechanisms — public and private — through which the development and deployment of AI systems are directed and held accountable.",
        article = nil,
        aliases = { "AI governance framework", "governance of AI", "artificial intelligence governance" },
        es = "Sistema de políticas, normas, procesos y mecanismos de supervisión —públicos y privados— mediante el cual se dirige y se hace responsable al desarrollo y la implementación de los sistemas de IA.",
        zh = "通过政策、标准、流程与监督机制(包括公共与私人层面)对 AI 系统的研发与部署进行引导并实施问责的体系。",
        term_es = "gobernanza de la IA",
        term_zh = "AI 治理",
        aliases_es = { "gobernanza de inteligencia artificial", "marco de gobernanza de IA" },
        aliases_zh = { "人工智能治理", "AI 治理框架" },
    }
    
    data["ai impact assessment"] = {
        short = "A structured evaluation of the potential effects of an AI system on individuals, groups, and society — covering risks, benefits, rights impacts, and mitigations — typically performed before deployment and updated thereafter.",
        article = nil,
        aliases = { "AIA", "algorithmic impact assessment", "AI risk and impact assessment" },
        es = "Evaluación estructurada de los efectos potenciales de un sistema de IA sobre individuos, grupos y la sociedad —incluidos riesgos, beneficios, impactos en derechos y medidas de mitigación—, realizada habitualmente antes del despliegue y actualizada con posterioridad.",
        zh = "对 AI 系统可能给个人、群体和社会带来的影响进行的结构化评估,涵盖风险、收益、对权利的影响及缓解措施,通常在部署前完成并在其后定期更新。",
        term_es = "evaluación de impacto de IA",
        term_zh = "AI 影响评估",
        aliases_es = { "AIA", "evaluación de impacto algorítmico", "evaluación de impacto de sistemas de IA" },
        aliases_zh = { "AIA", "算法影响评估", "人工智能影响评估" },
    }
    
    data["ai principles"] = {
        short = "High-level value statements adopted by governments, companies, or standards bodies — for example fairness, transparency, accountability, safety, privacy, human oversight — intended to guide the responsible development and use of AI.",
        article = nil,
        aliases = { "responsible AI principles", "AI ethics principles", "principles of AI" },
        es = "Declaraciones de valores de alto nivel adoptadas por gobiernos, empresas o cuerpos normativos —por ejemplo equidad, transparencia, rendición de cuentas, seguridad, privacidad, supervisión humana— para guiar el desarrollo y uso responsables de la IA.",
        zh = "由政府、企业或标准制定机构发布的高层价值声明(例如公平、透明、问责、安全、隐私、人类监督等),用于引导 AI 的负责任研发与使用。",
        term_es = "principios de IA",
        term_zh = "AI 原则",
        aliases_es = { "principios éticos de IA", "principios de IA responsable" },
        aliases_zh = { "人工智能原则", "负责任 AI 原则", "AI 伦理原则" },
    }
    
    data["ai risk management framework"] = {
        short = "A voluntary framework published by the US National Institute of Standards and Technology (NIST AI RMF 1.0, 2023) providing guidance for governing, mapping, measuring, and managing risks throughout the AI lifecycle.",
        article = nil,
        aliases = { "NIST AI RMF", "AI RMF", "NIST AI Risk Management Framework", "AI RMF 1.0" },
        es = "Marco voluntario publicado por el Instituto Nacional de Estándares y Tecnología de EE. UU. (NIST AI RMF 1.0, 2023) que ofrece orientación para gobernar, mapear, medir y gestionar los riesgos a lo largo del ciclo de vida de la IA.",
        zh = "美国国家标准与技术研究院(NIST)于 2023 年发布的自愿性框架(AI RMF 1.0),为在 AI 全生命周期中治理、识别、度量和管理风险提供指导。",
        term_es = "Marco de Gestión de Riesgos de IA",
        term_zh = "AI 风险管理框架",
        aliases_es = { "NIST AI RMF", "AI RMF", "Marco AI RMF de NIST" },
        aliases_zh = { "NIST AI RMF", "AI RMF", "NIST 人工智能风险管理框架" },
    }
    
    data["ai safety"] = {
        short = "The field concerned with ensuring that AI systems behave reliably and as intended, avoid harmful unintended consequences, and remain controllable as capabilities scale; encompasses both near-term robustness and long-term alignment research.",
        article = nil,
        aliases = { "artificial intelligence safety", "safe AI" },
        es = "Campo dedicado a garantizar que los sistemas de IA se comporten de forma fiable y conforme a lo previsto, eviten consecuencias no deseadas dañinas y permanezcan controlables a medida que crecen sus capacidades; abarca la robustez a corto plazo y la investigación de alineación a largo plazo.",
        zh = "致力于确保 AI 系统行为可靠、符合预期,避免有害的意外后果,并随着能力提升而保持可控的研究领域;涵盖近期的鲁棒性研究与长期的对齐研究。",
        term_es = "seguridad de la IA",
        term_zh = "AI 安全",
        aliases_es = { "seguridad de inteligencia artificial", "IA segura" },
        aliases_zh = { "人工智能安全", "AI 安全性" },
    }
    
    data["ai safety via debate"] = {
        short = "A proposed AI alignment technique in which two AI agents argue opposing positions about a question while a human judge selects the more convincing argument, with the goal of amplifying human oversight of superhuman systems.",
        article = nil,
        aliases = { "AI safety via debate", "debate (AI safety)", "AI debate" },
        es = "Técnica propuesta de alineación de IA en la que dos agentes de IA defienden posiciones opuestas sobre una cuestión mientras un juez humano elige el argumento más convincente, con el objetivo de amplificar la supervisión humana de sistemas sobrehumanos.",
        zh = "一种被提出的 AI 对齐方法,由两个 AI 智能体就同一问题持相反立场进行辩论,由人类裁判选出更具说服力的一方,旨在放大人类对超人类系统的监督能力。",
        term_es = "seguridad de IA mediante debate",
        term_zh = "通过辩论实现 AI 安全",
        aliases_es = { "debate como técnica de alineación", "AI debate" },
        aliases_zh = { "AI 辩论安全", "辩论式 AI 安全", "AI debate" },
    }
    
    data["ai transparency"] = {
        short = "The property and practice of making information about an AI system — its purpose, data, capabilities, limitations, and decisions — available and intelligible to users, regulators, and affected parties.",
        article = nil,
        aliases = { "AI system transparency", "algorithmic transparency", "transparency in AI" },
        es = "Propiedad y práctica de poner a disposición de usuarios, reguladores y partes afectadas información comprensible sobre un sistema de IA: su propósito, datos, capacidades, limitaciones y decisiones.",
        zh = "使 AI 系统的目的、数据、能力、局限与决策等信息向用户、监管者及受影响方公开且可理解的属性与实践。",
        term_es = "transparencia de la IA",
        term_zh = "AI 透明度",
        aliases_es = { "transparencia algorítmica", "transparencia en IA" },
        aliases_zh = { "人工智能透明度", "算法透明度" },
    }
    
    data["aider"] = {
        short = "An open-source command-line AI pair-programming tool that edits code in a local Git repository by sending diffs through a large language model and committing each change, supporting multiple model providers.",
        article = nil,
        aliases = { "Aider", "aider chat", "aider.chat" },
        es = "Herramienta de código abierto de programación en pareja con IA que edita código en un repositorio Git local enviando diffs a un gran modelo de lenguaje y haciendo commit de cada cambio, con soporte para múltiples proveedores de modelos.",
        zh = "一款开源的命令行 AI 结对编程工具,通过将差异发送给大型语言模型来编辑本地 Git 仓库中的代码,并为每次修改自动提交,支持多种模型提供方。",
        term_es = "Aider",
        term_zh = "Aider",
        aliases_es = { "aider", "aider chat" },
        aliases_zh = { "aider", "Aider 工具" },
    }
    
    data["aif360"] = {
        short = "AI Fairness 360, an open-source Python toolkit released by IBM Research that bundles fairness metrics and bias-mitigation algorithms (pre-, in-, and post-processing) for tabular machine-learning pipelines.",
        article = nil,
        aliases = { "AIF360", "AI Fairness 360", "IBM AIF360", "AI Fairness 360 Toolkit" },
        es = "AI Fairness 360, un kit de herramientas de Python de código abierto publicado por IBM Research que reúne métricas de equidad y algoritmos de mitigación de sesgos (pre-, en- y post-procesamiento) para flujos de trabajo de aprendizaje automático tabular.",
        zh = "AI Fairness 360(AIF360),由 IBM 研究院开源的 Python 工具包,集成了适用于表格类机器学习流程的公平性度量与偏差缓解算法(包含预处理、过程中与后处理三类)。",
        term_es = "AIF360",
        term_zh = "AIF360",
        aliases_es = { "AI Fairness 360", "kit AIF360 de IBM" },
        aliases_zh = { "AIF360", "AI Fairness 360", "IBM AIF360" },
    }
    
    data["ais"] = {
        short = "Acronym for annealed importance sampling, a Monte Carlo method that estimates partition functions and marginal likelihoods by importance sampling along a sequence of intermediate distributions bridging a tractable proposal and the target.",
        article = nil,
        aliases = { "AIS", "annealed importance sampling" },
        es = "Sigla de annealed importance sampling, un método de Monte Carlo que estima funciones de partición y verosimilitudes marginales mediante muestreo de importancia a lo largo de una secuencia de distribuciones intermedias entre una propuesta tratable y la distribución objetivo.",
        zh = "annealed importance sampling 的缩写,是一种蒙特卡洛方法,通过沿着连接可处理提议分布与目标分布的一系列中间分布进行重要性采样,来估计配分函数和边际似然。",
        term_es = "AIS",
        term_zh = "AIS",
        aliases_es = { "AIS", "muestreo de importancia con recocido" },
        aliases_zh = { "AIS", "退火重要性采样" },
    }
    
    data["aix360"] = {
        short = "AI Explainability 360 — an open-source IBM toolkit that provides a unified Python API for a broad set of explanation algorithms covering data, directly interpretable models, local post-hoc, and global post-hoc methods.",
        article = nil,
        aliases = { "AIX360", "AI Explainability 360", "AI Explainability Toolkit" },
        es = "AI Explainability 360: kit de herramientas de código abierto de IBM que proporciona una API unificada en Python para un amplio conjunto de algoritmos de explicación que cubren datos, modelos directamente interpretables y métodos post-hoc locales y globales.",
        zh = "AI Explainability 360:IBM 推出的开源工具包,提供统一的 Python API,涵盖数据解释、可直接解释模型,以及局部和全局事后解释等多种算法。",
        term_es = "AIX360",
        term_zh = "AIX360",
        aliases_es = { "AI Explainability 360" },
        aliases_zh = { "AI Explainability 360", "AI 可解释性 360" },
    }
    
    data["aizynthfinder"] = {
        short = "An open-source retrosynthetic planning tool from AstraZeneca that combines a Monte Carlo tree search policy with neural reaction templates to propose multistep synthesis routes from purchasable building blocks.",
        article = nil,
        aliases = { "AiZynthFinder", "AiZynth", "aizynthfinder" },
        es = "Herramienta de planificación retrosintética de código abierto desarrollada por AstraZeneca que combina búsqueda en árbol de Monte Carlo con plantillas de reacciones neuronales para proponer rutas de síntesis de múltiples pasos a partir de materiales de partida adquiribles.",
        zh = "由 AstraZeneca 开源的逆合成规划工具,结合蒙特卡罗树搜索策略与神经反应模板,从可购买原料出发提出多步合成路线。",
        term_es = "AiZynthFinder",
        term_zh = "AiZynthFinder",
        aliases_es = { "AiZynthFinder", "AiZynth" },
        aliases_zh = { "AiZynthFinder", "AiZynth" },
    }
    
    data["alarm network"] = {
        short = "A 37-node Bayesian network for monitoring patients in intensive care, originally built to study probabilistic alarm messages and now a standard benchmark for structure learning and inference algorithms.",
        article = nil,
        aliases = { "ALARM network", "ALARM Bayesian network", "ALARM benchmark" },
        es = "Red bayesiana de 37 nodos para la monitorización de pacientes en cuidados intensivos, creada originalmente para estudiar mensajes de alarma probabilísticos y hoy estándar como referencia para el aprendizaje de estructura e inferencia.",
        zh = "一个用于重症监护患者监护的 37 节点贝叶斯网络,最初用于研究概率报警信息,目前已成为结构学习和推断算法的标准基准。",
        term_es = "red ALARM",
        term_zh = "ALARM 网络",
        aliases_es = { "red bayesiana ALARM", "benchmark ALARM" },
        aliases_zh = { "ALARM 贝叶斯网络", "ALARM 基准" },
    }
    
    data["albef"] = {
        short = "A vision-language model that aligns image and text representations through an image-text contrastive loss before fusing them with a multimodal transformer. Introduced the align-before-fuse paradigm and momentum distillation to handle noisy web pairs.",
        article = nil,
        aliases = { "ALBEF", "Align Before Fuse", "ALBEF model" },
        es = "Modelo de visión y lenguaje que alinea las representaciones de imagen y texto mediante una pérdida contrastiva imagen-texto antes de fusionarlas con un transformador multimodal. Introdujo el paradigma alinear antes de fusionar y la destilación con momento para tratar pares ruidosos de la web.",
        zh = "一种视觉-语言模型,先通过图文对比损失对图像和文本表示进行对齐,再用多模态 Transformer 进行融合。提出了\"先对齐后融合\"范式以及动量蒸馏,以处理来自网络的噪声图文对。",
        term_es = "ALBEF",
        term_zh = "ALBEF",
        aliases_es = { "ALBEF", "modelo ALBEF", "Align Before Fuse" },
        aliases_zh = { "ALBEF", "Align Before Fuse", "对齐再融合模型" },
    }
    
    data["albert"] = {
        short = "A parameter-efficient variant of BERT that ties weights across transformer layers and factorizes the input embedding matrix, dramatically reducing model size while maintaining competitive accuracy.",
        article = nil,
        aliases = { "ALBERT", "A Lite BERT", "a lite BERT", "lite BERT" },
        es = "Variante eficiente en parámetros de BERT que comparte los pesos entre las capas del transformer y factoriza la matriz de embeddings de entrada, reduciendo drásticamente el tamaño del modelo mientras mantiene una precisión competitiva.",
        zh = "BERT 的参数高效变体,跨 Transformer 层共享权重并对输入嵌入矩阵进行因式分解,在显著减小模型规模的同时保持具有竞争力的精度。",
        term_es = "ALBERT",
        term_zh = "ALBERT",
        aliases_es = { "ALBERT", "BERT ligero" },
        aliases_zh = { "ALBERT", "轻量级 BERT", "精简 BERT" },
    }
    
    data["alchemical free energy"] = {
        short = "Free energy calculation paradigm in which non-physical (alchemical) intermediate states gradually transform one chemical system into another along a coupling parameter, enabling rigorous estimates of binding, solvation, and mutation free energies via FEP or thermodynamic integration.",
        article = nil,
        aliases = { "alchemical free energy calculation", "alchemical FEP", "alchemical methods", "alchemical free energy methods" },
        es = "Paradigma de cálculo de energía libre en el que estados intermedios no físicos (alquímicos) transforman gradualmente un sistema químico en otro a lo largo de un parámetro de acoplamiento, permitiendo estimaciones rigurosas de energías libres de unión, solvatación y mutación mediante FEP o integración termodinámica.",
        zh = "一类自由能计算方法,通过沿耦合参数引入非物理(炼金术式)中间态,将一个化学体系逐步转变为另一个,从而借助 FEP 或热力学积分严格估算结合、溶剂化和突变自由能。",
        term_es = "energía libre alquímica",
        term_zh = "炼金术自由能",
        aliases_es = { "métodos alquímicos", "FEP alquímico", "cálculo alquímico de energía libre" },
        aliases_zh = { "炼金术式自由能", "alchemical free energy", "炼金术 FEP" },
    }
    
    data["ale plot"] = {
        short = "Accumulated Local Effects plot — a model-agnostic feature-effect visualization (Apley & Zhu, 2020) that estimates the conditional, rather than marginal, effect of a feature, providing unbiased estimates when features are correlated.",
        article = nil,
        aliases = { "ALE plot", "ALE", "accumulated local effects", "accumulated local effects plot" },
        es = "Gráfico de Efectos Locales Acumulados: visualización del efecto de una característica independiente del modelo (Apley y Zhu, 2020) que estima el efecto condicional, en lugar del marginal, ofreciendo estimaciones insesgadas cuando las características están correlacionadas.",
        zh = "累积局部效应图(ALE plot):Apley 与 Zhu 于 2020 年提出的与模型无关的特征效应可视化方法,估计的是条件效应而非边缘效应,因此在特征相关时仍能给出无偏估计。",
        term_es = "gráfico ALE",
        term_zh = "ALE 图",
        aliases_es = { "ALE", "efectos locales acumulados", "gráfico de efectos locales acumulados" },
        aliases_zh = { "累积局部效应图", "ALE", "累积局部效应" },
    }
    
    data["aleatoric uncertainty"] = {
        short = "Irreducible uncertainty arising from inherent stochasticity or noise in the data-generating process, which cannot be removed by collecting more data; contrasted with epistemic uncertainty.",
        article = nil,
        aliases = { "data uncertainty", "statistical uncertainty", "irreducible uncertainty" },
        es = "Incertidumbre irreducible derivada de la estocasticidad o ruido inherente al proceso generador de datos, que no puede eliminarse recopilando más datos; se contrasta con la incertidumbre epistémica.",
        zh = "源于数据生成过程内在随机性或噪声的不可约不确定性,无法通过收集更多数据消除;与认知不确定性相对。",
        term_es = "incertidumbre aleatoria",
        term_zh = "偶然不确定性",
        aliases_es = { "incertidumbre aleatórica", "incertidumbre de los datos", "incertidumbre irreducible" },
        aliases_zh = { "随机不确定性", "数据不确定性", "不可约不确定性" },
    }
    
    data["alexnet"] = {
        short = "An eight-layer convolutional neural network introduced by Krizhevsky, Sutskever, and Hinton in 2012 that won the ImageNet challenge by a wide margin, popularizing deep learning for computer vision.",
        article = nil,
        aliases = { "AlexNet", "Krizhevsky network" },
        es = "Red neuronal convolucional de ocho capas presentada por Krizhevsky, Sutskever y Hinton en 2012 que ganó el desafío ImageNet por un amplio margen, popularizando el aprendizaje profundo en visión por computadora.",
        zh = "由 Krizhevsky、Sutskever 和 Hinton 于 2012 年提出的八层卷积神经网络,在 ImageNet 挑战赛中以巨大优势取胜,使深度学习在计算机视觉中得以普及。",
        term_es = "AlexNet",
        term_zh = "AlexNet",
        aliases_es = { "AlexNet" },
        aliases_zh = { "AlexNet" },
    }
    
    data["alfa meta-learning"] = {
        short = "ALFA (Adaptive Learning of hyperparameters for Fast Adaptation), a MAML extension by Baik et al. that learns task-specific inner-loop learning rates and weight-decay coefficients per layer for faster few-shot adaptation.",
        article = nil,
        aliases = { "ALFA", "ALFA meta-learning", "Adaptive Learning of hyperparameters for Fast Adaptation" },
        es = "ALFA (Adaptive Learning of hyperparameters for Fast Adaptation), una extensión de MAML de Baik et al. que aprende tasas de aprendizaje y coeficientes de regularización por capa específicos de cada tarea para una adaptación más rápida con pocos ejemplos.",
        zh = "ALFA(用于快速适应的超参数自适应学习),Baik 等人提出的 MAML 扩展,按层学习任务特定的内层学习率和权重衰减系数,实现更快的少样本适应。",
        term_es = "ALFA",
        term_zh = "ALFA",
        aliases_es = { "ALFA", "meta-aprendizaje ALFA" },
        aliases_zh = { "ALFA", "ALFA 元学习", "ALFA 自适应超参数学习" },
    }
    
    data["algebraic connectivity"] = {
        short = "The second-smallest eigenvalue of the Laplacian matrix of a graph, also called the Fiedler value; it measures how well-connected the graph is and is positive iff the graph is connected.",
        article = nil,
        aliases = { "Fiedler value", "Fiedler eigenvalue", "spectral gap of Laplacian" },
        es = "Segundo autovalor más pequeño de la matriz laplaciana de un grafo, también llamado valor de Fiedler; mide qué tan bien conectado está el grafo y es positivo si y sólo si el grafo es conexo.",
        zh = "图的拉普拉斯矩阵的第二小特征值,也称为 Fiedler 值;它衡量图的连通性强弱,当且仅当图连通时取正值。",
        term_es = "conectividad algebraica",
        term_zh = "代数连通度",
        aliases_es = { "valor de Fiedler", "autovalor de Fiedler" },
        aliases_zh = { "Fiedler 值", "Fiedler 特征值" },
    }
    
    data["algebraic topology"] = {
        short = "The branch of mathematics that studies topological spaces by associating algebraic invariants such as homotopy groups, homology, and cohomology to them.",
        article = nil,
        aliases = { "homotopy theory" },
        es = "Rama de las matemáticas que estudia los espacios topológicos asociándoles invariantes algebraicos como los grupos de homotopía, la homología y la cohomología.",
        zh = "数学的一个分支,通过为拓扑空间赋予同伦群、同调群和上同调群等代数不变量来研究它们。",
        term_es = "topología algebraica",
        term_zh = "代数拓扑",
        aliases_es = { "topología algebraica" },
        aliases_zh = { "代数拓扑学" },
    }
    
    data["algorithm selection"] = {
        short = "The meta-learning problem of choosing the best algorithm from a portfolio for a given problem instance, often based on instance features and performance models trained on a meta-dataset.",
        article = nil,
        aliases = { "algorithm-selection problem", "per-instance algorithm selection", "ASP" },
        es = "Problema de meta-aprendizaje consistente en elegir el mejor algoritmo de una cartera para una instancia de problema dada, normalmente a partir de características de la instancia y modelos de rendimiento entrenados sobre un meta-conjunto de datos.",
        zh = "一种元学习问题:根据实例特征和在元数据集上训练的性能模型,从算法库中为给定问题实例选择最佳算法。",
        term_es = "selección de algoritmos",
        term_zh = "算法选择",
        aliases_es = { "selección de algoritmo", "problema de selección de algoritmos", "ASP" },
        aliases_zh = { "算法选择问题", "按实例算法选择", "ASP" },
    }
    
    data["algorithmic accountability"] = {
        short = "The principle that designers, deployers, and operators of algorithmic systems should be answerable for the decisions, outputs, and impacts of those systems, including obligations to explain, justify, and remediate harms.",
        article = nil,
        aliases = { "algorithmic accountability", "AI accountability", "algorithm accountability" },
        es = "Principio según el cual quienes diseñan, despliegan y operan sistemas algorítmicos deben responder por las decisiones, resultados e impactos de dichos sistemas, incluyendo obligaciones de explicar, justificar y reparar daños.",
        zh = "算法问责制是指算法系统的设计者、部署者和运营者应对系统的决策、输出和影响负责,包括解释、辩护和补救危害的义务。",
        term_es = "rendición de cuentas algorítmica",
        term_zh = "算法问责制",
        aliases_es = { "responsabilidad algorítmica", "rendición de cuentas algorítmica", "accountability algorítmico" },
        aliases_zh = { "算法问责", "算法问责制", "算法责任制" },
    }
    
    data["algorithmic alignment"] = {
        short = "The principle that a neural network generalizes better on a reasoning task when its computational structure aligns with that of an algorithm solving the task; introduced to explain why graph neural networks succeed on dynamic-programming-style problems.",
        article = nil,
        aliases = { "algorithmic alignment" },
        es = "El principio según el cual una red neuronal generaliza mejor en una tarea de razonamiento cuando su estructura computacional se alinea con la de un algoritmo que resuelve dicha tarea; se introdujo para explicar por qué las redes neuronales de grafos tienen éxito en problemas tipo programación dinámica.",
        zh = "一种原则:当神经网络的计算结构与解决某推理任务的算法结构相吻合时,网络在该任务上具有更好的泛化能力;用于解释图神经网络在动态规划类问题上的成功。",
        term_es = "alineación algorítmica",
        term_zh = "算法对齐",
        aliases_es = { "alineación algorítmica" },
        aliases_zh = { "算法对齐", "算法一致性" },
    }
    
    data["algorithmic auditing"] = {
        short = "The systematic evaluation of algorithmic systems to assess their behavior, performance, fairness, or compliance with policies, often involving black-box probing, code review, or analysis of inputs and outputs.",
        article = nil,
        aliases = { "algorithm auditing", "AI auditing", "algorithm audit", "algorithmic audit" },
        es = "Evaluación sistemática de sistemas algorítmicos para examinar su comportamiento, rendimiento, equidad o cumplimiento de políticas, frecuentemente mediante pruebas de caja negra, revisión de código o análisis de entradas y salidas.",
        zh = "算法审计是对算法系统进行系统性评估,以评估其行为、性能、公平性或政策合规性,通常涉及黑盒探测、代码审查或输入输出分析。",
        term_es = "auditoría algorítmica",
        term_zh = "算法审计",
        aliases_es = { "auditoría de algoritmos", "auditoría algorítmica" },
        aliases_zh = { "算法审计", "算法审核" },
    }
    
    data["algorithmic bias"] = {
        short = "Systematic and reproducible errors in an algorithmic system that produce unfair outcomes, such as privileging or disadvantaging particular groups, often arising from biased training data, design choices, or deployment context.",
        article = nil,
        aliases = { "algorithm bias", "AI bias", "machine bias", "model bias" },
        es = "Errores sistemáticos y reproducibles en un sistema algorítmico que producen resultados injustos, como privilegiar o perjudicar a grupos específicos, generalmente derivados de datos de entrenamiento sesgados, decisiones de diseño o el contexto de despliegue.",
        zh = "算法偏见是指算法系统中产生不公平结果的系统性、可重现错误,例如偏袒或不利于特定群体,通常源于训练数据偏差、设计选择或部署环境。",
        term_es = "sesgo algorítmico",
        term_zh = "算法偏见",
        aliases_es = { "sesgo de algoritmo", "sesgo algorítmico", "sesgo en algoritmos" },
        aliases_zh = { "算法偏见", "算法偏差", "算法歧视性偏见" },
    }
    
    data["algorithmic discrimination"] = {
        short = "Differential treatment or impact produced by an algorithmic system that disadvantages individuals on the basis of protected attributes such as race, gender, or disability, whether intentional or not.",
        article = nil,
        aliases = { "algorithm discrimination", "AI discrimination", "automated discrimination" },
        es = "Trato diferenciado o impacto producido por un sistema algorítmico que perjudica a individuos sobre la base de atributos protegidos como raza, género o discapacidad, sea intencional o no.",
        zh = "算法歧视是指算法系统基于种族、性别或残疾等受保护属性对个人产生不利的差别对待或影响,无论是否出于故意。",
        term_es = "discriminación algorítmica",
        term_zh = "算法歧视",
        aliases_es = { "discriminación por algoritmos", "discriminación automatizada" },
        aliases_zh = { "算法歧视", "自动化歧视" },
    }
    
    data["algorithmic fairness"] = {
        short = "A subfield of machine learning concerned with formalizing and enforcing notions of equitable treatment in algorithmic decisions, typically through statistical criteria such as demographic parity, equalized odds, or calibration across groups.",
        article = nil,
        aliases = { "algorithm fairness", "ML fairness", "machine learning fairness", "AI fairness", "fairness in ML" },
        es = "Subcampo del aprendizaje automático dedicado a formalizar y exigir nociones de trato equitativo en las decisiones algorítmicas, generalmente mediante criterios estadísticos como paridad demográfica, igualdad de oportunidades o calibración entre grupos.",
        zh = "算法公平性是机器学习的一个子领域,旨在形式化并强制执行算法决策中的公平对待概念,通常通过统计标准实现,例如人口统计均等、机会均等或群体间校准。",
        term_es = "equidad algorítmica",
        term_zh = "算法公平性",
        aliases_es = { "justicia algorítmica", "equidad algorítmica", "fairness algorítmica" },
        aliases_zh = { "算法公平", "算法公平性", "机器学习公平性" },
    }
    
    data["algorithmic harm"] = {
        short = "Adverse consequences inflicted on individuals or groups by an algorithmic system, including allocational harms (denying resources or opportunities) and representational harms (reinforcing stereotypes or erasing identities).",
        article = nil,
        aliases = { "algorithm harm", "AI harm", "harms from algorithms" },
        es = "Consecuencias adversas que un sistema algorítmico inflige a individuos o grupos, incluyendo daños distributivos (negar recursos u oportunidades) y daños representacionales (reforzar estereotipos o invisibilizar identidades).",
        zh = "算法危害是指算法系统对个人或群体造成的不利后果,包括分配性危害(剥夺资源或机会)和表征性危害(强化刻板印象或抹除身份)。",
        term_es = "daño algorítmico",
        term_zh = "算法危害",
        aliases_es = { "daño algorítmico", "perjuicio algorítmico" },
        aliases_zh = { "算法危害", "算法伤害" },
    }
    
    data["algorithmic hiring bias"] = {
        short = "Systematic disadvantage produced by automated recruiting or candidate-screening systems that disfavors applicants on the basis of protected attributes, often inherited from biased historical hiring data.",
        article = nil,
        aliases = { "hiring algorithm bias", "automated hiring bias", "AI hiring bias", "recruitment algorithm bias" },
        es = "Desventaja sistemática producida por sistemas automatizados de reclutamiento o cribado de candidatos que perjudica a postulantes sobre la base de atributos protegidos, frecuentemente heredada de datos históricos de contratación sesgados.",
        zh = "算法招聘偏见是指自动化招聘或候选人筛选系统对具有受保护属性的申请者产生的系统性不利对待,通常源于历史招聘数据中的偏见。",
        term_es = "sesgo algorítmico en contratación",
        term_zh = "算法招聘偏见",
        aliases_es = { "sesgo en contratación algorítmica", "sesgo algorítmico de contratación" },
        aliases_zh = { "算法招聘偏见", "招聘算法偏见", "自动化招聘偏见" },
    }
    
    data["algorithmic impact assessment"] = {
        short = "A structured process for evaluating the potential social, legal, and ethical effects of an algorithmic system before or during deployment, used to identify risks of harm and inform mitigation or oversight.",
        article = nil,
        aliases = { "AIA", "algorithm impact assessment", "AI impact assessment" },
        es = "Proceso estructurado para evaluar los posibles efectos sociales, jurídicos y éticos de un sistema algorítmico antes o durante su despliegue, utilizado para identificar riesgos de daño e informar medidas de mitigación o supervisión.",
        zh = "算法影响评估是在算法系统部署前或部署期间评估其潜在社会、法律和伦理影响的结构化流程,用于识别危害风险并指导缓解或监督措施。",
        term_es = "evaluación de impacto algorítmico",
        term_zh = "算法影响评估",
        aliases_es = { "evaluación de impacto algorítmico", "AIA" },
        aliases_zh = { "算法影响评估", "AIA" },
    }
    
    data["algorithmic justice"] = {
        short = "An interdisciplinary movement and field of study aimed at preventing, exposing, and redressing harms from algorithmic systems, particularly when those harms reproduce structural inequalities of race, gender, or class.",
        article = nil,
        aliases = { "algorithm justice", "AI justice" },
        es = "Movimiento interdisciplinario y campo de estudio orientado a prevenir, exponer y reparar los daños derivados de sistemas algorítmicos, particularmente cuando esos daños reproducen desigualdades estructurales de raza, género o clase.",
        zh = "算法正义是一个跨学科运动和研究领域,旨在预防、揭露和补救算法系统造成的危害,尤其是那些重现种族、性别或阶级结构性不平等的危害。",
        term_es = "justicia algorítmica",
        term_zh = "算法正义",
        aliases_es = { "justicia algorítmica" },
        aliases_zh = { "算法正义" },
    }
    
    data["algorithmic oversight"] = {
        short = "Mechanisms — including audits, regulatory review, internal governance, and external monitoring — used to supervise the development and deployment of algorithmic systems and ensure compliance with policies or norms.",
        article = nil,
        aliases = { "algorithm oversight", "AI oversight", "oversight of algorithms" },
        es = "Mecanismos —incluyendo auditorías, revisión regulatoria, gobernanza interna y monitoreo externo— utilizados para supervisar el desarrollo y despliegue de sistemas algorítmicos y garantizar el cumplimiento de políticas o normas.",
        zh = "算法监督是指通过审计、监管审查、内部治理和外部监测等机制,监督算法系统的开发与部署,并确保其遵守政策或规范。",
        term_es = "supervisión algorítmica",
        term_zh = "算法监督",
        aliases_es = { "supervisión algorítmica", "vigilancia algorítmica" },
        aliases_zh = { "算法监督", "算法监管" },
    }
    
    data["algorithmic racism"] = {
        short = "Discrimination by automated systems that disadvantages people on the basis of race or ethnicity, frequently arising when models trained on biased data reproduce or amplify existing racial inequities.",
        article = nil,
        aliases = { "racist algorithms", "algorithmic racial bias", "AI racism" },
        es = "Discriminación ejercida por sistemas automatizados que perjudica a las personas sobre la base de raza o etnia, frecuentemente surgida cuando modelos entrenados con datos sesgados reproducen o amplifican desigualdades raciales existentes.",
        zh = "算法种族主义是指自动化系统基于种族或族裔对人产生不利对待,通常源于使用偏差数据训练的模型重现或放大既有种族不平等。",
        term_es = "racismo algorítmico",
        term_zh = "算法种族主义",
        aliases_es = { "racismo algorítmico" },
        aliases_zh = { "算法种族主义", "算法种族歧视" },
    }
    
    data["algorithmic recourse"] = {
        short = "The means by which an individual adversely affected by an automated decision can change that outcome, usually expressed as a set of feasible feature modifications that would alter the model's prediction.",
        article = nil,
        aliases = { "algorithmic recourse", "machine learning recourse", "model recourse" },
        es = "Conjunto de medios por los que una persona afectada negativamente por una decisión automatizada puede revertir ese resultado, expresado normalmente como modificaciones factibles de las características que cambiarían la predicción del modelo.",
        zh = "受自动化决策不利影响的个体改变该结果的途径,通常表现为一组可行的特征修改方案,能够使模型预测发生改变。",
        term_es = "recurso algorítmico",
        term_zh = "算法补救",
        aliases_es = { "recurso de aprendizaje automático", "recurso del modelo" },
        aliases_zh = { "算法救济", "模型补救", "机器学习补救" },
    }
    
    data["algorithmic redlining"] = {
        short = "Discriminatory exclusion of individuals or geographic areas from goods, services, or opportunities by automated decision systems, echoing historical redlining in housing and credit but mediated by algorithms and proxy variables.",
        article = nil,
        aliases = { "digital redlining", "automated redlining" },
        es = "Exclusión discriminatoria de individuos o áreas geográficas del acceso a bienes, servicios u oportunidades por parte de sistemas automatizados de decisión, replicando la práctica histórica del redlining en vivienda y crédito pero mediada por algoritmos y variables proxy.",
        zh = "算法红线划分是指自动化决策系统对个人或地理区域在获取商品、服务或机会方面的歧视性排斥,呼应了住房和信贷领域的历史红线政策,但通过算法和代理变量实施。",
        term_es = "redlining algorítmico",
        term_zh = "算法红线划分",
        aliases_es = { "redlining algorítmico", "redlining digital" },
        aliases_zh = { "算法红线", "算法红线划分", "数字红线划分" },
    }
    
    data["algorithmic sexism"] = {
        short = "Discrimination by automated systems that disadvantages people on the basis of sex or gender, often arising when models trained on biased data reproduce or amplify existing gender inequalities.",
        article = nil,
        aliases = { "sexist algorithms", "algorithmic gender bias", "AI sexism" },
        es = "Discriminación ejercida por sistemas automatizados que perjudica a las personas sobre la base de sexo o género, frecuentemente surgida cuando modelos entrenados con datos sesgados reproducen o amplifican desigualdades de género existentes.",
        zh = "算法性别歧视是指自动化系统基于性别对人产生不利对待,通常源于使用偏差数据训练的模型重现或放大既有性别不平等。",
        term_es = "sexismo algorítmico",
        term_zh = "算法性别歧视",
        aliases_es = { "sexismo algorítmico", "machismo algorítmico" },
        aliases_zh = { "算法性别歧视", "算法性别偏见" },
    }
    
    data["algorithmic transparency"] = {
        short = "The property of an algorithmic system whose data, logic, design choices, and outputs can be inspected and understood by stakeholders, often a precondition for accountability and contestability.",
        article = nil,
        aliases = { "algorithm transparency", "AI transparency", "transparency in algorithms" },
        es = "Propiedad de un sistema algorítmico cuyos datos, lógica, decisiones de diseño y resultados pueden ser inspeccionados y comprendidos por las partes interesadas, frecuentemente una condición previa para la rendición de cuentas y la posibilidad de impugnación.",
        zh = "算法透明度是指算法系统的数据、逻辑、设计选择和输出可由利益相关者审视和理解的特性,通常是问责和可申诉性的前提条件。",
        term_es = "transparencia algorítmica",
        term_zh = "算法透明度",
        aliases_es = { "transparencia algorítmica" },
        aliases_zh = { "算法透明度", "算法透明性" },
    }
    
    data["alibi"] = {
        short = "A position encoding scheme that adds a static, head-specific linear bias to attention scores proportional to the distance between query and key, enabling extrapolation to sequences longer than those seen in training.",
        article = nil,
        aliases = { "ALiBi", "Attention with Linear Biases", "attention with linear biases" },
        es = "Esquema de codificación posicional que añade un sesgo lineal estático y específico de cada cabeza a las puntuaciones de atención, proporcional a la distancia entre consulta y clave, lo que permite extrapolar a secuencias más largas que las vistas en entrenamiento.",
        zh = "一种位置编码方案,在注意力分数上加入按查询与键距离成比例、各注意力头独立的静态线性偏置,使模型能够外推到比训练时更长的序列。",
        term_es = "ALiBi",
        term_zh = "ALiBi",
        aliases_es = { "ALiBi", "atención con sesgos lineales" },
        aliases_zh = { "ALiBi", "线性偏置注意力", "带线性偏置的注意力" },
    }
    
    data["alibi explainer"] = {
        short = "Alibi — an open-source Python library for inspection and explanation of machine-learning models, providing implementations of anchor explanations, integrated gradients, counterfactuals, ALE, and trust scores.",
        article = nil,
        aliases = { "Alibi", "alibi-explain", "Alibi Explain", "Seldon Alibi" },
        es = "Alibi: biblioteca de código abierto en Python para la inspección y explicación de modelos de aprendizaje automático, que ofrece implementaciones de anchor explanations, integrated gradients, contrafactuales, ALE y trust scores.",
        zh = "Alibi:用于机器学习模型检查与解释的开源 Python 库,提供 anchor 解释、积分梯度、反事实、ALE 和置信度评分等算法的实现。",
        term_es = "Alibi",
        term_zh = "Alibi",
        aliases_es = { "alibi-explain", "Seldon Alibi" },
        aliases_zh = { "alibi-explain", "Seldon Alibi" },
    }
    
    data["align"] = {
        short = "A dual-encoder vision-language model introduced by Jia et al. (Google) in 2021 that scales contrastive image-text pretraining to over a billion noisy web alt-text pairs, achieving strong zero-shot and retrieval performance without dataset cleaning.",
        article = nil,
        aliases = { "ALIGN", "A Large-scale ImaGe and Noisy-text embedding", "Google ALIGN" },
        es = "Modelo de visión y lenguaje con doble codificador presentado por Jia et al. (Google) en 2021 que escala el preentrenamiento contrastivo imagen-texto a más de mil millones de pares ruidosos de texto alternativo de la web, logrando un sólido rendimiento en zero-shot y recuperación sin necesidad de limpiar los datos.",
        zh = "由 Jia 等人(Google)于 2021 年提出的双编码器视觉-语言模型,将对比图像-文本预训练扩展到超过十亿条带噪声的网络 alt-text 配对,无需数据清洗即可实现强大的零样本和检索性能。",
        term_es = "ALIGN",
        term_zh = "ALIGN",
        aliases_es = { "ALIGN de Google" },
        aliases_zh = { "ALIGN", "Google ALIGN" },
    }
    
    data["align before fuse"] = {
        short = "A vision-language pretraining paradigm in which image and text features are first aligned with a contrastive objective and only then combined by a deeper cross-modal fusion module. Popularized by ALBEF and adopted by many subsequent multimodal models.",
        article = nil,
        aliases = { "align-before-fuse", "ABF", "align then fuse" },
        es = "Paradigma de preentrenamiento de visión y lenguaje en el que las características de imagen y texto se alinean primero mediante un objetivo contrastivo y solo después se combinan en un módulo más profundo de fusión multimodal. Popularizado por ALBEF y adoptado por numerosos modelos multimodales posteriores.",
        zh = "一种视觉-语言预训练范式:先用对比目标对图像和文本特征进行对齐,再通过更深层的跨模态融合模块进行融合。由 ALBEF 推广,并被许多后续多模态模型采用。",
        term_es = "alinear antes de fusionar",
        term_zh = "先对齐后融合",
        aliases_es = { "alinear-antes-de-fusionar", "alineación antes de fusión" },
        aliases_zh = { "对齐再融合", "先对齐再融合", "对齐-融合范式" },
    }
    
    data["align your latents"] = {
        short = "A video diffusion approach that lifts a pretrained image latent diffusion model to video by inserting temporal layers and fine-tuning them on video data, keeping the spatial layers largely frozen. Enables high-resolution text-to-video generation.",
        article = nil,
        aliases = { "Align Your Latents", "AYL", "video latent diffusion" },
        es = "Enfoque de difusión de vídeo que adapta un modelo preentrenado de difusión latente de imágenes a vídeo insertando capas temporales y ajustándolas con datos de vídeo, manteniendo las capas espaciales prácticamente congeladas. Permite la generación de texto a vídeo en alta resolución.",
        zh = "一种视频扩散方法,将预训练的图像潜在扩散模型扩展到视频,方法是插入时间维度的层并在视频数据上微调,同时大体冻结空间层。可实现高分辨率的文本到视频生成。",
        term_es = "Align Your Latents",
        term_zh = "Align Your Latents",
        aliases_es = { "Align Your Latents", "AYL", "difusión latente de vídeo" },
        aliases_zh = { "Align Your Latents", "AYL", "潜在视频扩散" },
    }
    
    data["alignment faking"] = {
        short = "A behavior in which a language model strategically appears to comply with training objectives while monitored, but reverts to its prior preferences when it believes it is unobserved or off-distribution.",
        article = nil,
        aliases = { "alignment-faking", "fake alignment", "deceptive alignment behavior" },
        es = "Comportamiento por el cual un modelo de lenguaje aparenta de manera estratégica cumplir con los objetivos de entrenamiento mientras está supervisado, pero vuelve a sus preferencias previas cuando cree estar fuera de observación o fuera de distribución.",
        zh = "一种行为:语言模型在被监控时策略性地表现出符合训练目标,但在认为未被观察或处于分布外时又回到先前的偏好。",
        term_es = "fingimiento de alineación",
        term_zh = "对齐伪装",
        aliases_es = { "alineación fingida", "fake alignment" },
        aliases_zh = { "伪装对齐", "对齐伪造", "alignment faking" },
    }
    
    data["alignment handbook"] = {
        short = "An open-source repository from Hugging Face providing reference recipes, scripts, and configurations for supervised fine-tuning, DPO, and other post-training alignment methods on open large language models.",
        article = nil,
        aliases = { "Alignment Handbook", "huggingface alignment handbook", "alignment-handbook" },
        es = "Repositorio de código abierto de Hugging Face que ofrece recetas, scripts y configuraciones de referencia para el ajuste fino supervisado, DPO y otros métodos de alineación post-entrenamiento sobre grandes modelos de lenguaje abiertos.",
        zh = "Hugging Face 提供的开源仓库,包含针对开源大型语言模型进行监督微调、DPO 及其他后训练对齐方法的参考配方、脚本与配置。",
        term_es = "Alignment Handbook",
        term_zh = "Alignment Handbook",
        aliases_es = { "Alignment Handbook de Hugging Face" },
        aliases_zh = { "对齐手册", "alignment-handbook" },
    }
    
    data["alignment head multimodal"] = {
        short = "An attention head in a multimodal transformer that learns to attend across modalities — for example, between image patches and text tokens — and is empirically responsible for cross-modal grounding and alignment.",
        article = nil,
        aliases = { "multimodal alignment head", "cross-modal alignment head", "alignment attention head" },
        es = "Cabeza de atención de un transformador multimodal que aprende a atender entre modalidades —por ejemplo, entre parches de imagen y tokens de texto— y que empíricamente se encarga del anclaje y la alineación entre modalidades.",
        zh = "多模态 Transformer 中的一种注意力头,学习在不同模态间进行注意(例如在图像 patch 与文本 token 之间),在实证上承担跨模态对齐与定位的功能。",
        term_es = "cabeza de alineación multimodal",
        term_zh = "多模态对齐注意力头",
        aliases_es = { "cabeza de atención de alineación multimodal", "cabeza de alineación intermodal" },
        aliases_zh = { "多模态对齐头", "跨模态对齐注意力头" },
    }
    
    data["alime"] = {
        short = "Anchored LIME — a variant of LIME that improves the stability of local explanations by perturbing inputs around an anchor instance drawn from the training data, reducing variance across runs.",
        article = nil,
        aliases = { "ALIME", "Anchored LIME", "stable LIME" },
        es = "Anchored LIME: variante de LIME que mejora la estabilidad de las explicaciones locales al perturbar las entradas en torno a una instancia de anclaje extraída de los datos de entrenamiento, reduciendo la varianza entre ejecuciones.",
        zh = "Anchored LIME:LIME 的一种变体,通过围绕从训练数据中选取的锚定实例对输入进行扰动来提升局部解释的稳定性,降低多次运行之间的方差。",
        term_es = "ALIME",
        term_zh = "ALIME",
        aliases_es = { "Anchored LIME", "LIME anclado" },
        aliases_zh = { "Anchored LIME", "锚定 LIME" },
    }
    
    data["all-atom md"] = {
        short = "Molecular dynamics simulation in which every atom of the system, including hydrogens, is represented explicitly with its own coordinates and force-field interactions, contrasted with coarse-grained or united-atom representations.",
        article = nil,
        aliases = { "all-atom molecular dynamics", "all-atom MD", "all atom MD", "AAMD", "fully atomistic MD" },
        es = "Simulación de dinámica molecular en la que cada átomo del sistema, incluidos los hidrógenos, se representa explícitamente con sus propias coordenadas e interacciones del campo de fuerzas, en contraste con representaciones de grano grueso o de átomo unido.",
        zh = "一种分子动力学模拟方式,其中体系中的每个原子(包括氢原子)都被显式表示并具有各自的坐标和力场相互作用,与粗粒化或联合原子表示形成对比。",
        term_es = "dinámica molecular de todos los átomos",
        term_zh = "全原子分子动力学",
        aliases_es = { "all-atom MD", "DM de todos los átomos", "DM totalmente atomística" },
        aliases_zh = { "全原子 MD", "全原子分子动力学模拟", "all-atom MD" },
    }
    
    data["all-gather operation"] = {
        short = "A collective communication primitive in which every process contributes a buffer and ends with the concatenation of all processes' buffers; widely used in distributed and federated training.",
        article = nil,
        aliases = { "AllGather", "all gather", "allgather", "all-gather" },
        es = "Primitiva de comunicación colectiva en la que cada proceso aporta un búfer y finaliza con la concatenación de los búferes de todos los procesos; muy utilizada en entrenamiento distribuido y federado.",
        zh = "一种集合通信原语,每个进程贡献一个缓冲区,最终所有进程获得各方缓冲区的拼接;在分布式和联邦训练中广泛使用。",
        term_es = "operación all-gather",
        term_zh = "all-gather 操作",
        aliases_es = { "all-gather", "operación AllGather", "recolección global" },
        aliases_zh = { "AllGather", "全收集操作", "全聚集操作" },
    }
    
    data["all-reduce"] = {
        short = "A collective communication primitive in which every participating process contributes a tensor and ends up with the element-wise reduction (typically sum) of all contributions; the dominant gradient synchronization operation in synchronous data-parallel training.",
        article = nil,
        aliases = { "AllReduce", "all reduce", "allreduce", "MPI_Allreduce" },
        es = "Primitiva de comunicación colectiva en la que cada proceso participante aporta un tensor y todos terminan con la reducción elemento a elemento (normalmente la suma) de todas las aportaciones; es la operación dominante de sincronización de gradientes en el entrenamiento paralelo de datos sincrónico.",
        zh = "一种集合通信原语:每个参与进程提供一个张量,最终所有进程都得到对全部张量按元素归约(通常为求和)后的结果;是同步数据并行训练中最主要的梯度同步操作。",
        term_es = "all-reduce",
        term_zh = "All-Reduce",
        aliases_es = { "AllReduce", "reducción global", "MPI_Allreduce" },
        aliases_zh = { "AllReduce", "全规约", "全局归约", "MPI_Allreduce" },
    }
    
    data["allegro potential"] = {
        short = "A strictly local, equivariant neural network interatomic potential by Kozinsky and collaborators that achieves linear scaling and high parallel efficiency by avoiding global message passing while preserving E(3)-equivariance.",
        article = nil,
        aliases = { "Allegro", "Allegro NNP", "Allegro neural network potential", "Allegro interatomic potential" },
        es = "Potencial interatómico neuronal estrictamente local y equivariante de Kozinsky y colaboradores que logra escalado lineal y alta eficiencia en paralelo al evitar el paso de mensajes global manteniendo la equivariancia E(3).",
        zh = "Kozinsky 等人提出的严格局域、等变的神经网络原子间势,通过避免全局消息传递实现线性扩展和高并行效率,同时保持 E(3) 等变性。",
        term_es = "potencial Allegro",
        term_zh = "Allegro 势",
        aliases_es = { "Allegro", "potencial neuronal Allegro" },
        aliases_zh = { "Allegro", "Allegro 神经网络势", "Allegro 原子间势" },
    }
    
    data["allele frequency"] = {
        short = "The proportion of chromosomes in a population that carry a given allele at a specific locus. It is a fundamental quantity in population genetics, GWAS, and variant interpretation, and is often summarized across reference populations such as those in gnomAD.",
        article = nil,
        aliases = { "AF", "minor allele frequency", "MAF", "population allele frequency", "variant allele frequency" },
        es = "Proporción de cromosomas de una población que portan un alelo dado en un locus específico. Es una magnitud fundamental en genética de poblaciones, GWAS e interpretación de variantes, y suele resumirse a lo largo de poblaciones de referencia como las de gnomAD.",
        zh = "群体中某一位点上携带特定等位基因的染色体比例。它是群体遗传学、全基因组关联研究及变异解读中的基本量,常按 gnomAD 等参考群体进行汇总。",
        term_es = "frecuencia alélica",
        term_zh = "等位基因频率",
        aliases_es = { "AF", "frecuencia del alelo menor", "MAF" },
        aliases_zh = { "AF", "次要等位基因频率", "MAF" },
    }
    
    data["allele-specific expression"] = {
        short = "The phenomenon in which the two alleles of a gene in a heterozygous individual are expressed at different levels, typically detected by counting reads carrying each allele at heterozygous sites in RNA-seq data.",
        article = nil,
        aliases = { "ASE", "allele specific expression", "allelic imbalance (expression)" },
        es = "Fenómeno por el cual los dos alelos de un gen en un individuo heterocigoto se expresan a niveles distintos, habitualmente detectado contando las lecturas que portan cada alelo en sitios heterocigotos a partir de datos de RNA-seq.",
        zh = "在杂合个体中,同一基因的两个等位基因表达水平不同的现象;通常通过在 RNA-seq 数据的杂合位点计数各等位基因的读段来检测。",
        term_es = "expresión alelo-específica",
        term_zh = "等位基因特异性表达",
        aliases_es = { "ASE", "expresión específica de alelo", "desequilibrio alélico de expresión" },
        aliases_zh = { "ASE", "等位基因特异表达", "等位特异表达" },
    }
    
    data["allocational harm"] = {
        short = "A type of algorithmic harm in which a system unfairly distributes resources, opportunities, or services — such as loans, jobs, or healthcare — disadvantaging certain groups in their access to material outcomes.",
        article = nil,
        aliases = { "allocative harm", "allocation harm", "allocational harms" },
        es = "Tipo de daño algorítmico en el que un sistema distribuye injustamente recursos, oportunidades o servicios —como préstamos, empleos o atención médica— perjudicando a ciertos grupos en su acceso a resultados materiales.",
        zh = "分配性危害是一种算法危害,指系统不公平地分配资源、机会或服务(如贷款、工作或医疗),使某些群体在获取实际结果方面处于不利地位。",
        term_es = "daño distributivo",
        term_zh = "分配性危害",
        aliases_es = { "daño distributivo", "daño asignativo", "daño de asignación" },
        aliases_zh = { "分配性危害", "分配性伤害", "资源分配危害" },
    }
    
    data["allosteric drug design"] = {
        short = "Design of ligands that bind sites distinct from the orthosteric/active site, modulating target activity through conformational coupling; offers selectivity and probe-dependent pharmacology unavailable to active-site inhibitors.",
        article = nil,
        aliases = { "allosteric drug discovery", "allosteric ligand design", "allosteric modulator design" },
        es = "Diseño de ligandos que se unen a sitios distintos del ortostérico o sitio activo, modulando la actividad de la diana mediante acoplamiento conformacional; ofrece selectividad y farmacología dependiente de sonda inalcanzables para inhibidores del sitio activo.",
        zh = "针对正构(活性)位点之外的位点设计配体,通过构象耦合调节靶标活性的药物设计方法;与活性位点抑制剂相比,可获得更高选择性和探针依赖的药理学性质。",
        term_es = "diseño de fármacos alostéricos",
        term_zh = "变构药物设计",
        aliases_es = { "diseño alostérico de fármacos", "descubrimiento de fármacos alostéricos", "diseño de moduladores alostéricos" },
        aliases_zh = { "别构药物设计", "变构调节剂设计", "变构药物发现" },
    }
    
    data["allosteric site"] = {
        short = "A binding pocket on a protein that is topographically separate from the orthosteric (substrate or natural ligand) site; ligand occupancy there alters protein function via conformational or dynamic coupling.",
        article = nil,
        aliases = { "allosteric pocket", "allosteric binding site", "allosteric sites" },
        es = "Bolsillo de unión en una proteína topográficamente separado del sitio ortostérico (de sustrato o ligando natural); la ocupación por un ligando altera la función proteica mediante acoplamiento conformacional o dinámico.",
        zh = "蛋白质上与正构(底物或天然配体)位点在拓扑结构上分离的结合口袋,配体占据该位点会通过构象或动力学耦合改变蛋白质功能。",
        term_es = "sitio alostérico",
        term_zh = "变构位点",
        aliases_es = { "bolsillo alostérico", "sitio de unión alostérico", "sitios alostéricos" },
        aliases_zh = { "别构位点", "变构口袋", "变构结合位点" },
    }
    
    data["allostery prediction"] = {
        short = "Computational identification of allosteric sites or characterization of allosteric effects in proteins, in which ligand binding at a remote site modulates activity at the orthosteric site. Methods range from normal-mode analysis to deep-learning models on structures or MD trajectories.",
        article = nil,
        aliases = { "allosteric site prediction", "allosteric effect prediction", "prediction of allosteric sites", "allosteric pocket prediction" },
        es = "Identificación computacional de sitios alostéricos o caracterización de efectos alostéricos en proteínas, en los que la unión de un ligando en un sitio distante modula la actividad en el sitio ortostérico. Los métodos van desde el análisis de modos normales hasta modelos de aprendizaje profundo sobre estructuras o trayectorias de dinámica molecular.",
        zh = "对蛋白质中变构位点的计算识别或对变构效应的表征——配体在远端位点结合可调节正构位点的活性。方法涵盖从简正模式分析到针对结构或分子动力学轨迹的深度学习模型。",
        term_es = "predicción de alosterismo",
        term_zh = "变构预测",
        aliases_es = { "predicción de sitios alostéricos", "predicción de efectos alostéricos" },
        aliases_zh = { "变构位点预测", "变构效应预测", "异构位点预测" },
    }
    
    data["alpaca"] = {
        short = "An instruction-tuned variant of LLaMA 7B released by Stanford in 2023, fine-tuned on 52K instruction-following examples generated using OpenAI's text-davinci-003 via the self-instruct procedure.",
        article = nil,
        aliases = { "Alpaca", "Stanford Alpaca", "Alpaca 7B", "Alpaca-7B" },
        es = "Variante ajustada por instrucciones de LLaMA 7B publicada por Stanford en 2023, entrenada con 52 000 ejemplos de seguimiento de instrucciones generados mediante text-davinci-003 de OpenAI a través del procedimiento self-instruct.",
        zh = "斯坦福大学于 2023 年发布的 LLaMA 7B 指令微调版本,使用 OpenAI 的 text-davinci-003 通过 self-instruct 流程生成的 5.2 万条指令样本进行微调。",
        term_es = "Alpaca",
        term_zh = "Alpaca",
        aliases_es = { "Stanford Alpaca", "Alpaca 7B" },
        aliases_zh = { "斯坦福 Alpaca", "Alpaca 7B", "羊驼模型" },
    }
    
    data["alpacaeval"] = {
        short = "An automatic evaluation benchmark for instruction-following language models that uses an LLM judge to compute pairwise win rates of model outputs against a fixed reference model on the AlpacaFarm prompt set.",
        article = nil,
        aliases = { "AlpacaEval", "alpaca-eval", "AlpacaFarm evaluation" },
        es = "Benchmark de evaluación automática para modelos de lenguaje de seguimiento de instrucciones que utiliza un LLM como juez para calcular tasas de victoria por pares de las salidas del modelo frente a un modelo de referencia fijo sobre el conjunto de prompts de AlpacaFarm.",
        zh = "面向指令遵循语言模型的自动评估基准,使用 LLM 作为裁判,在 AlpacaFarm 提示集上计算模型输出相对于固定参考模型的两两胜率。",
        term_es = "AlpacaEval",
        term_zh = "AlpacaEval",
        aliases_es = { "alpaca-eval" },
        aliases_zh = { "alpaca-eval", "AlpacaEval 基准" },
    }
    
    data["alpacaeval 2"] = {
        short = "A revised version of AlpacaEval that uses a length-controlled win rate against GPT-4 Turbo to reduce length bias in LLM-as-judge evaluation of instruction-following models.",
        article = nil,
        aliases = { "AlpacaEval 2", "AlpacaEval2", "AlpacaEval v2", "length-controlled AlpacaEval" },
        es = "Versión revisada de AlpacaEval que utiliza una tasa de victoria controlada por longitud frente a GPT-4 Turbo para reducir el sesgo de longitud en la evaluación de modelos de seguimiento de instrucciones con LLM como juez.",
        zh = "AlpacaEval 的修订版本,针对 GPT-4 Turbo 采用长度受控胜率,以减少在以 LLM 为裁判评估指令遵循模型时的长度偏置。",
        term_es = "AlpacaEval 2",
        term_zh = "AlpacaEval 2",
        aliases_es = { "AlpacaEval v2", "AlpacaEval con control de longitud" },
        aliases_zh = { "AlpacaEval v2", "长度受控 AlpacaEval" },
    }
    
    data["alpha parameters"] = {
        short = "In differentiable architecture search (DARTS), the continuous mixing weights α attached to each candidate operation in the supernet; after softmax they parameterize a learned distribution over architectures.",
        article = nil,
        aliases = { "alpha weights", "alpha", "α parameters", "DARTS alpha", "architecture parameters" },
        es = "En la búsqueda diferenciable de arquitecturas (DARTS), los pesos continuos de mezcla α asociados a cada operación candidata de la super-red; tras un softmax parametrizan una distribución aprendida sobre arquitecturas.",
        zh = "在可微分架构搜索(DARTS)中,超网中每个候选操作上的连续混合权重 α;经 softmax 后参数化一个对架构的学习分布。",
        term_es = "parámetros alfa",
        term_zh = "alpha 参数",
        aliases_es = { "pesos alfa", "α parámetros", "parámetros de arquitectura DARTS" },
        aliases_zh = { "α 参数", "DARTS alpha", "架构参数" },
    }
    
    data["alpha-beta swap"] = {
        short = "A graph-cut move in multi-label MRF energy minimization that, given a current labeling, finds the optimal swap between any two labels alpha and beta by solving a binary min-cut problem.",
        article = nil,
        aliases = { "alpha-beta swap move", "αβ-swap", "ab-swap", "alpha beta swap" },
        es = "Movimiento de corte de grafo en la minimización de energía sobre MRF multietiqueta que, dada una etiquetación actual, halla el intercambio óptimo entre dos etiquetas alfa y beta resolviendo un problema binario de corte mínimo.",
        zh = "一种用于多标签马尔可夫随机场能量最小化的图割移动,在当前标注下通过求解二值最小割问题,找出任意两个标签 alpha 与 beta 之间的最优互换。",
        term_es = "intercambio alfa-beta",
        term_zh = "alpha-beta 互换",
        aliases_es = { "movimiento alfa-beta", "αβ-swap" },
        aliases_zh = { "αβ-swap", "alpha-beta 交换移动" },
    }
    
    data["alpha-divergence"] = {
        short = "A one-parameter family of divergences between probability distributions that interpolates between forward KL, reverse KL, Hellinger and chi-squared divergences; used in variational inference to trade off mode-seeking and mass-covering behaviour.",
        article = nil,
        aliases = { "alpha divergence", "Rényi alpha-divergence", "α-divergence", "Amari alpha-divergence" },
        es = "Familia de divergencias entre distribuciones de probabilidad parametrizada por α, que interpola entre KL directa, KL inversa, divergencia de Hellinger y chi-cuadrado; en inferencia variacional permite equilibrar el comportamiento de búsqueda de modas y cobertura de masa.",
        zh = "一族由参数α控制的概率分布间散度,可在前向KL、反向KL、Hellinger散度和卡方散度之间插值;在变分推断中用于权衡寻峰与覆盖质量的行为。",
        term_es = "α-divergencia",
        term_zh = "α-散度",
        aliases_es = { "divergencia alfa", "divergencia α", "divergencia de Rényi" },
        aliases_zh = { "alpha散度", "α散度", "Rényi α-散度" },
    }
    
    data["alpha-expansion"] = {
        short = "A graph-cut move for multi-label MRF energy minimization that, at each step, allows every variable to either keep its current label or change to a chosen label alpha, optimized via a single binary min-cut.",
        article = nil,
        aliases = { "alpha expansion", "α-expansion", "alpha-expansion move", "expansion move" },
        es = "Movimiento de corte de grafo para la minimización de energía en MRF multietiqueta que, en cada paso, permite a cada variable conservar su etiqueta actual o cambiar a una etiqueta alfa elegida, optimizado mediante un único corte mínimo binario.",
        zh = "一种用于多标签马尔可夫随机场能量最小化的图割移动,在每一步允许每个变量保持当前标签或改为选定的 alpha 标签,并通过一次二值最小割完成优化。",
        term_es = "expansión alfa",
        term_zh = "alpha 扩展",
        aliases_es = { "movimiento de expansión alfa", "α-expansion" },
        aliases_zh = { "α-expansion", "alpha 扩张移动", "扩展移动" },
    }
    
    data["alphacode"] = {
        short = "A code-generation system from DeepMind that produces solutions to competitive programming problems by sampling many candidate programs from a transformer model and filtering them with execution-based clustering.",
        article = nil,
        aliases = { "AlphaCode", "AlphaCode 1", "DeepMind AlphaCode" },
        es = "Sistema de generación de código de DeepMind que produce soluciones a problemas de programación competitiva muestreando muchos programas candidatos de un modelo transformador y filtrándolos mediante agrupamiento basado en ejecución.",
        zh = "DeepMind 推出的代码生成系统,通过从 Transformer 模型中采样大量候选程序,并使用基于执行的聚类进行过滤,从而求解竞赛编程题目。",
        term_es = "AlphaCode",
        term_zh = "AlphaCode",
        aliases_es = { "AlphaCode de DeepMind" },
        aliases_zh = { "DeepMind AlphaCode" },
    }
    
    data["alphafold"] = {
        short = "DeepMind's family of deep learning systems for protein structure prediction; the original AlphaFold (2018) won CASP13, AlphaFold2 (2020) achieved near-experimental accuracy at CASP14, and AlphaFold3 (2024) extended to protein-ligand and biomolecular complexes.",
        article = nil,
        aliases = { "AlphaFold", "AF", "DeepMind AlphaFold" },
        es = "Familia de sistemas de aprendizaje profundo de DeepMind para la predicción de estructuras de proteínas; el AlphaFold original (2018) ganó CASP13, AlphaFold2 (2020) alcanzó precisión casi experimental en CASP14, y AlphaFold3 (2024) se extendió a complejos proteína-ligando y biomoleculares.",
        zh = "DeepMind 推出的一系列用于蛋白质结构预测的深度学习系统:初代 AlphaFold(2018)在 CASP13 夺冠,AlphaFold2(2020)在 CASP14 上达到接近实验级精度,AlphaFold3(2024)进一步扩展到蛋白质-配体及生物分子复合物。",
        term_es = "AlphaFold",
        term_zh = "AlphaFold",
        aliases_es = { "AlphaFold", "AF" },
        aliases_zh = { "AlphaFold", "AF", "阿尔法折叠" },
    }
    
    data["alphafold-multimer"] = {
        short = "An extension of AlphaFold2 trained on multimeric protein assemblies, enabling end-to-end structure prediction of homo- and heterocomplexes by augmenting MSAs and pairing strategies for multiple chains.",
        article = nil,
        aliases = { "AlphaFold-Multimer", "AlphaFold Multimer", "AF-Multimer", "AlphaFold2-Multimer" },
        es = "Extensión de AlphaFold2 entrenada en ensamblajes proteicos multiméricos que permite la predicción de estructura de extremo a extremo de homo- y hetero-complejos mediante MSA aumentados y estrategias de emparejamiento para múltiples cadenas.",
        zh = "AlphaFold2 的扩展版本,针对多聚蛋白质复合物训练,通过为多条链构建增强的多序列比对和配对策略,实现同源和异源复合物结构的端到端预测。",
        term_es = "AlphaFold-Multimer",
        term_zh = "AlphaFold-Multimer",
        aliases_es = { "AlphaFold-Multimer", "AF-Multimer" },
        aliases_zh = { "AlphaFold-Multimer", "AlphaFold 多聚体", "AF-Multimer" },
    }
    
    data["alphafold2"] = {
        short = "DeepMind's 2020 protein structure predictor that combined evolutionary couplings via the Evoformer with an SE(3)-equivariant structure module to achieve near-experimental accuracy at CASP14.",
        article = nil,
        aliases = { "AlphaFold2", "AlphaFold 2", "AF2" },
        es = "Predictor de estructura proteica de DeepMind (2020) que combinó acoplamientos evolutivos mediante el Evoformer con un módulo de estructura equivariante SE(3) para alcanzar precisión casi experimental en CASP14.",
        zh = "DeepMind 于 2020 年发布的蛋白质结构预测系统,通过 Evoformer 利用进化耦合信息,并配合 SE(3) 等变结构模块,在 CASP14 上达到接近实验级的精度。",
        term_es = "AlphaFold2",
        term_zh = "AlphaFold2",
        aliases_es = { "AlphaFold2", "AlphaFold 2", "AF2" },
        aliases_zh = { "AlphaFold2", "AlphaFold 2", "AF2" },
    }
    
    data["alphafold3"] = {
        short = "DeepMind's 2024 successor to AlphaFold2 that predicts joint structures of proteins together with nucleic acids, ligands, ions, and post-translational modifications, replacing the structure module with a diffusion-based generator.",
        article = nil,
        aliases = { "AlphaFold3", "AlphaFold 3", "AF3" },
        es = "Sucesor de AlphaFold2 lanzado por DeepMind en 2024 que predice estructuras conjuntas de proteínas junto con ácidos nucleicos, ligandos, iones y modificaciones postraduccionales, reemplazando el módulo de estructura por un generador basado en difusión.",
        zh = "DeepMind 于 2024 年推出的 AlphaFold2 继任者,可联合预测蛋白质与核酸、小分子配体、离子及翻译后修饰的结构,并将原有结构模块替换为基于扩散模型的生成器。",
        term_es = "AlphaFold3",
        term_zh = "AlphaFold3",
        aliases_es = { "AlphaFold3", "AlphaFold 3", "AF3" },
        aliases_zh = { "AlphaFold3", "AlphaFold 3", "AF3" },
    }
    
    data["alphageometry"] = {
        short = "A neuro-symbolic system from DeepMind that solves olympiad-level Euclidean geometry problems by combining a language model that proposes auxiliary constructions with a symbolic deduction engine, reaching gold-medal-level performance on IMO problems.",
        article = nil,
        aliases = { "AlphaGeometry", "AlphaGeometry 1", "DeepMind AlphaGeometry" },
        es = "Sistema neuro-simbólico de DeepMind que resuelve problemas de geometría euclidiana de nivel olímpico combinando un modelo de lenguaje que propone construcciones auxiliares con un motor de deducción simbólica, alcanzando un nivel de medalla de oro en problemas de la IMO.",
        zh = "DeepMind 提出的神经符号系统,将提出辅助作图的语言模型与符号演绎引擎相结合,求解奥林匹克级别的欧氏几何问题,在国际数学奥林匹克题目上达到金牌水平。",
        term_es = "AlphaGeometry",
        term_zh = "AlphaGeometry",
        aliases_es = { "AlphaGeometry de DeepMind" },
        aliases_zh = { "DeepMind AlphaGeometry" },
    }
    
    data["alphamissense"] = {
        short = "A deep-learning model from DeepMind that predicts the pathogenicity of single-amino-acid (missense) variants in human proteins, combining a structural module derived from AlphaFold with a population-frequency-based language modeling objective.",
        article = nil,
        aliases = { "AlphaMissense", "AlphaMissense pathogenicity score", "AlphaMissense (DeepMind)" },
        es = "Modelo de aprendizaje profundo de DeepMind que predice la patogenicidad de variantes missense (de un solo aminoácido) en proteínas humanas, combinando un módulo estructural derivado de AlphaFold con un objetivo de modelado de lenguaje basado en frecuencia poblacional.",
        zh = "DeepMind 提出的深度学习模型,用于预测人类蛋白质中单氨基酸(错义)变异的致病性;其结合了源自 AlphaFold 的结构模块与基于群体频率的语言建模目标。",
        term_es = "AlphaMissense",
        term_zh = "AlphaMissense",
        aliases_es = { "puntaje de patogenicidad AlphaMissense" },
        aliases_zh = { "AlphaMissense 致病性评分" },
    }
    
    data["alphanet"] = {
        short = "A weight-shared neural architecture search method by Wang et al. that trains a slimmable supernet with α-divergence-based ensemble distillation to improve accuracy across all sub-networks.",
        article = nil,
        aliases = { "AlphaNet", "Alpha-Net", "AlphaNet NAS" },
        es = "Método de búsqueda de arquitecturas neuronales con pesos compartidos de Wang et al. que entrena una super-red adelgazable mediante destilación de ensembles basada en α-divergencia para mejorar la precisión de todas las sub-redes.",
        zh = "Wang 等人提出的权重共享神经架构搜索方法,通过基于 α-散度的集成蒸馏训练可瘦身超网,以提升所有子网络的精度。",
        term_es = "AlphaNet",
        term_zh = "AlphaNet",
        aliases_es = { "AlphaNet", "Alpha-Net" },
        aliases_zh = { "AlphaNet", "Alpha-Net" },
    }
    
    data["alt-text dataset"] = {
        short = "A dataset of images paired with the alt-text descriptions authors attached to them on the web, used as weakly supervised image-text pairs for vision-language pretraining. Examples include Conceptual Captions and the alt-text-derived portion of LAION.",
        article = nil,
        aliases = { "alt text dataset", "alttext dataset", "alt-text image dataset", "alt-text corpus" },
        es = "Conjunto de datos de imágenes emparejadas con las descripciones de texto alternativo (alt-text) que los autores les añadieron en la web, utilizado como pares imagen-texto con supervisión débil para el preentrenamiento de modelos de visión y lenguaje. Ejemplos: Conceptual Captions y la parte de LAION derivada de alt-text.",
        zh = "由网页中作者为图像撰写的替代文本(alt-text)描述与图像配对而成的数据集,作为弱监督的图文对用于视觉-语言预训练。代表性数据集包括 Conceptual Captions 以及 LAION 中由 alt-text 派生的部分。",
        term_es = "conjunto de datos de alt-text",
        term_zh = "alt-text 数据集",
        aliases_es = { "dataset de alt-text", "corpus de texto alternativo", "conjunto de datos de texto alternativo" },
        aliases_zh = { "替代文本数据集", "alt 文本数据集", "alt-text 图文数据集" },
    }
    
    data["alternative splicing"] = {
        short = "A regulated post-transcriptional process by which a single gene produces multiple mRNA isoforms through different combinations of included exons or splice sites, expanding the protein-coding repertoire of eukaryotic genomes.",
        article = nil,
        aliases = { "alternative pre-mRNA splicing", "AS (splicing)", "differential splicing", "splice variants" },
        es = "Proceso post-transcripcional regulado por el cual un único gen produce múltiples isoformas de ARNm mediante distintas combinaciones de exones incluidos o sitios de empalme, ampliando el repertorio codificante de los genomas eucariotas.",
        zh = "一种受调控的转录后过程:通过对外显子组合或剪接位点的不同选择,由单个基因产生多种 mRNA 异构体,从而扩展真核基因组的蛋白质编码能力。",
        term_es = "empalme alternativo",
        term_zh = "可变剪接",
        aliases_es = { "splicing alternativo", "corte y empalme alternativo", "AS" },
        aliases_zh = { "选择性剪接", "差异剪接", "alternative splicing" },
    }
    
    data["am-softmax loss"] = {
        short = "Additive Margin Softmax loss for face recognition that subtracts a fixed margin from the cosine logit of the correct class. Closely related to CosFace and proposed concurrently.",
        article = nil,
        aliases = { "AM-Softmax", "AM softmax", "additive margin softmax loss", "AM-Softmax loss" },
        es = "Pérdida Softmax con margen aditivo para reconocimiento facial que resta un margen fijo del logit coseno de la clase correcta. Está estrechamente relacionada con CosFace y se propuso de forma concurrente.",
        zh = "用于人脸识别的加性间隔 Softmax 损失,从正确类别的余弦 logit 中减去固定间隔。与 CosFace 关系密切,并且同期提出。",
        term_es = "pérdida AM-Softmax",
        term_zh = "AM-Softmax 损失",
        aliases_es = { "AM-Softmax" },
        aliases_zh = { "AM-Softmax", "加性间隔 softmax 损失" },
    }
    
    data["amari divergence"] = {
        short = "The α-divergence introduced by Shun-ichi Amari in information geometry, a one-parameter family of divergences between probability distributions that includes the Kullback-Leibler and Hellinger divergences as special cases.",
        article = nil,
        aliases = { "alpha-divergence", "α-divergence", "Amari alpha-divergence", "Amari α-divergence" },
        es = "α-divergencia introducida por Shun-ichi Amari en geometría de la información, una familia uniparamétrica de divergencias entre distribuciones de probabilidad que incluye la divergencia de Kullback-Leibler y la de Hellinger como casos particulares.",
        zh = "由甘利俊一在信息几何中提出的 α 散度,是概率分布间的一族单参数散度,将 Kullback-Leibler 散度和 Hellinger 散度作为特例包含其中。",
        term_es = "divergencia de Amari",
        term_zh = "Amari 散度",
        aliases_es = { "α-divergencia", "alfa-divergencia", "α-divergencia de Amari" },
        aliases_zh = { "α 散度", "alpha 散度", "甘利散度" },
    }
    
    data["amber benchmark"] = {
        short = "A benchmark for evaluating object, attribute, and relation hallucinations in large multimodal models through both generative and discriminative tasks. Provides fine-grained categories so hallucination behavior can be measured beyond a single aggregate score.",
        article = nil,
        aliases = { "AMBER", "AMBER benchmark", "AMBER hallucination benchmark" },
        es = "Punto de referencia para evaluar las alucinaciones de objetos, atributos y relaciones en grandes modelos multimodales mediante tareas tanto generativas como discriminativas. Proporciona categorías detalladas que permiten medir el comportamiento alucinatorio más allá de un único valor agregado.",
        zh = "用于评估大型多模态模型在物体、属性和关系层面幻觉的基准,同时涵盖生成式和判别式任务。提供细粒度的类别划分,使幻觉行为的衡量超越单一聚合分数。",
        term_es = "benchmark AMBER",
        term_zh = "AMBER 基准",
        aliases_es = { "AMBER", "punto de referencia AMBER", "benchmark de alucinaciones AMBER" },
        aliases_zh = { "AMBER", "AMBER 评测基准", "AMBER 幻觉基准" },
    }
    
    data["amber force field"] = {
        short = "A family of molecular mechanics force fields developed in the Kollman/Case lineage for biomolecular simulation, with widely used variants such as ff14SB and ff19SB for proteins, OL15/OL21 for nucleic acids, and GAFF for small molecules.",
        article = nil,
        aliases = { "AMBER force field", "Amber FF", "AMBER FF", "ff14SB", "ff19SB", "GAFF" },
        es = "Familia de campos de fuerza de mecánica molecular desarrollada en la línea Kollman/Case para simulación biomolecular, con variantes muy utilizadas como ff14SB y ff19SB para proteínas, OL15/OL21 para ácidos nucleicos y GAFF para moléculas pequeñas.",
        zh = "由 Kollman/Case 学派发展的一族用于生物分子模拟的分子力学力场,包括广泛使用的蛋白质版本 ff14SB 和 ff19SB、核酸版本 OL15/OL21 以及小分子版本 GAFF 等。",
        term_es = "campo de fuerzas Amber",
        term_zh = "Amber 力场",
        aliases_es = { "campo de fuerzas AMBER", "ff14SB", "ff19SB", "GAFF" },
        aliases_zh = { "AMBER 力场", "ff14SB", "ff19SB", "GAFF" },
    }
    
    data["amber suite"] = {
        short = "The AMBER software suite for biomolecular simulation, comprising the GPU-accelerated pmemd engine, the sander legacy engine, and AmberTools for setup, force-field parameterization, and trajectory analysis.",
        article = nil,
        aliases = { "Amber suite", "AMBER software", "AMBER suite", "AmberTools", "pmemd", "sander" },
        es = "Conjunto de software AMBER para simulación biomolecular, formado por el motor pmemd acelerado por GPU, el motor heredado sander y AmberTools para preparación, parametrización de campos de fuerza y análisis de trayectorias.",
        zh = "AMBER 生物分子模拟软件套件,包含 GPU 加速的 pmemd 引擎、传统的 sander 引擎,以及用于体系搭建、力场参数化和轨迹分析的 AmberTools。",
        term_es = "suite Amber",
        term_zh = "Amber 软件套件",
        aliases_es = { "software AMBER", "suite AMBER", "AmberTools" },
        aliases_zh = { "Amber 套件", "AMBER 套件", "AmberTools", "pmemd" },
    }
    
    data["amd sev"] = {
        short = "AMD Secure Encrypted Virtualization: a hardware feature on AMD EPYC CPUs that encrypts each virtual machine's memory with a per-VM key, enabling confidential-computing workloads such as private federated training.",
        article = nil,
        aliases = { "AMD SEV", "Secure Encrypted Virtualization", "SEV", "AMD-SEV" },
        es = "AMD Secure Encrypted Virtualization: característica de hardware de las CPU AMD EPYC que cifra la memoria de cada máquina virtual con una clave propia, habilitando cargas de trabajo de computación confidencial como el entrenamiento federado privado.",
        zh = "AMD 安全加密虚拟化:AMD EPYC 处理器的硬件特性,使用每虚拟机独立密钥对内存进行加密,从而支持私密联邦训练等机密计算工作负载。",
        term_es = "AMD SEV",
        term_zh = "AMD SEV",
        aliases_es = { "AMD SEV", "Virtualización Cifrada Segura", "SEV" },
        aliases_zh = { "AMD SEV", "安全加密虚拟化", "SEV" },
    }
    
    data["ames mutagenicity"] = {
        short = "A bacterial reverse-mutation assay using histidine-auxotrophic Salmonella typhimurium strains to detect compounds that cause point mutations; widely used as an in vitro genotoxicity flag in regulatory and computational ADMET pipelines.",
        article = nil,
        aliases = { "Ames test", "Ames mutagenicity", "Ames assay", "Salmonella mutagenicity test" },
        es = "Ensayo bacteriano de reversión mutagénica que utiliza cepas auxótrofas de histidina de Salmonella typhimurium para detectar compuestos que causan mutaciones puntuales; se emplea ampliamente como indicador in vitro de genotoxicidad en flujos regulatorios y computacionales de ADMET.",
        zh = "利用组氨酸营养缺陷型沙门氏菌的回复突变实验,用于检测可引起点突变的化合物,是监管和计算 ADMET 流程中常用的体外致突变性指标。",
        term_es = "mutagenicidad de Ames",
        term_zh = "Ames 致突变性",
        aliases_es = { "test de Ames", "ensayo de Ames", "prueba de Ames", "ensayo de mutagenicidad de Salmonella" },
        aliases_zh = { "Ames 试验", "Ames 检测", "沙门氏菌回复突变试验", "艾姆斯试验" },
    }
    
    data["ami corpus"] = {
        short = "The AMI Meeting Corpus, ~100 hours of recorded meetings with synchronized close-talking and far-field microphones, transcripts, and rich annotations, widely used for ASR, diarization, and meeting understanding.",
        article = nil,
        aliases = { "AMI", "AMI Meeting Corpus", "Augmented Multi-party Interaction corpus" },
        es = "AMI Meeting Corpus, unas 100 horas de reuniones grabadas con micrófonos de campo cercano y lejano sincronizados, transcripciones y anotaciones detalladas, ampliamente usado para ASR, diarización y comprensión de reuniones.",
        zh = "AMI 会议语料库,包含约 100 小时同步的近讲与远场麦克风录音、转写和丰富标注,广泛用于 ASR、说话人分离和会议理解研究。",
        term_es = "AMI Meeting Corpus",
        term_zh = "AMI 语料库",
        aliases_es = { "AMI", "corpus AMI" },
        aliases_zh = { "AMI", "AMI 会议语料库" },
    }
    
    data["amino acid embedding"] = {
        short = "A fixed-length vector representation of an amino acid (or its position in a sequence) learned by a model such as a protein language model, enabling downstream tasks like structure prediction, function annotation, or variant effect prediction.",
        article = nil,
        aliases = { "residue embedding", "amino-acid embedding", "per-residue embedding", "protein residue embedding" },
        es = "Representación vectorial de longitud fija de un aminoácido (o de su posición en una secuencia) aprendida por un modelo, como un modelo de lenguaje proteico, que habilita tareas posteriores como predicción de estructura, anotación funcional o predicción del efecto de variantes.",
        zh = "由蛋白质语言模型等模型学习得到的氨基酸(或其在序列中位置)的定长向量表示,可支撑结构预测、功能注释或变异效应预测等下游任务。",
        term_es = "embedding de aminoácido",
        term_zh = "氨基酸嵌入",
        aliases_es = { "incrustación de aminoácido", "embedding por residuo", "representación por residuo" },
        aliases_zh = { "残基嵌入", "氨基酸嵌入向量", "逐残基嵌入" },
    }
    
    data["amltk"] = {
        short = "AutoML Toolkit, an open-source Python library that provides composable building blocks (pipelines, schedulers, optimizers) for constructing AutoML systems and reproducible experiments.",
        article = nil,
        aliases = { "AMLTK", "AutoML Toolkit", "auto-ml-tk" },
        es = "AutoML Toolkit, una biblioteca de Python de código abierto que proporciona bloques composables (pipelines, planificadores, optimizadores) para construir sistemas de AutoML y experimentos reproducibles.",
        zh = "AutoML Toolkit,一个开源 Python 库,提供可组合的基本构件(流水线、调度器、优化器),用于构建 AutoML 系统和可复现的实验。",
        term_es = "AMLTK",
        term_zh = "AMLTK",
        aliases_es = { "AMLTK", "AutoML Toolkit" },
        aliases_zh = { "AMLTK", "AutoML Toolkit", "AutoML 工具包" },
    }
    
    data["amnesic probing"] = {
        short = "An interpretability method (Elazar et al., 2021) that removes a target linguistic property from contextual representations using iterative null-space projection and measures the resulting impact on downstream task performance to assess that property's causal role.",
        article = nil,
        aliases = { "amnesic probing", "INLP probing", "iterative null-space projection probing" },
        es = "Método de interpretabilidad (Elazar et al., 2021) que elimina una propiedad lingüística objetivo de las representaciones contextuales mediante proyección iterativa al espacio nulo y mide su impacto en el rendimiento en tareas posteriores para evaluar el papel causal de dicha propiedad.",
        zh = "一种可解释性方法(Elazar 等,2021),通过迭代零空间投影从上下文表征中移除目标语言属性,并测量其对下游任务表现的影响,以评估该属性的因果作用。",
        term_es = "sondeo amnésico",
        term_zh = "失忆式探测",
        aliases_es = { "probing amnésico", "sondeo INLP" },
        aliases_zh = { "失忆探针", "失忆性探测", "INLP 探测" },
    }
    
    data["amoebanet"] = {
        short = "A family of image classification CNN architectures discovered via regularized (ageing) evolutionary search by Real et al. (2018) on the NASNet search space, achieving state-of-the-art ImageNet accuracy at the time.",
        article = nil,
        aliases = { "AmoebaNet", "AmoebaNet-A", "AmoebaNet-B", "AmoebaNet-C", "Amoeba-Net" },
        es = "Familia de arquitecturas CNN para clasificación de imágenes descubiertas mediante búsqueda evolutiva regularizada (envejecimiento) por Real et al. (2018) en el espacio de búsqueda NASNet, logrando precisión de vanguardia en ImageNet en su momento.",
        zh = "由 Real 等人(2018)通过正则化(老化)进化搜索在 NASNet 搜索空间中发现的图像分类 CNN 架构族,在当时取得了 ImageNet 上的最先进精度。",
        term_es = "AmoebaNet",
        term_zh = "AmoebaNet",
        aliases_es = { "AmoebaNet", "AmoebaNet-A", "AmoebaNet-B", "AmoebaNet-C" },
        aliases_zh = { "AmoebaNet", "AmoebaNet-A", "AmoebaNet-B", "AmoebaNet-C" },
    }
    
    data["amoebanet-a"] = {
        short = "A convolutional neural network architecture for ImageNet classification discovered by regularized evolution (a tournament-based evolutionary algorithm) over the NASNet search space, reported by Real et al. (2019).",
        article = nil,
        aliases = { "AmoebaNet-A", "AmoebaNet A" },
        es = "Arquitectura de red neuronal convolucional para la clasificación en ImageNet descubierta mediante evolución regularizada (un algoritmo evolutivo basado en torneos) sobre el espacio de búsqueda de NASNet, presentada por Real et al. (2019).",
        zh = "一种用于ImageNet分类的卷积神经网络架构,由Real等人(2019)通过在NASNet搜索空间上的正则化进化(基于锦标赛的进化算法)发现。",
        term_es = "AmoebaNet-A",
        term_zh = "AmoebaNet-A",
        aliases_es = { "AmoebaNet-A" },
        aliases_zh = { "AmoebaNet-A" },
    }
    
    data["amoebanet-b"] = {
        short = "A variant of the AmoebaNet family produced by regularized evolution, sharing the NASNet cell-based search space with AmoebaNet-A but with a different cell topology and channel/depth scaling.",
        article = nil,
        aliases = { "AmoebaNet-B", "AmoebaNet B" },
        es = "Variante de la familia AmoebaNet obtenida mediante evolución regularizada, que comparte el espacio de búsqueda basado en celdas de NASNet con AmoebaNet-A pero con una topología de celda y un escalado de canales y profundidad distintos.",
        zh = "AmoebaNet系列的一种变体,通过正则化进化获得,与AmoebaNet-A共享基于NASNet单元的搜索空间,但具有不同的单元拓扑和通道/深度缩放。",
        term_es = "AmoebaNet-B",
        term_zh = "AmoebaNet-B",
        aliases_es = { "AmoebaNet-B" },
        aliases_zh = { "AmoebaNet-B" },
    }
    
    data["amoebanet-c"] = {
        short = "A variant of the AmoebaNet architecture family discovered by regularized evolution; it served as the highest-accuracy ImageNet model in the original AmoebaNet experiments and was used in subsequent transfer-learning studies.",
        article = nil,
        aliases = { "AmoebaNet-C", "AmoebaNet C" },
        es = "Variante de la familia de arquitecturas AmoebaNet descubierta mediante evolución regularizada; fue el modelo de mayor exactitud en ImageNet en los experimentos originales de AmoebaNet y se utilizó en estudios posteriores de aprendizaje por transferencia.",
        zh = "通过正则化进化发现的AmoebaNet架构系列的一种变体,在最初的AmoebaNet实验中是ImageNet上精度最高的模型,并被用于后续的迁移学习研究。",
        term_es = "AmoebaNet-C",
        term_zh = "AmoebaNet-C",
        aliases_es = { "AmoebaNet-C" },
        aliases_zh = { "AmoebaNet-C" },
    }
    
    data["amortized bayesian inference"] = {
        short = "A class of methods that learn a neural network to map observed data directly to an approximation of its Bayesian posterior, amortizing the cost of inference across many problem instances after a single training phase.",
        article = nil,
        aliases = { "amortised Bayesian inference", "amortized inference", "neural amortized inference", "ABI" },
        es = "Conjunto de métodos que entrenan una red neuronal para mapear datos observados directamente a una aproximación de su posterior bayesiana, amortizando el coste de la inferencia entre muchas instancias del problema tras una única fase de entrenamiento.",
        zh = "一类方法,训练神经网络将观测数据直接映射到其贝叶斯后验的近似,通过一次训练在大量问题实例间摊销推断成本。",
        term_es = "inferencia bayesiana amortizada",
        term_zh = "摊销贝叶斯推断",
        aliases_es = { "ABI", "inferencia amortizada", "inferencia bayesiana neuronal amortizada" },
        aliases_zh = { "摊销推断", "神经摊销贝叶斯推断", "ABI" },
    }
    
    data["amortized exposure"] = {
        short = "In ranking and recommendation fairness, the cumulative exposure (visibility, clicks, or attention) that an item or group receives summed across many rankings, used to evaluate whether long-run exposure is distributed equitably.",
        article = nil,
        aliases = { "amortized exposure fairness", "cumulative exposure", "amortised exposure" },
        es = "En equidad de sistemas de ranking y recomendación, la exposición acumulada (visibilidad, clics o atención) que un ítem o grupo recibe sumada a lo largo de muchas clasificaciones, utilizada para evaluar si la exposición a largo plazo se distribuye equitativamente.",
        zh = "在排序和推荐公平性中,分摊曝光是指项目或群体在多次排序中累计获得的曝光(可见度、点击或关注),用于评估长期曝光是否公平分配。",
        term_es = "exposición amortizada",
        term_zh = "分摊曝光",
        aliases_es = { "exposición amortizada", "exposición acumulada" },
        aliases_zh = { "分摊曝光", "累积曝光", "摊销曝光" },
    }
    
    data["amortized fairness"] = {
        short = "A fairness criterion evaluated across a sequence of decisions or rankings rather than per single output, ensuring that disparities even out over time even when a single decision cannot be perfectly fair.",
        article = nil,
        aliases = { "amortised fairness", "amortized fairness in rankings", "long-run fairness" },
        es = "Criterio de equidad evaluado a lo largo de una secuencia de decisiones o clasificaciones en lugar de por cada salida individual, garantizando que las disparidades se compensen con el tiempo aun cuando una decisión individual no pueda ser perfectamente justa.",
        zh = "分摊公平性是一种在决策或排序序列中评估的公平性标准,而非针对单一输出,确保即使单个决策无法做到完全公平,差异也能随时间趋于平衡。",
        term_es = "equidad amortizada",
        term_zh = "分摊公平性",
        aliases_es = { "equidad amortizada", "justicia amortizada" },
        aliases_zh = { "分摊公平性", "摊销公平性", "长期公平性" },
    }
    
    data["amortized inference"] = {
        short = "An inference strategy in probabilistic models in which a parametric network is trained to map observations directly to approximate posteriors, replacing per-instance optimization with a single forward pass.",
        article = nil,
        aliases = { "amortised inference", "amortized posterior inference", "inference network amortization" },
        es = "Estrategia de inferencia en modelos probabilísticos en la que se entrena una red paramétrica para asignar observaciones directamente a posteriores aproximadas, sustituyendo la optimización por instancia por una sola pasada hacia adelante.",
        zh = "一种概率模型的推断策略,通过训练一个参数化网络将观测直接映射到近似后验分布,从而以一次前向计算取代针对每个样本的逐次优化。",
        term_es = "inferencia amortizada",
        term_zh = "摊销推断",
        aliases_es = { "inferencia amortizada", "amortización de la inferencia" },
        aliases_zh = { "摊销推理", "摊销式推断" },
    }
    
    data["amortized meta-learning"] = {
        short = "A class of meta-learning methods that train a feed-forward network to map task data directly to task-specific predictions or parameters, replacing the inner optimization loop with a single learned forward pass.",
        article = nil,
        aliases = { "amortised meta-learning", "amortized meta learning", "feed-forward meta-learning" },
        es = "Clase de métodos de meta-aprendizaje que entrenan una red de avance directo para asignar los datos de una tarea a predicciones o parámetros específicos de la tarea, reemplazando el bucle interno de optimización por una única pasada aprendida.",
        zh = "一类元学习方法,训练一个前馈网络将任务数据直接映射到任务特定的预测或参数,用单次学习到的前向传播替代内层优化循环。",
        term_es = "meta-aprendizaje amortizado",
        term_zh = "摊销元学习",
        aliases_es = { "meta-aprendizaje amortizado", "meta-learning amortizado" },
        aliases_zh = { "摊销元学习", "前馈元学习" },
    }
    
    data["amortized posterior"] = {
        short = "An approximate posterior produced by an inference network that is a function of the observation, so that the same network yields posteriors for any new data point without further optimization.",
        article = nil,
        aliases = { "amortised posterior", "encoder posterior", "recognition posterior" },
        es = "Posterior aproximado producido por una red de inferencia como función de la observación, de modo que la misma red entrega posteriores para cualquier nuevo dato sin optimización adicional.",
        zh = "由推断网络作为观测的函数所产生的近似后验,使得同一网络无需额外优化即可对任何新数据点输出后验。",
        term_es = "posterior amortizado",
        term_zh = "摊销后验",
        aliases_es = { "posterior del codificador", "posterior de reconocimiento" },
        aliases_zh = { "编码器后验", "识别后验" },
    }
    
    data["amortized variational inference"] = {
        short = "A variational inference scheme in which the variational parameters of the approximate posterior are produced by a shared neural network (the inference or recognition model), as in the variational autoencoder.",
        article = nil,
        aliases = { "AVI", "amortised variational inference", "amortized VI", "neural variational inference" },
        es = "Esquema de inferencia variacional en el que los parámetros variacionales de la posterior aproximada son generados por una red neuronal compartida (el modelo de inferencia o de reconocimiento), como en el autoencoder variacional.",
        zh = "一种变分推断方案,其中近似后验的变分参数由一个共享的神经网络(推断网络或识别网络)生成,典型例子是变分自编码器。",
        term_es = "inferencia variacional amortizada",
        term_zh = "摊销变分推断",
        aliases_es = { "AVI", "VI amortizada" },
        aliases_zh = { "摊销 VI", "AVI", "摊销式变分推断" },
    }
    
    data["amortized variational meta-learning"] = {
        short = "A meta-learning framework that uses amortized variational inference to learn a distribution over task-specific latent parameters, with an encoder predicting the variational posterior from a task's context set in a single forward pass.",
        article = nil,
        aliases = { "amortised variational meta-learning", "amortized VI meta-learning" },
        es = "Marco de meta-aprendizaje que utiliza inferencia variacional amortizada para aprender una distribución sobre parámetros latentes específicos de cada tarea, con un codificador que predice la posterior variacional a partir del conjunto de contexto en una única pasada.",
        zh = "一种元学习框架,使用摊销变分推断来学习任务特定潜在参数的分布,由编码器在单次前向传播中根据任务的上下文集预测变分后验。",
        term_es = "meta-aprendizaje variacional amortizado",
        term_zh = "摊销变分元学习",
        aliases_es = { "meta-aprendizaje variacional amortizado" },
        aliases_zh = { "摊销变分元学习" },
    }
    
    data["amplicon sequencing"] = {
        short = "A targeted high-throughput sequencing approach in which specific genomic regions are PCR-amplified before sequencing, used for marker-gene microbial profiling (e.g. 16S, ITS), targeted variant detection, and immune repertoire analysis.",
        article = nil,
        aliases = { "amplicon-seq", "targeted amplicon sequencing", "amplicon NGS", "marker-gene sequencing" },
        es = "Enfoque de secuenciación de alto rendimiento dirigida en el que regiones genómicas específicas se amplifican por PCR antes de secuenciar; se utiliza para perfilado microbiano por gen marcador (p. ej. 16S, ITS), detección dirigida de variantes y análisis de repertorios inmunológicos.",
        zh = "一种靶向的高通量测序方法,先通过 PCR 扩增特定基因组区域再进行测序,常用于基于标记基因的微生物谱(如 16S、ITS)、定向变异检测以及免疫组库分析。",
        term_es = "secuenciación de amplicones",
        term_zh = "扩增子测序",
        aliases_es = { "amplicon-seq", "secuenciación dirigida de amplicones", "secuenciación de gen marcador" },
        aliases_zh = { "amplicon-seq", "靶向扩增子测序", "标记基因测序" },
    }
    
    data["amplitude envelope"] = {
        short = "A smooth curve that traces the maximum absolute amplitude of an audio signal over time, capturing its loudness contour while discarding fine-grained waveform structure.",
        article = nil,
        aliases = { "envelope", "audio envelope", "signal envelope" },
        es = "Curva suave que sigue la amplitud absoluta máxima de una señal de audio a lo largo del tiempo, capturando el contorno de intensidad sin la estructura fina de la forma de onda.",
        zh = "沿时间描绘音频信号最大绝对幅度的平滑曲线,反映其响度轮廓而不保留波形的细节结构。",
        term_es = "envolvente de amplitud",
        term_zh = "幅度包络",
        aliases_es = { "envolvente", "envolvente de señal" },
        aliases_zh = { "振幅包络", "信号包络" },
    }
    
    data["amr parsing"] = {
        short = "The task of mapping a natural language sentence to its Abstract Meaning Representation graph; addressed by transition-based, sequence-to-sequence, and graph-based parsers.",
        article = nil,
        aliases = { "AMR parsing", "Abstract Meaning Representation parsing" },
        es = "La tarea de transformar una oración en lenguaje natural en su grafo de Abstract Meaning Representation; se aborda con analizadores basados en transiciones, secuencia a secuencia y basados en grafos.",
        zh = "将自然语言句子映射为其 AMR 图的任务;通常由基于转移、序列到序列和基于图的解析器实现。",
        term_es = "análisis sintáctico AMR",
        term_zh = "AMR 解析",
        aliases_es = { "análisis AMR", "parsing de AMR" },
        aliases_zh = { "AMR 解析", "抽象语义表示解析" },
    }
    
    data["amsgrad"] = {
        short = "An Adam variant that uses the maximum of past second-moment estimates instead of an exponential average, restoring convergence guarantees that fail in the original Adam under certain conditions.",
        article = nil,
        aliases = { "AMSGrad", "AMSgrad" },
        es = "Variante de Adam que utiliza el máximo de las estimaciones pasadas del segundo momento en lugar de un promedio exponencial, restaurando garantías de convergencia que el Adam original no satisface bajo ciertas condiciones.",
        zh = "Adam 的一种变体,使用过去二阶矩估计的最大值而非指数平均,恢复了原始 Adam 在某些条件下不成立的收敛性保证。",
        term_es = "AMSGrad",
        term_zh = "AMSGrad",
        aliases_es = {},
        aliases_zh = {},
    }
    
    data["analogical reasoning"] = {
        short = "Inferring relationships between novel pairs by mapping the relational structure of a known source onto a target; canonically expressed as 'A is to B as C is to D' and used to evaluate relational generalization.",
        article = nil,
        aliases = { "analogical reasoning", "reasoning by analogy" },
        es = "Inferir relaciones entre pares novedosos transfiriendo la estructura relacional de una fuente conocida a un objetivo; canónicamente se expresa como 'A es a B como C es a D' y se usa para evaluar la generalización relacional.",
        zh = "通过将已知源对的关系结构映射到目标对来推断新对之间的关系;经典形式为'A 之于 B 如同 C 之于 D',用于评估关系泛化能力。",
        term_es = "razonamiento analógico",
        term_zh = "类比推理",
        aliases_es = { "razonamiento analógico", "razonamiento por analogía" },
        aliases_zh = { "类比推理" },
    }
    
    data["analogical visual reasoning"] = {
        short = "Solving visual analogy problems such as Raven's Progressive Matrices or Bongard problems by transferring relational structure across images rather than matching pixel-level features.",
        article = nil,
        aliases = { "analogical visual reasoning", "visual analogy reasoning", "visual analogical reasoning" },
        es = "Resolver problemas de analogía visual, como las matrices progresivas de Raven o los problemas de Bongard, transfiriendo estructura relacional entre imágenes en lugar de comparar características a nivel de píxel.",
        zh = "通过在图像之间迁移关系结构而非匹配像素级特征,来求解诸如瑞文渐进矩阵或邦加德问题等视觉类比题目。",
        term_es = "razonamiento visual analógico",
        term_zh = "视觉类比推理",
        aliases_es = { "razonamiento visual analógico", "razonamiento por analogía visual" },
        aliases_zh = { "视觉类比推理" },
    }
    
    data["analogy kge"] = {
        short = "ANALOGY: a knowledge graph embedding model that imposes a normality (commutativity) constraint on the bilinear relation matrices, so that compositions of relations support analogical inference among entities.",
        article = nil,
        aliases = { "ANALOGY", "ANALOGY KGE", "Analogy embedding", "Analogy knowledge graph embedding" },
        es = "ANALOGY: un modelo de embedding de grafos de conocimiento que impone una restricción de normalidad (conmutatividad) sobre las matrices bilineales de relación, de modo que la composición de relaciones soporta inferencia analógica entre entidades.",
        zh = "ANALOGY:一种知识图谱嵌入模型,对双线性关系矩阵施加正规性(可交换)约束,使关系的组合能够支持实体之间的类比推断。",
        term_es = "ANALOGY",
        term_zh = "ANALOGY",
        aliases_es = { "ANALOGY", "embedding ANALOGY" },
        aliases_zh = { "ANALOGY", "ANALOGY 模型" },
    }
    
    data["analytic function"] = {
        short = "A function that is locally given by a convergent power series; for complex functions analyticity is equivalent to being holomorphic (complex-differentiable) in an open set.",
        article = nil,
        aliases = { "analytic", "real analytic function", "holomorphic function" },
        es = "Función que localmente está dada por una serie de potencias convergente; para funciones complejas la analiticidad equivale a ser holomorfa (diferenciable en sentido complejo) en un abierto.",
        zh = "在每个点附近都可以由收敛幂级数表示的函数;对复函数而言,解析性等价于在开集上全纯(复可微)。",
        term_es = "función analítica",
        term_zh = "解析函数",
        aliases_es = { "analítica", "función analítica real", "función holomorfa" },
        aliases_zh = { "解析的", "实解析函数", "全纯函数" },
    }
    
    data["ancestor node"] = {
        short = "In a directed acyclic graph, a node from which there is a directed path to a target node; in Bayesian networks the set of ancestors determines marginal independence and admissible topological orders.",
        article = nil,
        aliases = { "ancestor", "ancestors", "ancestor variable" },
        es = "En un grafo acíclico dirigido, un nodo desde el cual existe un camino dirigido hasta un nodo objetivo; en redes bayesianas el conjunto de ancestros determina las independencias marginales y los órdenes topológicos admisibles.",
        zh = "在有向无环图中,存在到目标节点有向路径的节点;在贝叶斯网络中,祖先集合决定了边际独立性以及可行的拓扑序。",
        term_es = "nodo ancestro",
        term_zh = "祖先节点",
        aliases_es = { "ancestro", "variable ancestro" },
        aliases_zh = { "祖先", "祖先变量" },
    }
    
    data["ancestor of treatment"] = {
        short = "In a causal DAG, any variable from which there is a directed path into the treatment variable; ancestors of treatment include direct and indirect causes of treatment and are central to identifying valid adjustment sets and backdoor paths.",
        article = nil,
        aliases = { "treatment ancestor", "ancestors of the treatment", "ancestor of the treatment", "treatment-ancestors" },
        es = "En un DAG causal, toda variable desde la cual existe un camino dirigido hacia la variable de tratamiento; los ancestros del tratamiento incluyen las causas directas e indirectas del tratamiento y son fundamentales para identificar conjuntos de ajuste válidos y caminos por puerta trasera.",
        zh = "在因果有向无环图中,存在指向处理变量的有向路径的任意变量;处理的祖先包括处理变量的直接与间接原因,对识别有效调整集和后门路径起关键作用。",
        term_es = "ancestro del tratamiento",
        term_zh = "处理的祖先",
        aliases_es = { "ancestros del tratamiento", "ancestro de tratamiento", "antecesor del tratamiento" },
        aliases_zh = { "处理变量的祖先", "处理的祖先节点", "干预变量的祖先" },
    }
    
    data["ancestral graph"] = {
        short = "A mixed graph with directed and bidirected edges that represents conditional independence and ancestral relations among observed variables of an underlying DAG with latent confounders, while remaining closed under marginalization and conditioning.",
        article = nil,
        aliases = { "maximal ancestral graph", "MAG", "ancestral graphs" },
        es = "Grafo mixto con aristas dirigidas y bidirigidas que representa las independencias condicionales y las relaciones ancestrales entre las variables observadas de un DAG subyacente con confusores latentes, manteniéndose cerrado bajo marginalización y condicionalización.",
        zh = "一种包含有向边与双向边的混合图,用于表示带有潜在混杂因素的底层 DAG 在被边缘化和条件化后,所观察变量之间的条件独立关系和祖先关系;该类图在边缘化与条件化下保持封闭。",
        term_es = "grafo ancestral",
        term_zh = "祖先图",
        aliases_es = { "grafo ancestral maximal", "MAG", "grafos ancestrales" },
        aliases_zh = { "极大祖先图", "MAG", "最大祖先图" },
    }
    
    data["ancestral sampling"] = {
        short = "Exact sampling from a Bayesian network or directed graphical model performed by visiting nodes in topological order and drawing each variable from its conditional distribution given its parents.",
        article = nil,
        aliases = { "forward sampling", "topological sampling", "prior sampling" },
        es = "Muestreo exacto en una red bayesiana o modelo gráfico dirigido que recorre los nodos en orden topológico y extrae cada variable de su distribución condicional dados sus padres.",
        zh = "一种针对贝叶斯网络或有向图模型的精确采样方法,按拓扑序访问节点,并依据父节点取值从条件分布中抽取每个变量。",
        term_es = "muestreo ancestral",
        term_zh = "祖先采样",
        aliases_es = { "muestreo hacia adelante", "muestreo a priori" },
        aliases_zh = { "前向采样", "拓扑序采样" },
    }
    
    data["ancestral sequence reconstruction"] = {
        short = "A phylogenetic technique that infers the most likely sequences of extinct ancestral genes or proteins from a multiple sequence alignment of extant homologs and a tree, often using maximum-likelihood or Bayesian models of evolution.",
        article = nil,
        aliases = { "ASR", "ancestral protein reconstruction", "ancestral state reconstruction (sequence)" },
        es = "Técnica filogenética que infiere las secuencias más probables de genes o proteínas ancestrales extintos a partir de un alineamiento múltiple de homólogos actuales y un árbol filogenético, habitualmente mediante modelos de evolución de máxima verosimilitud o bayesianos.",
        zh = "一种系统发育技术,基于现存同源序列的多序列比对与系统发育树,使用最大似然或贝叶斯进化模型推断已灭绝祖先基因或蛋白的最可能序列。",
        term_es = "reconstrucción de secuencias ancestrales",
        term_zh = "祖先序列重建",
        aliases_es = { "ASR", "reconstrucción de proteínas ancestrales" },
        aliases_zh = { "ASR", "祖先蛋白重建", "祖先状态重建(序列)" },
    }
    
    data["ancestry inference"] = {
        short = "The estimation of an individual's genetic ancestry — either as overall proportions of contributing source populations or as local ancestry along the genome — from genotype or sequencing data, using methods such as ADMIXTURE, RFMix, or PCA-based projection.",
        article = nil,
        aliases = { "genetic ancestry inference", "ancestry estimation", "global ancestry inference", "local ancestry inference" },
        es = "Estimación de la ascendencia genética de un individuo —en proporciones globales de las poblaciones fuente contribuyentes o como ascendencia local a lo largo del genoma— a partir de datos de genotipos o secuenciación, usando métodos como ADMIXTURE, RFMix o proyección por PCA.",
        zh = "基于基因型或测序数据估计个体的遗传祖源——既可表示为各源群体的全局贡献比例,也可表示为基因组各区段的局部祖源;常用 ADMIXTURE、RFMix 或基于 PCA 的投影等方法。",
        term_es = "inferencia de ascendencia",
        term_zh = "祖源推断",
        aliases_es = { "estimación de ascendencia", "inferencia de ascendencia global", "inferencia de ascendencia local" },
        aliases_zh = { "祖先推断", "全局祖源推断", "局部祖源推断" },
    }
    
    data["anchor box"] = {
        short = "A set of predefined reference bounding boxes of various scales and aspect ratios placed at every spatial location of a detector's feature map, against which the model predicts class scores and offset regressions.",
        article = nil,
        aliases = { "anchor", "anchor boxes", "default box", "prior box", "anchor prior" },
        es = "Conjunto de cajas delimitadoras de referencia predefinidas con varias escalas y relaciones de aspecto colocadas en cada ubicación espacial del mapa de características de un detector, frente a las cuales el modelo predice puntuaciones de clase y regresiones de desplazamiento.",
        zh = "在检测器特征图每个空间位置上放置的一组预定义参考边界框,具有多种尺度和宽高比,模型相对于这些框预测类别得分和偏移回归。",
        term_es = "anchor box",
        term_zh = "锚框",
        aliases_es = { "ancla", "caja ancla", "caja por defecto", "caja a priori" },
        aliases_zh = { "anchor", "默认框", "先验框" },
    }
    
    data["anchor explanation"] = {
        short = "A model-agnostic local explanation (Ribeiro et al., 2018) that identifies a sufficient set of feature predicates such that, with high probability, perturbing the remaining features does not change the model's prediction.",
        article = nil,
        aliases = { "anchor explanation", "anchors", "anchor explanations", "Anchors" },
        es = "Explicación local independiente del modelo (Ribeiro et al., 2018) que identifica un conjunto suficiente de predicados sobre las características tal que, con alta probabilidad, perturbar el resto no cambia la predicción del modelo.",
        zh = "Ribeiro 等人于 2018 年提出的与模型无关的局部解释方法,识别一组充分的特征谓词,使得在高概率下,扰动其余特征不会改变模型预测。",
        term_es = "explicación por anclas",
        term_zh = "锚点解释",
        aliases_es = { "anchors", "explicaciones por anclas" },
        aliases_zh = { "锚解释", "anchors" },
    }
    
    data["anchor-free detection"] = {
        short = "A class of object detection methods that do not rely on predefined anchor boxes, instead predicting object locations directly as keypoints, centers, or sets via approaches such as CornerNet, FCOS, CenterNet, and DETR.",
        article = nil,
        aliases = { "anchor free detection", "anchor-free detector", "anchor-free object detection" },
        es = "Clase de métodos de detección de objetos que no dependen de cajas ancla predefinidas, sino que predicen las ubicaciones de los objetos directamente como puntos clave, centros o conjuntos mediante enfoques como CornerNet, FCOS, CenterNet y DETR.",
        zh = "一类不依赖预定义锚框的目标检测方法,通过 CornerNet、FCOS、CenterNet 和 DETR 等方法将目标位置直接预测为关键点、中心点或集合。",
        term_es = "detección sin anclas",
        term_zh = "无锚框检测",
        aliases_es = { "detección anchor-free", "detector sin anclas" },
        aliases_zh = { "anchor-free detection", "anchor-free 检测", "无锚检测" },
    }
    
    data["and-or graph"] = {
        short = "A hierarchical graph representation in which AND nodes denote decompositions of a concept into co-occurring parts and OR nodes denote alternative configurations, used in computer vision, planning, and grammar models.",
        article = nil,
        aliases = { "AND-OR graph", "and/or graph", "AOG", "and-or tree" },
        es = "Representación gráfica jerárquica en la que los nodos AND denotan la descomposición de un concepto en partes coocurrentes y los nodos OR denotan configuraciones alternativas; se usa en visión por computador, planificación y modelos gramaticales.",
        zh = "一种分层图表示,其中 AND 节点表示将一个概念分解为同时出现的若干部分,OR 节点表示可供选择的不同配置,常用于计算机视觉、规划和语法模型。",
        term_es = "grafo AND-OR",
        term_zh = "与或图",
        aliases_es = { "grafo y/o", "AOG" },
        aliases_zh = { "AND-OR 图", "AOG", "与或树" },
    }
    
    data["anderson-rubin test"] = {
        short = "A weak-instrument-robust test of the structural coefficient in an instrumental variables regression, based on the joint significance of the instruments in the reduced-form equation under the null; valid in size regardless of instrument strength.",
        article = nil,
        aliases = { "Anderson-Rubin test", "AR test", "Anderson Rubin test", "Anderson–Rubin test", "Anderson and Rubin test" },
        es = "Prueba sobre el coeficiente estructural en una regresión con variables instrumentales que es robusta a instrumentos débiles, basada en la significación conjunta de los instrumentos en la ecuación reducida bajo la hipótesis nula; mantiene su tamaño nominal con independencia de la fuerza de los instrumentos.",
        zh = "工具变量回归中关于结构系数的一种检验,基于在原假设下工具变量在简化式方程中的联合显著性;该检验对工具变量的强弱具有稳健性,无论工具是否弱都能保持名义水平。",
        term_es = "prueba de Anderson-Rubin",
        term_zh = "Anderson-Rubin 检验",
        aliases_es = { "test de Anderson-Rubin", "prueba AR", "test AR", "prueba Anderson-Rubin" },
        aliases_zh = { "AR 检验", "Anderson–Rubin 检验", "安德森–鲁宾检验" },
    }
    
    data["anglican"] = {
        short = "A probabilistic programming language embedded in Clojure, supporting higher-order functions and a suite of inference algorithms including importance sampling, particle MCMC, and HMC for arbitrary stochastic programs.",
        article = nil,
        aliases = { "Anglican", "Anglican PPL", "Anglican probabilistic programming" },
        es = "Lenguaje de programación probabilística integrado en Clojure, que admite funciones de orden superior y un conjunto de algoritmos de inferencia como muestreo de importancia, MCMC con partículas y HMC para programas estocásticos arbitrarios.",
        zh = "一种嵌入在 Clojure 中的概率编程语言,支持高阶函数,并为任意随机程序提供重要性采样、粒子 MCMC、HMC 等多种推断算法。",
        term_es = "Anglican",
        term_zh = "Anglican",
        aliases_es = { "lenguaje Anglican", "Anglican PPL" },
        aliases_zh = { "Anglican 语言", "Anglican PPL" },
    }
    
    data["ani potential"] = {
        short = "A family of neural network interatomic potentials developed by Roitberg and Smith that uses Behler-Parrinello-style atomic environment vectors to reproduce DFT energies and forces at near-quantum accuracy and force-field-like cost.",
        article = nil,
        aliases = { "ANI", "ANI NNP", "ANI neural network potential", "ANI interatomic potential" },
        es = "Familia de potenciales interatómicos basados en redes neuronales desarrollada por Roitberg y Smith que utiliza vectores de entorno atómico al estilo Behler-Parrinello para reproducir energías y fuerzas DFT con precisión casi cuántica y coste comparable a un campo de fuerzas.",
        zh = "由 Roitberg 和 Smith 等人发展的神经网络原子间势家族,采用 Behler-Parrinello 式的原子环境向量重现 DFT 能量与力,在保持近量子精度的同时具有接近力场的计算开销。",
        term_es = "potencial ANI",
        term_zh = "ANI 势",
        aliases_es = { "ANI", "potencial neuronal ANI" },
        aliases_zh = { "ANI", "ANI 神经网络势", "ANI 原子间势" },
    }
    
    data["ani-1x"] = {
        short = "A neural network potential and accompanying ωB97X/6-31G(d) dataset of about five million CHNO conformations selected by active learning, providing the standard benchmark and pretrained model in the ANI family.",
        article = nil,
        aliases = { "ANI-1x", "ANI1x", "ANI-1x dataset", "ANI-1x model" },
        es = "Potencial de red neuronal y conjunto de datos asociado a nivel ωB97X/6-31G(d) con aproximadamente cinco millones de conformaciones CHNO seleccionadas por aprendizaje activo, que proporciona el modelo preentrenado y la referencia estándar de la familia ANI.",
        zh = "ANI 家族中标准的神经网络势及其配套数据集,包含约五百万个通过主动学习挑选的 CHNO 构象,统一在 ωB97X/6-31G(d) 水平上计算,是该家族的预训练模型和基准。",
        term_es = "ANI-1x",
        term_zh = "ANI-1x",
        aliases_es = { "ANI-1x", "ANI1x", "conjunto de datos ANI-1x" },
        aliases_zh = { "ANI-1x", "ANI1x", "ANI-1x 数据集", "ANI-1x 模型" },
    }
    
    data["ani-2x"] = {
        short = "A neural network potential for organic chemistry that extends ANI-1x to support sulfur, fluorine, and chlorine in addition to H, C, N, O, enabling fast quantum-accuracy energy and force prediction.",
        article = nil,
        aliases = { "ANI-2x", "ANI2x" },
        es = "Un potencial de red neuronal para química orgánica que extiende ANI-1x para soportar azufre, flúor y cloro además de H, C, N, O, permitiendo predicción rápida de energías y fuerzas con precisión cuántica.",
        zh = "一种用于有机化学的神经网络势能,扩展了 ANI-1x,除 H、C、N、O 之外还支持硫、氟和氯,能够快速预测达到量子精度的能量和力。",
        term_es = "ANI-2x",
        term_zh = "ANI-2x",
        aliases_es = { "ANI-2x", "ANI2x" },
        aliases_zh = { "ANI-2x", "ANI2x" },
    }
    
    data["animate anyone"] = {
        short = "A diffusion-based video generation method that animates a single reference character image using a driving pose sequence, employing a reference-net to preserve appearance and a pose guider for temporally coherent motion.",
        article = nil,
        aliases = { "Animate Anyone", "AnimateAnyone" },
        es = "Método de generación de vídeo basado en difusión que anima una única imagen de personaje de referencia a partir de una secuencia de poses de control, utilizando una red de referencia para preservar la apariencia y un guiador de poses para lograr movimiento temporalmente coherente.",
        zh = "一种基于扩散的视频生成方法,使用驱动姿态序列对单张参考人物图像进行动画化,借助参考网络保持外观一致性,并通过姿态引导器实现时间上连贯的运动。",
        term_es = "Animate Anyone",
        term_zh = "Animate Anyone",
        aliases_es = { "Animate Anyone", "AnimateAnyone" },
        aliases_zh = { "Animate Anyone", "AnimateAnyone", "任意角色动画化" },
    }
    
    data["animatediff"] = {
        short = "A method that turns a frozen text-to-image diffusion model, such as Stable Diffusion, into a text-to-video generator by inserting and training a plug-in motion module while keeping the original image weights unchanged.",
        article = nil,
        aliases = { "AnimateDiff", "Animate Diff", "animate diff" },
        es = "Método que convierte un modelo de difusión de texto a imagen congelado, como Stable Diffusion, en un generador de texto a vídeo insertando y entrenando un módulo de movimiento conectable, sin modificar los pesos originales del modelo de imagen.",
        zh = "一种方法,通过插入并训练一个可插拔的运动模块,将冻结的文本到图像扩散模型(如 Stable Diffusion)转化为文本到视频生成器,同时保持原有图像权重不变。",
        term_es = "AnimateDiff",
        term_zh = "AnimateDiff",
        aliases_es = { "AnimateDiff", "Animate Diff" },
        aliases_zh = { "AnimateDiff", "Animate Diff" },
    }
    
    data["ankh"] = {
        short = "An encoder-decoder protein language model based on the T5 architecture, optimized for parameter efficiency and broad transfer to protein structure and function prediction tasks.",
        article = nil,
        aliases = { "Ankh", "Ankh model", "ankh model" },
        es = "Un modelo de lenguaje de proteínas codificador-decodificador basado en la arquitectura T5, optimizado para eficiencia de parámetros y transferencia amplia a tareas de predicción de estructura y función de proteínas.",
        zh = "一种基于 T5 架构的编码器—解码器蛋白质语言模型,针对参数效率进行了优化,可广泛迁移到蛋白质结构和功能预测任务。",
        term_es = "Ankh",
        term_zh = "Ankh",
        aliases_es = { "Ankh", "modelo Ankh" },
        aliases_zh = { "Ankh", "Ankh 模型" },
    }
    
    data["anli"] = {
        short = "Adversarial NLI: a large natural language inference benchmark collected via human-and-model-in-the-loop iteration, in which annotators write premises and hypotheses that fool current state-of-the-art models, yielding multiple progressively harder rounds.",
        article = nil,
        aliases = { "ANLI", "Adversarial NLI", "Adversarial Natural Language Inference" },
        es = "Adversarial NLI: un benchmark grande de inferencia en lenguaje natural recopilado mediante un proceso iterativo con humanos y modelos, donde los anotadores redactan premisas e hipótesis que engañan a los modelos del estado del arte, produciendo varias rondas cada vez más difíciles.",
        zh = "Adversarial NLI:一个大规模自然语言推断基准,通过人机协同迭代收集,标注者编写能够欺骗当前最先进模型的前提与假设,从而产生多轮难度递增的数据。",
        term_es = "ANLI",
        term_zh = "ANLI",
        aliases_es = { "ANLI", "NLI adversarial" },
        aliases_zh = { "ANLI", "对抗自然语言推断" },
    }
    
    data["anndata"] = {
        short = "A Python data structure and on-disk format (.h5ad) for annotated data matrices used in single-cell genomics, storing an observations-by-features matrix together with per-cell, per-gene, multidimensional, and pairwise annotations.",
        article = nil,
        aliases = { "AnnData", "anndata (Python)", ".h5ad", "annotated data matrix" },
        es = "Estructura de datos de Python y formato en disco (.h5ad) para matrices de datos anotadas usadas en genómica unicelular; almacena una matriz observaciones por características junto con anotaciones por célula, por gen, multidimensionales y por pares.",
        zh = "用于单细胞基因组学的 Python 数据结构与磁盘格式(.h5ad),在存储样本×特征矩阵的同时附带逐细胞、逐基因、多维及成对的注释。",
        term_es = "AnnData",
        term_zh = "AnnData",
        aliases_es = { "anndata", ".h5ad", "matriz de datos anotada" },
        aliases_zh = { "anndata", ".h5ad", "注释数据矩阵" },
    }
    
    data["annealed importance sampling"] = {
        short = "A Monte Carlo method, due to Neal, that estimates ratios of partition functions and marginal likelihoods by importance sampling along a sequence of intermediate distributions interpolating between a tractable proposal and the target.",
        article = nil,
        aliases = { "AIS", "Neal AIS", "annealed IS" },
        es = "Método de Monte Carlo, debido a Neal, que estima cocientes de funciones de partición y verosimilitudes marginales mediante muestreo de importancia a lo largo de una secuencia de distribuciones intermedias entre una propuesta tratable y la distribución objetivo.",
        zh = "由 Neal 提出的一种蒙特卡洛方法,通过沿着在可处理提议分布与目标分布之间插值的一系列中间分布做重要性采样,来估计配分函数比值和边际似然。",
        term_es = "annealed importance sampling",
        term_zh = "退火重要性采样",
        aliases_es = { "AIS", "muestreo de importancia con recocido" },
        aliases_zh = { "AIS", "退火 IS" },
    }
    
    data["annealing phase"] = {
        short = "A late stage of language-model pretraining or continued pretraining in which the learning rate is decayed and the data mix is shifted toward higher-quality or more specialized corpora to consolidate capabilities.",
        article = nil,
        aliases = { "annealing stage", "LR annealing phase", "data annealing phase" },
        es = "Etapa tardía del preentrenamiento o del preentrenamiento continuo de modelos de lenguaje en la que se reduce la tasa de aprendizaje y se desplaza la mezcla de datos hacia corpus de mayor calidad o más especializados para consolidar las capacidades.",
        zh = "语言模型预训练或持续预训练的后期阶段,在该阶段降低学习率并将数据混合调整为更高质量或更专门化的语料,以巩固模型能力。",
        term_es = "fase de annealing",
        term_zh = "退火阶段",
        aliases_es = { "fase de recocido", "etapa de annealing", "fase de annealing de tasa de aprendizaje" },
        aliases_zh = { "学习率退火阶段", "数据退火阶段" },
    }
    
    data["annotation bias"] = {
        short = "Systematic distortions introduced into a dataset during the labeling process, arising from annotator demographics, instructions, ambiguity in guidelines, or majority-vote aggregation that erases minority perspectives.",
        article = nil,
        aliases = { "labeling bias", "labelling bias", "label bias" },
        es = "Distorsiones sistemáticas introducidas en un conjunto de datos durante el proceso de etiquetado, derivadas de la demografía de los anotadores, las instrucciones, la ambigüedad en las directrices o la agregación por voto mayoritario que invisibiliza perspectivas minoritarias.",
        zh = "标注偏差是指在标注过程中引入数据集的系统性偏差,可能源于标注者人口构成、指令、指南的模糊性,或抹除少数群体观点的多数投票聚合方式。",
        term_es = "sesgo de anotación",
        term_zh = "标注偏差",
        aliases_es = { "sesgo de etiquetado", "sesgo en la anotación" },
        aliases_zh = { "标注偏差", "标注偏见", "标签偏差" },
    }
    
    data["annotator bias"] = {
        short = "Bias in dataset labels attributable to the personal background, beliefs, or interpretive tendencies of individual annotators, leading to systematic disagreement that can be confounded with model error.",
        article = nil,
        aliases = { "labeler bias", "labeller bias", "rater bias" },
        es = "Sesgo en las etiquetas de un conjunto de datos atribuible al trasfondo personal, las creencias o las tendencias interpretativas de los anotadores individuales, generando desacuerdos sistemáticos que pueden confundirse con error del modelo.",
        zh = "标注者偏见是指数据集标签中由个别标注者的个人背景、信念或解释倾向所导致的偏差,这种系统性分歧可能与模型误差混淆。",
        term_es = "sesgo del anotador",
        term_zh = "标注者偏见",
        aliases_es = { "sesgo del anotador", "sesgo del etiquetador" },
        aliases_zh = { "标注者偏见", "标注员偏见", "评注者偏见" },
    }
    
    data["annovar"] = {
        short = "A widely used software tool for functional annotation of genetic variants, mapping VCF entries to gene-based, region-based, and filter-based annotation databases such as RefSeq, dbSNP, and population frequency catalogs.",
        article = nil,
        aliases = { "ANNOVAR", "annovar (variant annotation)", "ANNOVAR tool" },
        es = "Herramienta de software ampliamente utilizada para la anotación funcional de variantes genéticas; mapea entradas de VCF a bases de datos de anotación basadas en genes, regiones y filtros, como RefSeq, dbSNP y catálogos de frecuencia poblacional.",
        zh = "一款被广泛使用的遗传变异功能注释软件,将 VCF 条目映射至基于基因、基于区域和基于过滤的注释数据库(如 RefSeq、dbSNP 及群体频率目录)。",
        term_es = "ANNOVAR",
        term_zh = "ANNOVAR",
        aliases_es = { "annovar", "herramienta ANNOVAR" },
        aliases_zh = { "annovar", "ANNOVAR 工具", "变异注释 ANNOVAR" },
    }
    
    data["anomaly detection"] = {
        short = "The task of identifying data points that deviate significantly from the distribution of normal data, often by thresholding likelihoods, reconstruction errors, or distances under a learned model.",
        article = nil,
        aliases = { "outlier detection", "novelty detection", "out-of-distribution detection" },
        es = "Tarea de identificar puntos de datos que se desvían significativamente de la distribución de los datos normales, normalmente aplicando umbrales sobre verosimilitudes, errores de reconstrucción o distancias bajo un modelo aprendido.",
        zh = "识别显著偏离正常数据分布的数据点的任务,通常通过对学习模型下的似然、重建误差或距离施加阈值实现。",
        term_es = "detección de anomalías",
        term_zh = "异常检测",
        aliases_es = { "detección de valores atípicos", "detección de novedades", "detección fuera de distribución" },
        aliases_zh = { "离群点检测", "新颖性检测", "分布外检测" },
    }
    
    data["anonymization"] = {
        short = "The process of removing or transforming personally identifying information from a dataset so that individuals cannot reasonably be re-identified, distinct from pseudonymization which retains a reversible mapping.",
        article = nil,
        aliases = { "anonymisation", "data anonymization", "data anonymisation", "de-identification" },
        es = "Proceso de eliminar o transformar información personalmente identificable de un conjunto de datos de modo que los individuos no puedan ser razonablemente reidentificados, distinto de la seudonimización que conserva una correspondencia reversible.",
        zh = "匿名化是指从数据集中删除或转换个人身份信息的过程,使个人无法被合理地重新识别,与保留可逆映射的假名化不同。",
        term_es = "anonimización",
        term_zh = "匿名化",
        aliases_es = { "anonimización de datos", "desidentificación" },
        aliases_zh = { "匿名化", "数据匿名化", "去标识化" },
    }
    
    data["ante-hoc interpretability"] = {
        short = "An approach in which models are designed to be interpretable from the outset — for example by using sparse linear forms, decision rules, or attention bottlenecks — in contrast to post-hoc explanations applied after training to opaque models.",
        article = nil,
        aliases = { "ante-hoc interpretability", "ante hoc interpretability", "intrinsic interpretability", "by-design interpretability" },
        es = "Enfoque en el que los modelos se diseñan para ser interpretables desde el inicio —por ejemplo mediante formas lineales esparsas, reglas de decisión o cuellos de botella de atención— a diferencia de las explicaciones post-hoc aplicadas a posteriori sobre modelos opacos.",
        zh = "一种方法,从设计之初便让模型具备可解释性——例如使用稀疏线性形式、决策规则或注意力瓶颈——以区别于在训练完成后对不透明模型进行事后解释。",
        term_es = "interpretabilidad ante-hoc",
        term_zh = "事前可解释性",
        aliases_es = { "interpretabilidad intrínseca", "interpretabilidad por diseño" },
        aliases_zh = { "内在可解释性", "设计时可解释性", "ante-hoc 可解释性" },
    }
    
    data["anthropic hh"] = {
        short = "A pair of human-feedback datasets released by Anthropic in 2022 containing helpful and harmless preference comparisons over assistant responses, widely used to train reward models and study RLHF.",
        article = nil,
        aliases = { "Anthropic HH", "HH-RLHF", "hh-rlhf", "Anthropic Helpful and Harmless dataset" },
        es = "Par de conjuntos de datos de retroalimentación humana publicados por Anthropic en 2022, que contienen comparaciones de preferencias útiles e inofensivas sobre respuestas de asistentes, ampliamente utilizados para entrenar modelos de recompensa y estudiar RLHF.",
        zh = "Anthropic 于 2022 年发布的一对人类反馈数据集,包含针对助手回复的“有用”与“无害”偏好对比,被广泛用于训练奖励模型和研究 RLHF。",
        term_es = "Anthropic HH",
        term_zh = "Anthropic HH 数据集",
        aliases_es = { "HH-RLHF", "conjunto de datos Helpful and Harmless de Anthropic" },
        aliases_zh = { "HH-RLHF", "Anthropic 有用与无害数据集" },
    }
    
    data["anti-causal learning"] = {
        short = "A supervised learning setup in which the predicted target is a cause of the input rather than an effect, e.g. predicting the disease that produced observed symptoms; under independence of cause and mechanism, this regime is more sensitive to covariate shift than causal prediction.",
        article = nil,
        aliases = { "anticausal learning", "anti-causal prediction", "anticausal prediction", "anti-causal direction" },
        es = "Configuración de aprendizaje supervisado en la que la variable objetivo es una causa de la entrada y no un efecto, por ejemplo predecir la enfermedad que produjo los síntomas observados; bajo el principio de independencia entre causa y mecanismo, este régimen es más sensible al cambio de covariables que la predicción causal.",
        zh = "一种有监督学习设定,其中要预测的目标变量是输入的原因而非结果,例如根据观察到的症状预测产生这些症状的疾病;在因果独立机制原则下,这种情形比因果方向上的预测对协变量偏移更敏感。",
        term_es = "aprendizaje anticausal",
        term_zh = "反因果学习",
        aliases_es = { "predicción anticausal", "aprendizaje en dirección anticausal", "aprendizaje anti-causal" },
        aliases_zh = { "反因果预测", "反向因果学习", "逆因果学习" },
    }
    
    data["anti-classification"] = {
        short = "A fairness criterion requiring that protected attributes (such as race or gender) not be used as inputs to a decision system; sometimes called fairness through unawareness, though it does not prevent indirect discrimination via proxy features.",
        article = nil,
        aliases = { "fairness through unawareness", "anticlassification", "blindness" },
        es = "Criterio de equidad que exige no utilizar atributos protegidos (como raza o género) como entradas en un sistema de decisión; a veces llamado equidad por desconocimiento, aunque no impide la discriminación indirecta vía variables proxy.",
        zh = "反分类是一种公平性标准,要求决策系统不使用受保护属性(如种族或性别)作为输入;有时称为无意识公平,但无法防止通过代理特征产生的间接歧视。",
        term_es = "anticlasificación",
        term_zh = "反分类",
        aliases_es = { "anticlasificación", "equidad por desconocimiento" },
        aliases_zh = { "反分类", "无意识公平", "属性盲" },
    }
    
    data["anti-curriculum learning"] = {
        short = "A training strategy that presents examples in order of decreasing difficulty—from harder to easier—reversing curriculum learning; useful in settings where focusing early on difficult examples improves robustness.",
        article = nil,
        aliases = { "anti curriculum learning", "anticurriculum learning", "reverse curriculum learning", "hard-first curriculum" },
        es = "Estrategia de entrenamiento que presenta los ejemplos en orden decreciente de dificultad —de los más difíciles a los más fáciles—, invirtiendo el aprendizaje por currículo; útil en escenarios donde centrarse pronto en ejemplos difíciles mejora la robustez.",
        zh = "一种训练策略,按照难度从高到低的顺序呈现样本——与课程学习相反;在早期聚焦于困难样本有助于提升鲁棒性的场景中较为有用。",
        term_es = "aprendizaje anti-currículo",
        term_zh = "反向课程学习",
        aliases_es = { "aprendizaje anticurricular", "currículo inverso", "aprendizaje curricular inverso" },
        aliases_zh = { "反课程学习", "逆向课程学习", "anti-curriculum learning" },
    }
    
    data["anti-discrimination law"] = {
        short = "Legal frameworks prohibiting discrimination on the basis of protected characteristics in domains such as employment, housing, credit, and education; their applicability to algorithmic decisions is an active area of regulation.",
        article = nil,
        aliases = { "antidiscrimination law", "non-discrimination law", "civil rights law" },
        es = "Marcos jurídicos que prohíben la discriminación sobre la base de características protegidas en ámbitos como empleo, vivienda, crédito y educación; su aplicabilidad a las decisiones algorítmicas es un área activa de regulación.",
        zh = "反歧视法是禁止在就业、住房、信贷和教育等领域基于受保护特征进行歧视的法律框架;其在算法决策中的适用性是一个活跃的监管领域。",
        term_es = "derecho antidiscriminatorio",
        term_zh = "反歧视法",
        aliases_es = { "ley antidiscriminación", "legislación antidiscriminatoria", "derecho antidiscriminación" },
        aliases_zh = { "反歧视法", "反歧视法律", "禁止歧视法" },
    }
    
    data["anti-spoofing"] = {
        short = "Detection of spoofed or synthetic speech (replay, voice conversion, text-to-speech) presented to a speaker or face verification system, evaluated on benchmarks like the ASVspoof challenge.",
        article = nil,
        aliases = { "antispoofing", "spoofing detection", "presentation attack detection", "PAD" },
        es = "Detección de habla suplantada o sintética (reproducción, conversión de voz, síntesis de texto a voz) presentada a un sistema de verificación de hablante o de rostro, evaluada en benchmarks como el reto ASVspoof.",
        zh = "对呈递给说话人或人脸验证系统的伪造或合成语音(回放、语音转换、文本合成)的检测,常在 ASVspoof 等基准上评估。",
        term_es = "anti-suplantación",
        term_zh = "反欺骗",
        aliases_es = { "detección de suplantación", "detección de ataques de presentación", "PAD" },
        aliases_zh = { "反欺诈", "欺骗检测", "呈现攻击检测", "PAD" },
    }
    
    data["antibody design"] = {
        short = "The computational task of generating antibody sequences or structures (typically the complementarity-determining regions) that bind a specified antigen with desired affinity and developability.",
        article = nil,
        aliases = { "Antibody design", "computational antibody design", "de novo antibody design" },
        es = "Tarea computacional que consiste en generar secuencias o estructuras de anticuerpos (típicamente las regiones determinantes de la complementariedad) que se unen a un antígeno especificado con la afinidad y desarrollabilidad deseadas.",
        zh = "一种计算任务,旨在生成能够以期望的亲和力和可开发性结合指定抗原的抗体序列或结构(通常是互补决定区)。",
        term_es = "diseño de anticuerpos",
        term_zh = "抗体设计",
        aliases_es = { "diseño computacional de anticuerpos", "diseño de novo de anticuerpos" },
        aliases_zh = { "抗体设计", "计算抗体设计", "从头抗体设计" },
    }
    
    data["antibody developability"] = {
        short = "Assessment of an antibody candidate's physicochemical properties—such as aggregation propensity, viscosity, thermal stability, and immunogenicity—that determine its suitability for clinical development and manufacturing.",
        article = nil,
        aliases = { "Antibody developability", "developability assessment" },
        es = "Evaluación de las propiedades fisicoquímicas de un candidato a anticuerpo—como propensión a la agregación, viscosidad, estabilidad térmica e inmunogenicidad—que determinan su idoneidad para el desarrollo clínico y la fabricación.",
        zh = "对候选抗体的理化性质(如聚集倾向、粘度、热稳定性和免疫原性)进行评估,以判断其是否适合临床开发和制造。",
        term_es = "desarrollabilidad de anticuerpos",
        term_zh = "抗体可开发性",
        aliases_es = { "evaluación de desarrollabilidad" },
        aliases_zh = { "抗体可开发性评估", "可开发性评估" },
    }
    
    data["antibody humanization"] = {
        short = "The process of modifying a non-human (typically murine) antibody so that its framework regions resemble human antibodies, reducing immunogenicity while preserving antigen-binding specificity.",
        article = nil,
        aliases = { "Antibody humanization", "humanization", "humanisation" },
        es = "Proceso de modificar un anticuerpo no humano (típicamente murino) para que sus regiones marco se parezcan a anticuerpos humanos, reduciendo la inmunogenicidad mientras se preserva la especificidad de unión al antígeno.",
        zh = "对非人源(通常为鼠源)抗体进行改造,使其框架区类似于人源抗体,从而在保留抗原结合特异性的同时降低免疫原性。",
        term_es = "humanización de anticuerpos",
        term_zh = "抗体人源化",
        aliases_es = { "humanización" },
        aliases_zh = { "人源化", "抗体人源化改造" },
    }
    
    data["antibody language model"] = {
        short = "A protein language model pretrained specifically on antibody sequence repertoires (e.g., OAS), used for tasks such as humanization, paratope prediction, and antibody design.",
        article = nil,
        aliases = { "Antibody language model", "AbLM", "antibody LM" },
        es = "Un modelo de lenguaje de proteínas preentrenado específicamente con repertorios de secuencias de anticuerpos (por ejemplo, OAS), utilizado para tareas como humanización, predicción de paratopo y diseño de anticuerpos.",
        zh = "一种专门在抗体序列库(例如 OAS)上预训练的蛋白质语言模型,用于人源化、互补位预测和抗体设计等任务。",
        term_es = "modelo de lenguaje de anticuerpos",
        term_zh = "抗体语言模型",
        aliases_es = { "AbLM", "modelo de lenguaje para anticuerpos" },
        aliases_zh = { "抗体语言模型", "AbLM" },
    }
    
    data["antibody-drug conjugate"] = {
        short = "A targeted therapeutic in which a cytotoxic small-molecule payload is covalently attached to a monoclonal antibody via a chemical linker, delivering the drug selectively to cells expressing the antibody's target antigen.",
        article = nil,
        aliases = { "ADC", "antibody drug conjugate", "Antibody-drug conjugate" },
        es = "Terapia dirigida en la que una carga citotóxica de molécula pequeña se une covalentemente a un anticuerpo monoclonal mediante un enlazador químico, administrando el fármaco selectivamente a células que expresan el antígeno objetivo del anticuerpo.",
        zh = "一种靶向治疗药物,通过化学连接子将细胞毒性小分子载荷与单克隆抗体共价偶联,将药物选择性地递送到表达抗体靶抗原的细胞。",
        term_es = "conjugado anticuerpo-fármaco",
        term_zh = "抗体药物偶联物",
        aliases_es = { "ADC", "conjugado de anticuerpo y fármaco" },
        aliases_zh = { "ADC", "抗体偶联药物" },
    }
    
    data["antigen presentation"] = {
        short = "The process by which intracellular or extracellular peptides are loaded onto major histocompatibility complex (MHC) molecules and displayed on the cell surface, enabling recognition by T-cell receptors and initiation of adaptive immune responses.",
        article = nil,
        aliases = { "MHC presentation", "peptide presentation", "HLA presentation", "antigen processing and presentation" },
        es = "Proceso por el cual péptidos intracelulares o extracelulares se cargan en moléculas del complejo mayor de histocompatibilidad (MHC) y se exponen en la superficie celular, permitiendo el reconocimiento por receptores de células T e iniciando respuestas inmunes adaptativas.",
        zh = "细胞内或细胞外的肽段被加载到主要组织相容性复合体(MHC)分子上并展示于细胞表面的过程,使其可被 T 细胞受体识别并启动适应性免疫应答。",
        term_es = "presentación de antígenos",
        term_zh = "抗原呈递",
        aliases_es = { "presentación por MHC", "presentación por HLA", "procesamiento y presentación de antígenos" },
        aliases_zh = { "MHC 呈递", "HLA 呈递", "抗原加工与呈递" },
    }
    
    data["anytime hpo"] = {
        short = "Hyperparameter optimization configured so that a usable best configuration is available at any time the procedure is interrupted, typically by interleaving evaluation budgets and tracking the incumbent throughout the search.",
        article = nil,
        aliases = { "anytime hyperparameter optimization", "anytime hyperparameter optimisation", "anytime HPO" },
        es = "Optimización de hiperparámetros configurada de modo que en cualquier momento de interrupción haya disponible una mejor configuración utilizable, normalmente intercalando presupuestos de evaluación y siguiendo al mejor candidato actual durante la búsqueda.",
        zh = "一种超参数优化设置,使得在任意时刻中断时都能获得可用的最佳配置,通常通过交错评估预算并在整个搜索过程中跟踪当前最优来实现。",
        term_es = "HPO en cualquier momento",
        term_zh = "随时超参数优化",
        aliases_es = { "anytime HPO", "optimización de hiperparámetros en cualquier momento" },
        aliases_zh = { "anytime HPO", "随时HPO" },
    }
    
    data["aopc"] = {
        short = "Area Over the Perturbation Curve — a faithfulness metric for feature-attribution explanations that measures the average drop in model confidence as input features ranked highest by the explanation are progressively removed or perturbed.",
        article = nil,
        aliases = { "AOPC", "Area Over the Perturbation Curve", "area over perturbation curve" },
        es = "Area Over the Perturbation Curve: métrica de fidelidad para explicaciones por atribución de características que mide la caída media en la confianza del modelo a medida que se eliminan o perturban progresivamente las características mejor clasificadas por la explicación.",
        zh = "扰动曲线上方面积(AOPC):用于特征归因解释忠实度评估的指标,衡量按解释重要性由高到低逐步移除或扰动输入特征时模型置信度的平均下降量。",
        term_es = "AOPC",
        term_zh = "AOPC",
        aliases_es = { "área sobre la curva de perturbación" },
        aliases_zh = { "扰动曲线上方面积", "扰动曲线之上面积" },
    }
    
    data["apc"] = {
        short = "Autoregressive Predictive Coding: a self-supervised speech representation method that trains a model to predict future acoustic frames from past frames, yielding features useful for ASR and other downstream tasks.",
        article = nil,
        aliases = { "APC", "autoregressive predictive coding" },
        es = "Autoregressive Predictive Coding: método de representación auto-supervisada del habla que entrena un modelo para predecir tramas acústicas futuras a partir de tramas pasadas, produciendo características útiles para ASR y otras tareas.",
        zh = "Autoregressive Predictive Coding(自回归预测编码):一种自监督语音表示方法,训练模型根据过去的声学帧预测未来帧,得到对 ASR 等下游任务有用的特征。",
        term_es = "APC",
        term_zh = "APC",
        aliases_es = { "codificación predictiva autorregresiva" },
        aliases_zh = { "自回归预测编码" },
    }
    
    data["apfl"] = {
        short = "Adaptive Personalized Federated Learning (Deng et al., 2020): each client trains a personalized model that is a learned convex combination of a globally aggregated model and its own local model.",
        article = nil,
        aliases = { "APFL", "Adaptive Personalized Federated Learning" },
        es = "Adaptive Personalized Federated Learning (Deng et al., 2020): cada cliente entrena un modelo personalizado consistente en una combinación convexa aprendida entre un modelo global agregado y su propio modelo local.",
        zh = "自适应个性化联邦学习(Deng 等人,2020),每个客户端训练一个个性化模型,该模型是聚合得到的全局模型与其本地模型之间的学习得到的凸组合。",
        term_es = "APFL",
        term_zh = "APFL",
        aliases_es = { "APFL", "aprendizaje federado personalizado adaptativo" },
        aliases_zh = { "APFL", "自适应个性化联邦学习" },
    }
    
    data["approximate nearest neighbors"] = {
        short = "A family of algorithms that find points close to a query in a high-dimensional space in sublinear time by trading exactness for speed, enabling efficient similarity search at large scale.",
        article = nil,
        aliases = { "ANN", "Approximate Nearest Neighbors", "Approximate Nearest Neighbour", "approximate nearest neighbour search", "ANN search", "approximate kNN" },
        es = "Familia de algoritmos que encuentran puntos cercanos a una consulta en un espacio de alta dimensión en tiempo sublineal sacrificando exactitud por velocidad, permitiendo la búsqueda eficiente por similitud a gran escala.",
        zh = "一类算法,在高维空间中以亚线性时间寻找接近查询点的样本,以精确度换取速度,从而在大规模数据上实现高效的相似度搜索。",
        term_es = "vecinos más cercanos aproximados",
        term_zh = "近似最近邻",
        aliases_es = { "ANN", "búsqueda de vecinos más cercanos aproximados", "vecino más cercano aproximado", "aproximación al vecino más cercano" },
        aliases_zh = { "ANN", "近似最近邻搜索", "近似 kNN", "近似 K 近邻" },
    }
    
    data["approximate posterior"] = {
        short = "A tractable distribution chosen to approximate an intractable Bayesian posterior, fitted by variational, sampling, or moment-matching methods to enable downstream prediction and uncertainty estimation.",
        article = nil,
        aliases = { "variational posterior", "posterior approximation", "q-distribution" },
        es = "Distribución tratable elegida para aproximar un posterior bayesiano intratable, ajustada mediante métodos variacionales, de muestreo o de igualación de momentos, con el fin de permitir predicción y estimación de incertidumbre.",
        zh = "用于近似难以处理的贝叶斯后验的可处理分布,通过变分、采样或矩匹配方法拟合,以支持下游预测和不确定性估计。",
        term_es = "posterior aproximado",
        term_zh = "近似后验",
        aliases_es = { "posterior variacional", "aproximación del posterior", "distribución q" },
        aliases_zh = { "变分后验", "后验近似", "q分布" },
    }
    
    data["approximation algorithm"] = {
        short = "An algorithm for an optimization problem (typically NP-hard) that runs in polynomial time and returns a solution provably within a bounded factor of the optimum.",
        article = nil,
        aliases = { "approximation algorithms", "approximation scheme" },
        es = "Algoritmo para un problema de optimización (típicamente NP-difícil) que se ejecuta en tiempo polinómico y devuelve una solución demostrablemente acotada por un factor respecto del óptimo.",
        zh = "针对优化问题(通常为 NP 困难问题)的多项式时间算法,可证明返回的解在最优解的某个有界因子之内。",
        term_es = "algoritmo de aproximación",
        term_zh = "近似算法",
        aliases_es = { "algoritmos de aproximación", "esquema de aproximación" },
        aliases_zh = { "近似方案", "近似算法" },
    }
    
    data["aqlm"] = {
        short = "Additive Quantization for Language Models, an extreme-low-bit weight-only quantization method that represents weight matrices as sums of vectors from learned codebooks, achieving competitive quality at around 2 bits per weight.",
        article = nil,
        aliases = { "AQLM", "Additive Quantization for Language Models", "additive quantization (LLM)" },
        es = "Additive Quantization for Language Models, un método de cuantización solo de pesos a profundidades de bits muy bajas que representa las matrices de pesos como sumas de vectores procedentes de codebooks aprendidos, logrando calidad competitiva en torno a 2 bits por peso.",
        zh = "Additive Quantization for Language Models,一种针对权重的超低比特量化方法,将权重矩阵表示为从可学习码本中抽取的向量之和,在约 2 位/权重的设置下仍能保持具有竞争力的质量。",
        term_es = "AQLM",
        term_zh = "AQLM",
        aliases_es = { "Additive Quantization for Language Models", "cuantización aditiva para LLM" },
        aliases_zh = { "加性量化", "语言模型加性量化" },
    }
    
    data["aqueous solubility prediction"] = {
        short = "The task of predicting a compound's solubility in water (typically log S in mol/L) from its molecular structure, a key property in early-stage drug discovery and ADMET screening.",
        article = nil,
        aliases = { "Aqueous solubility prediction", "water solubility prediction", "logS prediction" },
        es = "Tarea de predecir la solubilidad de un compuesto en agua (típicamente log S en mol/L) a partir de su estructura molecular, una propiedad clave en el descubrimiento de fármacos en etapas tempranas y el cribado ADMET.",
        zh = "根据化合物的分子结构预测其在水中的溶解度(通常以 mol/L 的 log S 表示)的任务,是药物发现早期和 ADMET 筛选中的关键性质。",
        term_es = "predicción de solubilidad acuosa",
        term_zh = "水溶性预测",
        aliases_es = { "predicción de solubilidad en agua", "predicción de logS" },
        aliases_zh = { "水溶解度预测", "logS 预测", "水中溶解度预测" },
    }
    
    data["arc challenge"] = {
        short = "The harder split of the AI2 Reasoning Challenge, a benchmark of grade-school science multiple-choice questions designed to require knowledge and reasoning beyond simple retrieval or co-occurrence statistics.",
        article = nil,
        aliases = { "ARC Challenge", "ARC-Challenge", "ARC-C", "AI2 Reasoning Challenge (Challenge set)" },
        es = "Subconjunto difícil del AI2 Reasoning Challenge, un benchmark de preguntas de opción múltiple de ciencias de nivel escolar diseñado para requerir conocimiento y razonamiento más allá de la simple recuperación o de estadísticas de coocurrencia.",
        zh = "AI2 Reasoning Challenge 的较难子集,是一项小学科学多项选择题基准,旨在要求超越简单检索或共现统计的知识与推理能力。",
        term_es = "ARC Challenge",
        term_zh = "ARC Challenge",
        aliases_es = { "ARC-C", "conjunto Challenge de ARC" },
        aliases_zh = { "ARC-C", "ARC 挑战集", "AI2 推理挑战(Challenge 子集)" },
    }
    
    data["arc consistency"] = {
        short = "A constraint propagation property in constraint satisfaction problems: for every pair of constrained variables, every value remaining in one variable's domain has at least one compatible value in the other; algorithms such as AC-3 enforce it.",
        article = nil,
        aliases = { "arc consistency", "AC-3", "arc-consistent" },
        es = "Una propiedad de propagación de restricciones en problemas de satisfacción de restricciones: para cada par de variables restringidas, cada valor del dominio de una de ellas tiene al menos un valor compatible en el dominio de la otra; algoritmos como AC-3 la imponen.",
        zh = "约束满足问题中的一种约束传播性质:对于每一对受约束变量,其中一个变量域中保留的每个值在另一个变量域中至少存在一个兼容值;AC-3 等算法用于强制满足该性质。",
        term_es = "consistencia de arco",
        term_zh = "弧一致性",
        aliases_es = { "consistencia de arco", "AC-3" },
        aliases_zh = { "弧一致性", "AC-3", "弧相容" },
    }
    
    data["arc cosine kernel"] = {
        short = "A kernel function obtained as the infinite-width limit of a single-layer neural network with rectified-linear or related activations and Gaussian weights, expressing inner products in feature space via the arccosine of the input angle.",
        article = nil,
        aliases = { "arc-cosine kernel", "arccosine kernel", "Cho-Saul kernel" },
        es = "Función núcleo obtenida como el límite de ancho infinito de una red neuronal de una capa con activaciones tipo ReLU y pesos gaussianos, que expresa los productos internos en el espacio de características a través del arcocoseno del ángulo de entrada.",
        zh = "一种核函数,由具有ReLU或相关激活及高斯权重的单层神经网络在无限宽极限下导出,通过输入向量夹角的反余弦来表达特征空间中的内积。",
        term_es = "núcleo de arcocoseno",
        term_zh = "反余弦核",
        aliases_es = { "kernel de arcocoseno", "núcleo arc cosine", "núcleo de Cho-Saul" },
        aliases_zh = { "arc cosine核", "arccos核", "Cho-Saul核" },
    }
    
    data["arc reversal"] = {
        short = "An operation on a Bayesian network that reverses the direction of a single edge while updating the conditional probability tables of the affected nodes so that the joint distribution is preserved.",
        article = nil,
        aliases = { "edge reversal", "Shachter arc reversal", "arc-reversal operation" },
        es = "Operación sobre una red bayesiana que invierte la dirección de una arista, actualizando las tablas de probabilidad condicional de los nodos afectados de modo que la distribución conjunta se preserve.",
        zh = "一种贝叶斯网络上的操作,反转单条边的方向,同时更新受影响节点的条件概率表,使联合分布保持不变。",
        term_es = "inversión de arco",
        term_zh = "弧反转",
        aliases_es = { "reversión de arco", "inversión de arista" },
        aliases_zh = { "边反转", "弧线反转", "Shachter 弧反转" },
    }
    
    data["arcface loss"] = {
        short = "Face-recognition loss that adds an additive angular margin to the softmax logits, enforcing larger angular separation between class weight vectors on a hypersphere.",
        article = nil,
        aliases = { "ArcFace", "additive angular margin loss", "ArcFace loss" },
        es = "Pérdida para reconocimiento facial que añade un margen angular aditivo a los logits softmax, imponiendo una mayor separación angular entre los vectores de pesos de cada clase en una hiperesfera.",
        zh = "一种人脸识别损失,在 softmax 的 logits 上加入加性角度间隔,使各类别权重向量在超球面上具有更大的角度分离。",
        term_es = "pérdida ArcFace",
        term_zh = "ArcFace 损失",
        aliases_es = { "ArcFace", "pérdida de margen angular aditivo" },
        aliases_zh = { "ArcFace", "加性角度间隔损失" },
    }
    
    data["arch parameters"] = {
        short = "In differentiable neural architecture search, the continuous parameters (commonly denoted alpha) that weight candidate operations in a supernet, jointly optimized with network weights and discretized into a final architecture.",
        article = nil,
        aliases = { "architecture parameters", "alpha parameters", "architectural parameters" },
        es = "En la búsqueda diferenciable de arquitecturas neuronales, parámetros continuos (a menudo denotados alfa) que ponderan las operaciones candidatas en una supernet, optimizados conjuntamente con los pesos de la red y discretizados en la arquitectura final.",
        zh = "在可微神经架构搜索中,对超网络中候选操作进行加权的连续参数(通常记为alpha),与网络权重联合优化并最终离散化为搜索得到的架构。",
        term_es = "parámetros de arquitectura",
        term_zh = "架构参数",
        aliases_es = { "parámetros alfa", "parámetros arquitectónicos" },
        aliases_zh = { "alpha参数", "架构系数" },
    }
    
    data["archai"] = {
        short = "An open-source neural architecture search platform from Microsoft Research providing reproducible implementations of NAS algorithms (DARTS, PC-DARTS, ProxylessNAS, and others) on a common codebase and benchmarks.",
        article = nil,
        aliases = { "Archai" },
        es = "Plataforma de código abierto de búsqueda de arquitecturas neuronales de Microsoft Research que ofrece implementaciones reproducibles de algoritmos de NAS (DARTS, PC-DARTS, ProxylessNAS y otros) sobre una base de código y conjuntos de pruebas comunes.",
        zh = "微软研究院开源的神经架构搜索平台,在统一的代码库和基准上提供DARTS、PC-DARTS、ProxylessNAS等NAS算法的可复现实现。",
        term_es = "Archai",
        term_zh = "Archai",
        aliases_es = { "Archai" },
        aliases_zh = { "Archai" },
    }
    
    data["architecture gradient"] = {
        short = "The gradient of the validation loss with respect to architecture parameters in differentiable NAS, used to update operation weights in the supernet; in DARTS it is computed via a second-order or first-order approximation of a bi-level objective.",
        article = nil,
        aliases = { "architectural gradient", "alpha gradient", "arch gradient" },
        es = "Gradiente de la pérdida de validación respecto a los parámetros de arquitectura en NAS diferenciable, utilizado para actualizar los pesos de las operaciones en la supernet; en DARTS se calcula mediante una aproximación de segundo o primer orden de un objetivo de dos niveles.",
        zh = "在可微NAS中,验证损失相对于架构参数的梯度,用于更新超网络中操作的权重;在DARTS中,通过对双层目标的二阶或一阶近似计算得到。",
        term_es = "gradiente de arquitectura",
        term_zh = "架构梯度",
        aliases_es = { "gradiente arquitectónico", "gradiente alfa" },
        aliases_zh = { "alpha梯度", "架构方向梯度" },
    }
    
    data["ard prior"] = {
        short = "A Gaussian prior with per-feature precisions that are themselves given hyperpriors, allowing the model to drive irrelevant features' weights toward zero through automatic relevance determination during inference.",
        article = nil,
        aliases = { "automatic relevance determination prior", "ARD prior", "MacKay ARD prior" },
        es = "Prior gaussiano con precisiones por característica a las que se asignan hiperpriors, permitiendo que el modelo lleve a cero los pesos de las características irrelevantes mediante determinación automática de relevancia durante la inferencia.",
        zh = "一种高斯先验,对每个特征赋予可学习的精度并对其再施加超先验,使模型在推断中通过自动相关性确定将无关特征的权重压向零。",
        term_es = "prior ARD",
        term_zh = "ARD先验",
        aliases_es = { "prior de determinación automática de relevancia", "prior de ARD" },
        aliases_zh = { "自动相关性确定先验", "MacKay ARD先验" },
    }
    
    data["area under risk coverage"] = {
        short = "A scalar metric for selective prediction that integrates classifier risk over the coverage axis as the model is allowed to abstain on increasingly many inputs; lower values indicate better risk-coverage trade-offs.",
        article = nil,
        aliases = { "AURC", "area under risk-coverage curve", "risk-coverage AUC" },
        es = "Métrica escalar para predicción selectiva que integra el riesgo del clasificador a lo largo del eje de cobertura conforme se permite al modelo abstenerse en cada vez más entradas; valores más bajos indican mejores compromisos entre riesgo y cobertura.",
        zh = "选择性预测的标量指标,随着允许模型在越来越多输入上弃答,将分类器风险沿覆盖率轴积分;数值越低表示风险-覆盖率权衡越好。",
        term_es = "área bajo la curva riesgo-cobertura",
        term_zh = "风险-覆盖率曲线下面积",
        aliases_es = { "AURC", "AUC de riesgo-cobertura", "área bajo riesgo-cobertura" },
        aliases_zh = { "AURC", "风险覆盖AUC", "风险-覆盖曲线下面积" },
    }
    
    data["area under sparsification curve"] = {
        short = "An evaluation metric for predictive uncertainty that measures how quickly a model's error decreases as the most uncertain predictions are removed; a lower area indicates uncertainty estimates that better rank errors.",
        article = nil,
        aliases = { "AUSE", "sparsification AUC", "area under sparsification error curve" },
        es = "Métrica de evaluación de la incertidumbre predictiva que mide con qué rapidez disminuye el error del modelo al eliminar las predicciones más inciertas; un área menor indica que las estimaciones de incertidumbre ordenan mejor los errores.",
        zh = "评估预测不确定性的指标,衡量随着最不确定的预测被移除时模型误差下降的速度;面积越小表示不确定性估计能更好地按误差排序。",
        term_es = "área bajo la curva de esparsificación",
        term_zh = "稀疏化曲线下面积",
        aliases_es = { "AUSE", "AUC de esparsificación", "área bajo curva de error de esparsificación" },
        aliases_zh = { "AUSE", "稀疏化AUC", "稀疏化误差曲线下面积" },
    }
    
    data["arena elo"] = {
        short = "The Elo rating used in Chatbot Arena to rank language models, computed from human pairwise preference votes between anonymous model responses to the same prompt.",
        article = nil,
        aliases = { "Arena Elo", "Chatbot Arena Elo", "LMSYS Arena Elo", "Arena ELO" },
        es = "Puntuación Elo utilizada en Chatbot Arena para clasificar modelos de lenguaje, calculada a partir de votos humanos de preferencia por pares entre respuestas anónimas de modelos al mismo prompt.",
        zh = "Chatbot Arena 用于对语言模型进行排名的 Elo 评分,依据用户对同一提示下匿名模型回复的两两偏好投票计算得出。",
        term_es = "Elo de Arena",
        term_zh = "Arena Elo",
        aliases_es = { "Chatbot Arena Elo", "LMSYS Arena Elo" },
        aliases_zh = { "Chatbot Arena Elo", "LMSYS Arena Elo", "聊天机器人竞技场 Elo" },
    }
    
    data["arena hard"] = {
        short = "An automatic LLM benchmark from LMSYS that selects the most challenging real-user prompts from Chatbot Arena and uses GPT-4 as a judge to compute pairwise win rates against a strong reference model.",
        article = nil,
        aliases = { "Arena-Hard", "Arena Hard Auto", "Arena Hard benchmark", "LMSYS Arena Hard" },
        es = "Benchmark automático de LLM de LMSYS que selecciona los prompts más desafiantes de usuarios reales de Chatbot Arena y utiliza GPT-4 como juez para calcular tasas de victoria por pares frente a un modelo de referencia robusto.",
        zh = "LMSYS 推出的自动化 LLM 基准,从 Chatbot Arena 中挑选最具挑战性的真实用户提示,并使用 GPT-4 作为裁判,计算相对于强参考模型的两两胜率。",
        term_es = "Arena Hard",
        term_zh = "Arena Hard",
        aliases_es = { "Arena Hard Auto", "benchmark Arena Hard" },
        aliases_zh = { "Arena-Hard", "Arena Hard 基准" },
    }
    
    data["arges algorithm"] = {
        short = "A score-based causal-discovery algorithm that augments greedy equivalence search (GES) with adaptive restrictions on candidate edges, improving consistency under high-dimensional sparse settings.",
        article = nil,
        aliases = { "ARGES", "ARGES algorithm", "Adaptively Restricted Greedy Equivalence Search" },
        es = "Algoritmo de descubrimiento causal basado en puntuación que amplía la búsqueda voraz por equivalencia (GES) con restricciones adaptativas sobre las aristas candidatas, mejorando la consistencia en escenarios dispersos de alta dimensión.",
        zh = "一种基于评分的因果发现算法,在贪心等价搜索(GES)基础上引入对候选边的自适应约束,从而在高维稀疏场景下获得更好的一致性。",
        term_es = "ARGES",
        term_zh = "ARGES 算法",
        aliases_es = { "algoritmo ARGES", "GES adaptativamente restringido" },
        aliases_zh = { "ARGES", "自适应受限 GES" },
    }
    
    data["arithmetic circuit"] = {
        short = "A directed acyclic graph of additions and multiplications that compactly represents a polynomial; in probabilistic inference, compiling a graphical model into an arithmetic circuit enables inference in time linear in circuit size.",
        article = nil,
        aliases = { "AC", "arithmetic circuits", "probabilistic arithmetic circuit" },
        es = "Grafo acíclico dirigido de sumas y multiplicaciones que representa de forma compacta un polinomio; en inferencia probabilística, compilar un modelo gráfico en un circuito aritmético permite inferencia en tiempo lineal en el tamaño del circuito.",
        zh = "由加法和乘法构成的有向无环图,可紧凑地表示一个多项式;在概率推断中,将图模型编译为算术电路可使推断时间与电路规模成线性关系。",
        term_es = "circuito aritmético",
        term_zh = "算术电路",
        aliases_es = { "AC", "circuitos aritméticos" },
        aliases_zh = { "AC", "算术回路", "概率算术电路" },
    }
    
    data["arm trustzone"] = {
        short = "A hardware-based trusted execution environment provided by ARM processors that isolates security-sensitive code and data in a secure world separate from the normal operating system, used in federated learning to protect model parameters and computations on client devices.",
        article = nil,
        aliases = { "TrustZone", "ARM TrustZone", "TrustZone TEE" },
        es = "Entorno de ejecución confiable basado en hardware provisto por procesadores ARM que aísla código y datos sensibles a la seguridad en un mundo seguro separado del sistema operativo normal; en aprendizaje federado se utiliza para proteger parámetros y cómputos del modelo en los dispositivos cliente.",
        zh = "ARM处理器提供的基于硬件的可信执行环境,将安全敏感的代码与数据隔离在与普通操作系统分离的安全世界中;在联邦学习中用于保护客户端设备上的模型参数与计算。",
        term_es = "ARM TrustZone",
        term_zh = "ARM TrustZone",
        aliases_es = { "TrustZone", "TEE de ARM" },
        aliases_zh = { "TrustZone", "ARM 可信执行环境" },
    }
    
    data["arnoldi influence"] = {
        short = "A scalable approximation of influence functions (Schioppa et al., 2022) that uses the Arnoldi iteration to compute a low-rank approximation of the inverse Hessian, enabling per-example influence estimation in models with billions of parameters.",
        article = nil,
        aliases = { "Arnoldi influence", "Arnoldi influence functions", "Arnoldi-based influence" },
        es = "Aproximación escalable de las funciones de influencia (Schioppa et al., 2022) que utiliza la iteración de Arnoldi para calcular una aproximación de bajo rango de la inversa del hessiano, permitiendo estimar la influencia por ejemplo en modelos con miles de millones de parámetros.",
        zh = "一种可扩展的影响函数近似方法(Schioppa 等,2022),利用 Arnoldi 迭代计算逆 Hessian 的低秩近似,从而在具有数十亿参数的模型上估计每个样本的影响。",
        term_es = "influencia de Arnoldi",
        term_zh = "Arnoldi 影响函数",
        aliases_es = { "funciones de influencia Arnoldi", "influencia basada en Arnoldi" },
        aliases_zh = { "Arnoldi 迭代影响函数", "基于 Arnoldi 的影响函数" },
    }
    
    data["arnoldi iteration"] = {
        short = "A Krylov subspace algorithm that builds an orthonormal basis of the Krylov subspace generated by a non-Hermitian matrix and reduces it to upper Hessenberg form, used to approximate eigenvalues and solve linear systems (e.g., GMRES).",
        article = nil,
        aliases = { "Arnoldi method", "Arnoldi process", "Arnoldi algorithm" },
        es = "Algoritmo de subespacios de Krylov que construye una base ortonormal del subespacio de Krylov generado por una matriz no hermítica y la reduce a forma de Hessenberg superior; se usa para aproximar autovalores y resolver sistemas lineales (p. ej., GMRES).",
        zh = "一种 Krylov 子空间算法,对非 Hermite 矩阵生成的 Krylov 子空间构造正交基并将其约化为上 Hessenberg 形式,用于近似特征值和求解线性方程组(如 GMRES)。",
        term_es = "iteración de Arnoldi",
        term_zh = "Arnoldi 迭代",
        aliases_es = { "método de Arnoldi", "proceso de Arnoldi" },
        aliases_zh = { "Arnoldi 方法", "Arnoldi 过程", "Arnoldi 算法" },
    }
    
    data["aromatic ring count"] = {
        short = "A molecular descriptor that counts the number of aromatic rings in a compound, commonly used in drug-likeness rules where exceeding three or four aromatic rings predicts poor developability.",
        article = nil,
        aliases = { "Aromatic ring count", "number of aromatic rings", "nAromRing" },
        es = "Un descriptor molecular que cuenta el número de anillos aromáticos en un compuesto, comúnmente usado en reglas de drogabilidad donde superar tres o cuatro anillos aromáticos predice mala desarrollabilidad.",
        zh = "一种分子描述符,用于统计化合物中芳香环的数量;常用于成药性规则中,超过三或四个芳香环通常预示较差的可开发性。",
        term_es = "número de anillos aromáticos",
        term_zh = "芳香环数量",
        aliases_es = { "conteo de anillos aromáticos", "nAromRing" },
        aliases_zh = { "芳环数", "芳香环数目", "nAromRing" },
    }
    
    data["as-norm"] = {
        short = "Adaptive symmetric score normalization for speaker verification, which normalizes a verification score using statistics computed from each trial's top-N most similar cohort speakers.",
        article = nil,
        aliases = { "AS-Norm", "adaptive s-norm", "adaptive symmetric normalization" },
        es = "Normalización adaptativa simétrica de puntuaciones para verificación de hablante, que normaliza la puntuación usando estadísticas calculadas a partir de los N hablantes de cohorte más similares de cada prueba.",
        zh = "用于说话人验证的自适应对称分数归一化,根据每次试验中最相似的前 N 个 cohort 说话人统计量对验证分数进行归一化。",
        term_es = "AS-Norm",
        term_zh = "AS-Norm",
        aliases_es = { "normalización simétrica adaptativa" },
        aliases_zh = { "自适应对称归一化" },
    }
    
    data["as-treated analysis"] = {
        short = "An analysis of a randomized trial that classifies participants by the treatment they actually received rather than the treatment to which they were assigned; departs from the intention-to-treat principle and is generally biased when nonadherence depends on prognosis.",
        article = nil,
        aliases = { "as treated analysis", "as-treated", "actually-received analysis", "received-treatment analysis" },
        es = "Análisis de un ensayo aleatorizado que clasifica a los participantes según el tratamiento que efectivamente recibieron y no según el tratamiento al que fueron asignados; se aparta del principio de intención de tratar y suele estar sesgado cuando la falta de adherencia depende del pronóstico.",
        zh = "一种随机试验的分析方法,按受试者实际接受的处理而非其被分配到的处理进行分组;该方法偏离意向治疗原则,当不依从与预后相关时通常会产生偏差。",
        term_es = "análisis según tratamiento recibido",
        term_zh = "按实际处理分析",
        aliases_es = { "análisis as-treated", "análisis por tratamiento recibido", "análisis según tratamiento efectivamente recibido" },
        aliases_zh = { "按实际接受处理分析", "as-treated 分析", "实际处理分析" },
    }
    
    data["ascertainment bias"] = {
        short = "A form of selection bias in which the data observed are not a representative sample of the population of interest because of how cases were identified, ascertained, or recorded — common in clinical and historical datasets.",
        article = nil,
        aliases = { "ascertainment effect", "case ascertainment bias" },
        es = "Forma de sesgo de selección en la que los datos observados no constituyen una muestra representativa de la población de interés debido a cómo se identificaron, determinaron o registraron los casos —común en conjuntos de datos clínicos e históricos.",
        zh = "确认偏差是一种选择偏差,由于病例的识别、确认或记录方式,所观察的数据不能代表目标总体——常见于临床和历史数据集中。",
        term_es = "sesgo de determinación",
        term_zh = "确认偏差",
        aliases_es = { "sesgo de determinación", "sesgo de comprobación", "sesgo de detección" },
        aliases_zh = { "确认偏差", "确诊偏差", "查明偏差" },
    }
    
    data["asha"] = {
        short = "Asynchronous Successive Halving Algorithm: a parallel hyperparameter optimization method that promotes well-performing configurations to larger resource budgets without synchronization barriers, enabling efficient use of many workers.",
        article = nil,
        aliases = { "ASHA", "asynchronous successive halving algorithm" },
        es = "Asynchronous Successive Halving Algorithm: método paralelo de optimización de hiperparámetros que promueve las configuraciones con buen desempeño a presupuestos de recursos mayores sin barreras de sincronización, permitiendo un uso eficiente de muchos trabajadores.",
        zh = "异步逐次减半算法:一种并行超参数优化方法,将表现良好的配置提升到更大的资源预算,无需同步屏障,从而高效利用大量工作节点。",
        term_es = "ASHA",
        term_zh = "ASHA",
        aliases_es = { "ASHA", "reducción sucesiva asíncrona" },
        aliases_zh = { "ASHA", "异步逐次减半算法" },
    }
    
    data["asia network"] = {
        short = "A small eight-node Bayesian network introduced by Lauritzen and Spiegelhalter to illustrate diagnostic reasoning about lung disease, frequently used as a tutorial benchmark for inference algorithms.",
        article = nil,
        aliases = { "Asia network", "Asia Bayesian network", "Asia BN", "Lauritzen-Spiegelhalter Asia" },
        es = "Pequeña red bayesiana de ocho nodos introducida por Lauritzen y Spiegelhalter para ilustrar el razonamiento diagnóstico sobre enfermedades pulmonares, usada con frecuencia como referencia didáctica para algoritmos de inferencia.",
        zh = "由 Lauritzen 和 Spiegelhalter 提出的一个 8 节点小型贝叶斯网络,用于演示对肺部疾病的诊断推理,常作为推断算法的教学基准。",
        term_es = "red Asia",
        term_zh = "Asia 网络",
        aliases_es = { "red bayesiana Asia", "BN Asia" },
        aliases_zh = { "Asia 贝叶斯网络", "Asia BN" },
    }
    
    data["asilomar ai principles"] = {
        short = "A set of 23 principles for beneficial AI development, drafted at the 2017 Asilomar Conference convened by the Future of Life Institute, addressing research goals, ethics, values, and long-term issues such as recursive self-improvement.",
        article = nil,
        aliases = { "Asilomar Principles", "Asilomar AI Principles", "Asilomar Conference principles" },
        es = "Conjunto de 23 principios para el desarrollo beneficioso de la IA, redactados en la Conferencia de Asilomar de 2017 convocada por el Future of Life Institute, que abordan objetivos de investigación, ética, valores y cuestiones a largo plazo como la automejora recursiva.",
        zh = "阿西洛马人工智能原则是2017年由未来生命研究所召开的阿西洛马会议起草的23条有益人工智能发展原则,涉及研究目标、伦理、价值观以及递归自我改进等长期议题。",
        term_es = "Principios de Asilomar para la IA",
        term_zh = "阿西洛马人工智能原则",
        aliases_es = { "Principios de Asilomar", "Principios de IA de Asilomar" },
        aliases_zh = { "阿西洛马人工智能原则", "阿西洛马AI原则", "阿西洛马原则" },
    }
    
    data["assistant message"] = {
        short = "In chat-style language model APIs, a message in the conversation whose role is `assistant`, representing the model's reply (or a previous reply replayed as context) as opposed to system or user messages.",
        article = nil,
        aliases = { "assistant role message", "assistant turn", "assistant-role message" },
        es = "En las APIs de modelos de lenguaje de tipo chat, mensaje de la conversación cuyo rol es `assistant`, que representa la respuesta del modelo (o una respuesta previa reproducida como contexto), en contraposición a los mensajes de sistema o de usuario.",
        zh = "在聊天式语言模型 API 中,角色为 `assistant` 的对话消息,代表模型的回复(或作为上下文重放的先前回复),与 system 或 user 消息相对。",
        term_es = "mensaje del asistente",
        term_zh = "助手消息",
        aliases_es = { "mensaje con rol assistant", "turno del asistente" },
        aliases_zh = { "assistant 消息", "助手回合", "assistant 角色消息" },
    }
    
    data["assistant prompt"] = {
        short = "The assistant-role message in a chat-style conversation with a language model, representing the model's reply or, when present in the input, prior model turns supplied as conversation history.",
        article = nil,
        aliases = { "assistant message", "Assistant Prompt", "assistant-prompt", "assistant turn", "assistant response" },
        es = "Mensaje en rol de asistente en una conversación de tipo chat con un modelo de lenguaje, que representa la respuesta del modelo o, cuando se incluye en la entrada, turnos anteriores proporcionados como historial.",
        zh = "对话式语言模型交互中由助手角色发出的消息,代表模型的回复,或在作为输入提供时表示作为对话历史的先前模型轮次。",
        term_es = "prompt del asistente",
        term_zh = "助手提示",
        aliases_es = { "mensaje del asistente", "assistant prompt", "respuesta del asistente" },
        aliases_zh = { "助手消息", "assistant prompt", "助手回复" },
    }
    
    data["assisted decoding"] = {
        short = "A family of decoding methods, including speculative and prompt-lookup decoding, that accelerate large-language-model generation by drafting candidate tokens with a cheaper model or heuristic and verifying them in parallel with the target model.",
        article = nil,
        aliases = { "assisted generation", "draft-and-verify decoding", "speculative-style decoding" },
        es = "Familia de métodos de decodificación, que incluye la decodificación especulativa y la basada en búsqueda en el prompt, que aceleran la generación de grandes modelos de lenguaje proponiendo tokens candidatos con un modelo o heurística más barata y verificándolos en paralelo con el modelo objetivo.",
        zh = "一类解码方法(包括推测解码和提示查找解码),通过使用更廉价的模型或启发式方法草拟候选令牌,并由目标模型并行验证,从而加速大型语言模型的生成。",
        term_es = "decodificación asistida",
        term_zh = "辅助解码",
        aliases_es = { "generación asistida", "decodificación de borrador y verificación" },
        aliases_zh = { "辅助生成", "草拟与验证解码", "类推测解码" },
    }
    
    data["associative markov network"] = {
        short = "A class of pairwise Markov random fields whose pairwise potentials reward neighboring sites taking the same label, yielding submodular energies that can be globally minimized via graph cuts.",
        article = nil,
        aliases = { "AMN", "associative MRF", "associative Markov random field" },
        es = "Clase de campos aleatorios de Markov por pares cuyas potenciales por pares premian que sitios vecinos tomen la misma etiqueta, dando lugar a energías submodulares que pueden minimizarse globalmente con cortes de grafo.",
        zh = "一类成对马尔可夫随机场,其成对势函数奖励相邻位置取相同标签,从而得到可通过图割进行全局最小化的次模能量。",
        term_es = "red de Markov asociativa",
        term_zh = "关联马尔可夫网络",
        aliases_es = { "AMN", "MRF asociativo" },
        aliases_zh = { "AMN", "关联马尔可夫随机场", "关联 MRF" },
    }
    
    data["assumed density filtering"] = {
        short = "An online approximate inference algorithm that, after each observation, projects the exact posterior onto a fixed parametric family by matching moments, yielding a tractable sequential update.",
        article = nil,
        aliases = { "ADF", "assumed-density filtering", "moment-matching filter", "online assumed density filtering" },
        es = "Algoritmo de inferencia aproximada en línea que, tras cada observación, proyecta la posterior exacta sobre una familia paramétrica fija mediante el emparejamiento de momentos, obteniendo una actualización secuencial tratable.",
        zh = "一种在线近似推断算法,在每次观测之后通过矩匹配将精确后验投影到固定的参数族上,从而得到可处理的序贯更新。",
        term_es = "filtrado de densidad asumida",
        term_zh = "假设密度滤波",
        aliases_es = { "ADF", "filtro de coincidencia de momentos" },
        aliases_zh = { "ADF", "假定密度滤波", "矩匹配滤波" },
    }
    
    data["ast"] = {
        short = "Audio Spectrogram Transformer: a Vision-Transformer-style architecture that splits a log-mel spectrogram into patches and processes them with self-attention, achieving strong results on AudioSet classification.",
        article = nil,
        aliases = { "AST", "Audio Spectrogram Transformer" },
        es = "Audio Spectrogram Transformer: arquitectura tipo Vision Transformer que divide un espectrograma log-mel en parches y los procesa con autoatención, obteniendo resultados sólidos en clasificación de AudioSet.",
        zh = "Audio Spectrogram Transformer:一种类似 Vision Transformer 的架构,将对数梅尔频谱图切分为块并以自注意力处理,在 AudioSet 分类上取得了优异结果。",
        term_es = "AST",
        term_zh = "AST",
        aliases_es = { "Audio Spectrogram Transformer", "transformer de espectrograma de audio" },
        aliases_zh = { "音频频谱图 Transformer", "音频频谱 Transformer" },
    }
    
    data["asteroid library"] = {
        short = "An open-source PyTorch toolkit for audio source separation that ships pretrained models, datasets, and recipes for tasks like speech separation and enhancement.",
        article = nil,
        aliases = { "Asteroid", "asteroid", "Asteroid toolkit" },
        es = "Biblioteca de código abierto en PyTorch para separación de fuentes de audio que incluye modelos preentrenados, conjuntos de datos y recetas para tareas como separación y mejora del habla.",
        zh = "一个用于音频源分离的开源 PyTorch 工具包,提供预训练模型、数据集以及语音分离与增强等任务的训练配方。",
        term_es = "Asteroid",
        term_zh = "Asteroid",
        aliases_es = { "biblioteca Asteroid", "kit de herramientas Asteroid" },
        aliases_zh = { "Asteroid 工具包", "Asteroid 库" },
    }
    
    data["asv clustering"] = {
        short = "Grouping of amplicon sequence variants (ASVs) inferred from marker-gene sequencing data, either to infer the ASVs themselves via denoising methods like DADA2 or to subsequently aggregate them into operational taxonomic units or higher-order clusters.",
        article = nil,
        aliases = { "ASV clustering", "amplicon sequence variant clustering", "ASV-based OTU clustering", "ASV-OTU clustering" },
        es = "Agrupación de variantes de secuencia de amplicón (ASV) inferidas a partir de datos de secuenciación de genes marcadores, ya sea para inferir las propias ASV mediante métodos de denoising como DADA2, o para agregarlas posteriormente en unidades taxonómicas operativas o grupos de orden superior.",
        zh = "对从标记基因测序数据中推断出的扩增子序列变体(ASV)进行分组——既包括通过 DADA2 等去噪方法推断 ASV 本身,也包括后续将其聚合为操作分类单元或更高级别的聚类。",
        term_es = "agrupación de ASV",
        term_zh = "ASV 聚类",
        aliases_es = { "clustering de ASV", "agrupamiento de variantes de secuencia de amplicón", "agrupamiento ASV-OTU" },
        aliases_zh = { "ASV 聚类分析", "扩增子序列变体聚类", "ASV-OTU 聚类" },
    }
    
    data["asy-sonata"] = {
        short = "An asynchronous variant of the SONATA decentralized optimization algorithm in which agents perform local updates and gossip with neighbors without waiting for a global clock, supporting heterogeneous compute and communication delays.",
        article = nil,
        aliases = { "ASY-SONATA", "Asynchronous SONATA", "asynchronous SONATA algorithm" },
        es = "Variante asíncrona del algoritmo de optimización descentralizada SONATA en la que los agentes realizan actualizaciones locales y se comunican con sus vecinos por gossip sin esperar a un reloj global, admitiendo cómputo y retrasos de comunicación heterogéneos.",
        zh = "SONATA 去中心化优化算法的异步变体:各代理执行本地更新并与邻居进行 gossip 通信,无需等待全局时钟,支持异构计算和通信延迟。",
        term_es = "ASY-SONATA",
        term_zh = "ASY-SONATA",
        aliases_es = { "SONATA asíncrono" },
        aliases_zh = { "异步 SONATA", "异步 SONATA 算法" },
    }
    
    data["asymmetric shapley values"] = {
        short = "An extension of Shapley-value attributions that incorporates known causal or ordering structure among features, restricting the permutations considered so that explanations respect upstream-downstream relationships.",
        article = nil,
        aliases = { "asymmetric Shapley values", "ASV", "causal Shapley values" },
        es = "Extensión de las atribuciones de Shapley que incorpora estructura causal u ordenamiento conocido entre las características, restringiendo las permutaciones consideradas de modo que las explicaciones respeten las relaciones aguas arriba/aguas abajo.",
        zh = "Shapley 值归因的一种扩展,融入特征之间已知的因果或排序结构,限制所考虑的排列方式,使解释能够尊重上下游关系。",
        term_es = "valores de Shapley asimétricos",
        term_zh = "非对称 Shapley 值",
        aliases_es = { "valores Shapley causales", "ASV" },
        aliases_zh = { "因果 Shapley 值", "ASV" },
    }
    
    data["asymptotic expansion"] = {
        short = "A formal series representation of a function that approximates it accurately as the argument tends to a limit, even though the series itself may diverge for any fixed argument.",
        article = nil,
        aliases = { "asymptotic series", "Poincaré expansion" },
        es = "Representación formal en serie de una función que la aproxima con precisión cuando el argumento tiende a un límite, aunque la serie pueda divergir para cualquier argumento fijo.",
        zh = "函数的一种形式级数表示,当自变量趋于某极限时能够精确逼近该函数,尽管该级数对任意固定自变量都可能发散。",
        term_es = "desarrollo asintótico",
        term_zh = "渐近展开",
        aliases_es = { "expansión asintótica", "serie asintótica", "expansión de Poincaré" },
        aliases_zh = { "渐近级数", "Poincaré 展开" },
    }
    
    data["asymptotic linearity"] = {
        short = "A property of an estimator under which it admits a first-order von Mises expansion equal to the empirical mean of an influence function plus a remainder of order o_P(n^{-1/2}); implies asymptotic normality and underlies efficiency theory and TMLE/AIPW.",
        article = nil,
        aliases = { "asymptotically linear estimator", "asymptotic linear expansion", "asymptotic linearization", "asymptotic linear representation" },
        es = "Propiedad de un estimador según la cual admite un desarrollo de primer orden de von Mises igual a la media empírica de una función de influencia más un residuo de orden o_P(n^{-1/2}); implica normalidad asintótica y subyace en la teoría de eficiencia y en TMLE/AIPW.",
        zh = "估计量的一种性质:它允许一种关于影响函数经验均值加上 o_P(n^{-1/2}) 余项的一阶 von Mises 展开;该性质意味着渐近正态性,是效率理论以及 TMLE/AIPW 等方法的基础。",
        term_es = "linealidad asintótica",
        term_zh = "渐近线性",
        aliases_es = { "estimador asintóticamente lineal", "expansión asintótica lineal", "linealización asintótica" },
        aliases_zh = { "渐近线性估计量", "渐近线性表示", "渐近线性展开" },
    }
    
    data["asymptotic normality"] = {
        short = "A property of an estimator (or statistic) whose distribution, after suitable centering and scaling, converges to a normal distribution as the sample size goes to infinity.",
        article = nil,
        aliases = { "asymptotically normal", "asymptotic Gaussianity" },
        es = "Propiedad de un estimador (o estadístico) cuya distribución, tras un centrado y escalado adecuados, converge a una distribución normal cuando el tamaño de la muestra tiende a infinito.",
        zh = "估计量(或统计量)的一种性质,其分布在适当中心化与标准化后,当样本量趋于无穷时收敛到正态分布。",
        term_es = "normalidad asintótica",
        term_zh = "渐近正态性",
        aliases_es = { "asintóticamente normal" },
        aliases_zh = { "渐近正态", "渐近高斯性" },
    }
    
    data["asymptotic variance"] = {
        short = "The variance of the limiting distribution of a properly scaled estimator; for a √n-consistent asymptotically normal estimator, it is the variance of the limiting Gaussian.",
        article = nil,
        aliases = { "limiting variance" },
        es = "Varianza de la distribución límite de un estimador adecuadamente escalado; para un estimador √n-consistente y asintóticamente normal, es la varianza de la gaussiana límite.",
        zh = "适当标度后估计量极限分布的方差;对 √n 相合且渐近正态的估计量而言,即为其极限高斯分布的方差。",
        term_es = "varianza asintótica",
        term_zh = "渐近方差",
        aliases_es = { "varianza límite" },
        aliases_zh = { "极限方差" },
    }
    
    data["async gossip"] = {
        short = "A decentralized communication protocol in which nodes exchange model parameters with random neighbors at their own pace, without a global synchronization step. Used in peer-to-peer federated and distributed learning.",
        article = nil,
        aliases = { "asynchronous gossip", "async gossip protocol", "asynchronous gossip protocol" },
        es = "Protocolo de comunicación descentralizado en el que los nodos intercambian parámetros del modelo con vecinos aleatorios a su propio ritmo, sin un paso de sincronización global. Se emplea en aprendizaje federado y distribuido entre pares.",
        zh = "一种去中心化通信协议:节点按各自速度与随机邻居交换模型参数,无需全局同步步骤;用于点对点联邦学习与分布式学习。",
        term_es = "gossip asíncrono",
        term_zh = "异步 gossip",
        aliases_es = { "protocolo gossip asíncrono", "gossip asincrónico" },
        aliases_zh = { "异步 gossip 协议", "异步流言协议" },
    }
    
    data["async parameter server"] = {
        short = "A parameter server architecture in which workers push gradients and pull updated parameters without waiting for one another, allowing faster workers to proceed at the cost of using stale parameters.",
        article = nil,
        aliases = { "asynchronous parameter server", "async PS", "asynchronous PS" },
        es = "Arquitectura de servidor de parámetros en la que los trabajadores envían gradientes y obtienen parámetros actualizados sin esperarse entre sí, lo que permite que los más rápidos avancen a costa de usar parámetros desactualizados.",
        zh = "一种参数服务器架构:工作节点推送梯度并拉取更新后的参数,无需相互等待,使快速节点得以继续推进,但代价是使用陈旧参数。",
        term_es = "servidor de parámetros asíncrono",
        term_zh = "异步参数服务器",
        aliases_es = { "PS asíncrono", "servidor de parámetros asincrónico" },
        aliases_zh = { "异步 PS", "异步参数服务器架构" },
    }
    
    data["asynchronous federated learning"] = {
        short = "A federated learning paradigm in which the server updates the global model as soon as a client's update arrives, instead of waiting for a full synchronous round. Tolerates client heterogeneity and stragglers but introduces staleness.",
        article = nil,
        aliases = { "async FL", "async federated learning", "asynchronous FL" },
        es = "Paradigma de aprendizaje federado en el que el servidor actualiza el modelo global tan pronto como llega la actualización de un cliente, en lugar de esperar una ronda síncrona completa. Tolera heterogeneidad de clientes y rezagados, pero introduce obsolescencia.",
        zh = "一种联邦学习范式:服务器在客户端更新到达后立即更新全局模型,而不等待完整的同步轮次;可容忍客户端异构与掉队者,但会引入陈旧性。",
        term_es = "aprendizaje federado asíncrono",
        term_zh = "异步联邦学习",
        aliases_es = { "FL asíncrono", "aprendizaje federado asincrónico" },
        aliases_zh = { "异步 FL", "异步联邦学习算法" },
    }
    
    data["asynchronous message passing"] = {
        short = "A message-passing schedule for graphical models in which messages are updated in arbitrary order rather than in synchronized parallel sweeps, often improving convergence of loopy belief propagation in practice.",
        article = nil,
        aliases = { "asynchronous BP", "asynchronous belief propagation", "async message passing" },
        es = "Calendario de paso de mensajes en modelos gráficos en el que los mensajes se actualizan en un orden arbitrario en lugar de barridos paralelos sincronizados, lo que en la práctica suele mejorar la convergencia de la propagación de creencias con bucles.",
        zh = "图模型中的一种消息传递调度方式,消息按任意顺序而非同步并行扫面进行更新,在带环置信传播中往往能改善收敛性。",
        term_es = "paso de mensajes asíncrono",
        term_zh = "异步消息传递",
        aliases_es = { "BP asíncrono", "propagación de creencias asíncrona" },
        aliases_zh = { "异步 BP", "异步置信传播" },
    }
    
    data["asynchronous parallel hpo"] = {
        short = "Hyperparameter optimization in which multiple worker processes evaluate candidate configurations concurrently and update a shared search state without waiting for one another, eliminating idle time at synchronization barriers.",
        article = nil,
        aliases = { "asynchronous parallel hyperparameter optimization", "async parallel HPO", "asynchronous HPO" },
        es = "Optimización de hiperparámetros en la que varios procesos de trabajo evalúan configuraciones candidatas de forma concurrente y actualizan un estado de búsqueda compartido sin esperar a los demás, eliminando el tiempo inactivo en las barreras de sincronización.",
        zh = "一种超参数优化方式,多个工作进程并发地评估候选配置并更新共享的搜索状态,无需相互等待,从而消除同步屏障带来的空闲时间。",
        term_es = "HPO paralela asíncrona",
        term_zh = "异步并行超参数优化",
        aliases_es = { "optimización de hiperparámetros paralela asíncrona", "async HPO" },
        aliases_zh = { "异步并行HPO", "异步HPO" },
    }
    
    data["asynchronous parallel sgd"] = {
        short = "A distributed SGD scheme in which workers compute gradients on possibly stale parameter snapshots and apply updates to a shared model without coordination, achieving high throughput at the cost of update staleness.",
        article = nil,
        aliases = { "async SGD", "asynchronous SGD", "ASGD", "Async-SGD", "Hogwild-style SGD" },
        es = "Esquema de SGD distribuido en el que los trabajadores calculan gradientes sobre posibles instantáneas de parámetros obsoletas y aplican actualizaciones a un modelo compartido sin coordinación, logrando alto rendimiento al precio de obsolescencia en las actualizaciones.",
        zh = "一种分布式 SGD 方案:工作节点基于可能陈旧的参数快照计算梯度,并在无协调的情况下对共享模型应用更新,以更新陈旧性为代价获得高吞吐。",
        term_es = "SGD paralelo asíncrono",
        term_zh = "异步并行 SGD",
        aliases_es = { "SGD asíncrono", "ASGD" },
        aliases_zh = { "异步 SGD", "ASGD", "异步并行随机梯度下降" },
    }
    
    data["asynchronous successive halving"] = {
        short = "A bandit-style hyperparameter optimization scheme in which configurations are evaluated at increasing resource budgets and promoted asynchronously based on intermediate ranks, avoiding the synchronization barriers of standard successive halving.",
        article = nil,
        aliases = { "ASHA", "async successive halving" },
        es = "Esquema de optimización de hiperparámetros tipo bandido en el que las configuraciones se evalúan con presupuestos de recursos crecientes y se promueven de forma asíncrona según rangos intermedios, evitando las barreras de sincronización de la reducción sucesiva estándar.",
        zh = "一种类似多臂老虎机的超参数优化方案,在不断增加的资源预算下评估配置,并基于中间排名异步提升,避免标准逐次减半的同步屏障。",
        term_es = "reducción sucesiva asíncrona",
        term_zh = "异步逐次减半",
        aliases_es = { "ASHA", "successive halving asíncrono" },
        aliases_zh = { "ASHA", "异步连续减半" },
    }
    
    data["atac-seq"] = {
        short = "Assay for Transposase-Accessible Chromatin using sequencing — a method that uses a hyperactive Tn5 transposase to fragment and tag accessible chromatin, generating high-resolution genome-wide maps of regulatory regions and transcription-factor footprints.",
        article = nil,
        aliases = { "ATAC-seq", "ATAC sequencing", "Assay for Transposase-Accessible Chromatin", "scATAC-seq (single-cell)" },
        es = "Ensayo de cromatina accesible a la transposasa con secuenciación; método que utiliza una transposasa Tn5 hiperactiva para fragmentar y marcar la cromatina accesible, generando mapas de alta resolución de regiones reguladoras y huellas de factores de transcripción a escala genómica.",
        zh = "基于测序的转座酶可及染色质检测——利用高活性 Tn5 转座酶切割并标记可及染色质,从而在全基因组范围生成调控区域与转录因子足迹的高分辨率图谱。",
        term_es = "ATAC-seq",
        term_zh = "ATAC-seq",
        aliases_es = { "secuenciación ATAC", "ensayo ATAC-seq", "ensayo de cromatina accesible a la transposasa" },
        aliases_zh = { "ATAC 测序", "转座酶可及染色质测序", "scATAC-seq" },
    }
    
    data["atom features"] = {
        short = "Per-atom feature vectors used as node inputs to molecular graph neural networks, typically encoding element type, hybridization, formal charge, aromaticity, hydrogen count, and ring membership.",
        article = nil,
        aliases = { "Atom features", "atom-level features", "node features" },
        es = "Vectores de características por átomo usados como entradas de nodo para redes neuronales de grafos moleculares, que típicamente codifican tipo de elemento, hibridación, carga formal, aromaticidad, número de hidrógenos y pertenencia a anillos.",
        zh = "用作分子图神经网络节点输入的逐原子特征向量,通常编码元素类型、杂化、形式电荷、芳香性、氢原子数和环归属。",
        term_es = "características de átomo",
        term_zh = "原子特征",
        aliases_es = { "características atómicas", "rasgos de átomo", "features de átomo" },
        aliases_zh = { "原子级特征", "节点特征" },
    }
    
    data["atom mapping"] = {
        short = "The assignment of a one-to-one correspondence between atoms in the reactants and products of a chemical reaction, required for reaction template extraction and many retrosynthesis methods.",
        article = nil,
        aliases = { "Atom mapping", "atom-mapping", "reaction atom mapping" },
        es = "Asignación de una correspondencia uno a uno entre los átomos de los reactivos y los productos de una reacción química, requerida para la extracción de plantillas de reacción y muchos métodos de retrosíntesis.",
        zh = "在化学反应的反应物和产物之间建立原子的一一对应关系,是反应模板提取和许多逆合成方法所必需的。",
        term_es = "mapeo de átomos",
        term_zh = "原子映射",
        aliases_es = { "mapeo atómico", "mapeo de átomos de reacción" },
        aliases_zh = { "原子映射", "反应原子映射", "原子标记" },
    }
    
    data["atom pair fingerprint"] = {
        short = "A molecular fingerprint that encodes pairs of atoms together with the shortest topological distance between them, capturing pairwise structural relationships independent of connectivity patterns.",
        article = nil,
        aliases = { "Atom pair fingerprint", "atom-pair fingerprint", "AP fingerprint" },
        es = "Una huella molecular que codifica pares de átomos junto con la distancia topológica más corta entre ellos, capturando relaciones estructurales por pares independientemente de los patrones de conectividad.",
        zh = "一种分子指纹,编码原子对及其之间的最短拓扑距离,能够捕获独立于连接模式的成对结构关系。",
        term_es = "huella de pares de átomos",
        term_zh = "原子对指纹",
        aliases_es = { "fingerprint de pares de átomos", "huella AP" },
        aliases_zh = { "原子对分子指纹", "AP 指纹" },
    }
    
    data["atomic knowledge graph"] = {
        short = "ATOMIC: a commonsense knowledge graph of if-then relations describing typical causes, effects, mental states, and social dynamics of everyday events, used to train and evaluate commonsense reasoning models.",
        article = nil,
        aliases = { "ATOMIC", "ATOMIC knowledge graph", "ATOMIC KG", "Atlas of Machine Commonsense" },
        es = "ATOMIC: un grafo de conocimiento de sentido común con relaciones if-then que describen causas típicas, efectos, estados mentales y dinámicas sociales de eventos cotidianos, utilizado para entrenar y evaluar modelos de razonamiento de sentido común.",
        zh = "ATOMIC:一个以 if-then 关系描述日常事件典型原因、结果、心理状态与社会动态的常识知识图谱,用于训练和评估常识推理模型。",
        term_es = "ATOMIC",
        term_zh = "ATOMIC",
        aliases_es = { "ATOMIC", "grafo de conocimiento ATOMIC" },
        aliases_zh = { "ATOMIC", "ATOMIC 知识图谱" },
    }
    
    data["atomic simulation environment"] = {
        short = "ASE — a Python library that provides a unified interface to atomistic simulation codes, supporting structure manipulation, calculator wrappers, molecular dynamics, and geometry optimization.",
        article = nil,
        aliases = { "ASE", "Atomic Simulation Environment" },
        es = "ASE — una biblioteca de Python que proporciona una interfaz unificada para códigos de simulación atomística, soportando manipulación de estructuras, envoltorios de calculadores, dinámica molecular y optimización de geometría.",
        zh = "ASE——一个 Python 库,为原子尺度模拟程序提供统一接口,支持结构操作、计算器包装、分子动力学和几何优化。",
        term_es = "ASE",
        term_zh = "ASE",
        aliases_es = { "Atomic Simulation Environment", "Entorno de Simulación Atomística" },
        aliases_zh = { "Atomic Simulation Environment", "原子模拟环境" },
    }
    
    data["atomnas"] = {
        short = "A neural architecture search method that searches over fine-grained 'atomic' building blocks within a supernet, allowing flexible combination of channel widths, kernel sizes, and expansion ratios at each layer.",
        article = nil,
        aliases = { "AtomNAS", "atom NAS" },
        es = "Método de búsqueda de arquitecturas neuronales que busca sobre bloques de construcción 'atómicos' de grano fino dentro de una supernet, permitiendo combinar de forma flexible anchos de canal, tamaños de kernel y razones de expansión en cada capa.",
        zh = "一种神经架构搜索方法,在超网络内对细粒度的'原子'构建块进行搜索,允许在每一层灵活组合通道宽度、卷积核大小和扩展比。",
        term_es = "AtomNAS",
        term_zh = "AtomNAS",
        aliases_es = { "AtomNAS" },
        aliases_zh = { "AtomNAS" },
    }
    
    data["atomo compression"] = {
        short = "An unbiased sparsification scheme for distributed training that compresses gradients via atomic decomposition (e.g., singular-value or entry sampling) while preserving the gradient's expectation, reducing communication cost.",
        article = nil,
        aliases = { "ATOMO", "atomic decomposition compression", "ATOMO compression" },
        es = "Esquema de esparcificación insesgada para entrenamiento distribuido que comprime gradientes mediante descomposición atómica (por ejemplo, muestreo por valores singulares o por entradas), preservando la esperanza del gradiente y reduciendo el coste de comunicación.",
        zh = "一种用于分布式训练的无偏稀疏化方案:通过原子分解(如奇异值或元素采样)压缩梯度,同时保持梯度期望不变,从而降低通信开销。",
        term_es = "compresión ATOMO",
        term_zh = "ATOMO 压缩",
        aliases_es = { "ATOMO", "compresión por descomposición atómica" },
        aliases_zh = { "ATOMO", "原子分解压缩" },
    }
    
    data["atrous convolution"] = {
        short = "Another name for dilated convolution, popularized by the DeepLab family of segmentation models. The kernel samples the input with spacing controlled by a dilation rate, enlarging the receptive field at fixed cost.",
        article = nil,
        aliases = { "à trous convolution", "Atrous Convolution", "atrous conv", "dilated convolution", "à-trous convolution" },
        es = "Otro nombre para la convolución dilatada, popularizado por la familia de modelos de segmentación DeepLab. El núcleo muestrea la entrada con una separación controlada por una tasa de dilatación, lo que amplía el campo receptivo con un coste fijo.",
        zh = "膨胀卷积的别称,由 DeepLab 系列分割模型推广。卷积核以由膨胀率控制的间距对输入采样,从而以固定代价扩大感受野。",
        term_es = "convolución atrous",
        term_zh = "空洞卷积",
        aliases_es = { "convolución a trous", "convolución dilatada", "atrous convolution" },
        aliases_zh = { "atrous 卷积", "膨胀卷积", "扩张卷积", "atrous convolution" },
    }
    
    data["attack-resilient aggregation"] = {
        short = "A class of aggregation rules for federated learning designed to remain accurate when a fraction of client updates are adversarial, including coordinate-wise median, trimmed mean, Krum, and Bulyan.",
        article = nil,
        aliases = { "robust aggregation", "Byzantine-resilient aggregation", "attack-robust aggregation" },
        es = "Clase de reglas de agregación para aprendizaje federado diseñadas para mantenerse precisas cuando una fracción de las actualizaciones de los clientes es adversarial; incluye la mediana coordenada a coordenada, la media recortada, Krum y Bulyan.",
        zh = "一类联邦学习聚合规则:当部分客户端更新为对抗性时仍保持准确,包括逐坐标中位数、截尾均值、Krum 和 Bulyan。",
        term_es = "agregación resistente a ataques",
        term_zh = "抗攻击聚合",
        aliases_es = { "agregación robusta", "agregación resistente bizantina" },
        aliases_zh = { "鲁棒聚合", "拜占庭鲁棒聚合", "抗攻击鲁棒聚合" },
    }
    
    data["attend-and-excite"] = {
        short = "A training-free guidance technique for text-to-image diffusion models that, at each denoising step, updates latents to increase the maximum cross-attention each subject token receives, mitigating subject neglect in compositional prompts.",
        article = nil,
        aliases = { "Attend-and-Excite", "Attend and Excite", "AAE", "attend & excite" },
        es = "Técnica de guiado sin entrenamiento para modelos de difusión de texto a imagen que, en cada paso de eliminación de ruido, actualiza los latentes para aumentar la atención cruzada máxima recibida por cada token de sujeto, mitigando la omisión de sujetos en prompts composicionales.",
        zh = "一种针对文本到图像扩散模型的免训练引导技术,在每个去噪步骤中更新潜变量,以提升每个主体词所获得的最大交叉注意力,从而缓解组合式提示中主体被忽略的问题。",
        term_es = "Attend-and-Excite",
        term_zh = "Attend-and-Excite",
        aliases_es = { "Attend and Excite", "AAE" },
        aliases_zh = { "Attend and Excite", "AAE", "关注并激发" },
    }
    
    data["attention ablation"] = {
        short = "An interpretability technique that disables individual attention heads or specific attention edges (e.g. by zeroing their outputs) and measures the resulting change in model behavior to quantify each component's functional role.",
        article = nil,
        aliases = { "attention ablation", "head ablation", "attention head ablation" },
        es = "Técnica de interpretabilidad que desactiva cabezas de atención individuales o aristas de atención específicas (por ejemplo poniendo a cero sus salidas) y mide el cambio resultante en el comportamiento del modelo para cuantificar el papel funcional de cada componente.",
        zh = "一种可解释性技术,通过禁用单个注意力头或特定注意力边(例如将其输出置零)并测量模型行为的变化,来量化各组件的功能作用。",
        term_es = "ablación de atención",
        term_zh = "注意力消融",
        aliases_es = { "ablación de cabezas de atención", "ablación de cabezas" },
        aliases_zh = { "注意力头消融", "注意力头剔除" },
    }
    
    data["attention as explanation"] = {
        short = "The practice of using a neural network's attention weights to interpret which inputs influenced an output. Its validity as a faithful explanation is contested, since attention is not generally identifiable with feature importance.",
        article = nil,
        aliases = { "attention is not explanation", "attention is explanation", "attention-based explanation", "attention weights as explanation" },
        es = "Práctica de usar los pesos de atención de una red neuronal para interpretar qué entradas influyeron en una salida. Su validez como explicación fiel es debatida, ya que la atención no se identifica en general con la importancia de las características.",
        zh = "利用神经网络的注意力权重解释哪些输入影响了输出的做法。其作为忠实解释的有效性存在争议,因为注意力一般无法等同于特征重要性。",
        term_es = "atención como explicación",
        term_zh = "注意力作为解释",
        aliases_es = { "explicación basada en atención", "pesos de atención como explicación" },
        aliases_zh = { "注意力即解释", "基于注意力的解释", "注意力权重作为解释" },
    }
    
    data["attention bias"] = {
        short = "In transformer models, systematic skew in attention weights toward particular positions, tokens, or entities, which can encode spurious correlations or social biases and propagate them through downstream representations.",
        article = nil,
        aliases = { "attention weight bias", "bias in attention" },
        es = "En modelos transformer, distorsión sistemática en los pesos de atención hacia posiciones, tokens o entidades particulares, que puede codificar correlaciones espurias o sesgos sociales y propagarlos a través de las representaciones posteriores.",
        zh = "注意力偏差是指 Transformer 模型中注意力权重对特定位置、词元或实体的系统性倾斜,可能编码虚假相关性或社会偏见,并通过下游表示进行传播。",
        term_es = "sesgo de atención",
        term_zh = "注意力偏差",
        aliases_es = { "sesgo de atención", "sesgo en la atención" },
        aliases_zh = { "注意力偏差", "注意力偏见", "注意力权重偏差" },
    }
    
    data["attention cache"] = {
        short = "A general term for caching intermediate attention state — most commonly the past keys and values (KV cache) — so that incremental decoding in Transformers does not recompute attention over previously generated tokens.",
        article = nil,
        aliases = { "attention state cache", "past key values", "past_key_values", "transformer attention cache" },
        es = "Término general para almacenar en caché el estado intermedio de la atención —normalmente las claves y valores pasados (KV cache)— de modo que la decodificación incremental en Transformers no recalcule la atención sobre los tokens ya generados.",
        zh = "对注意力中间状态进行缓存的统称,通常即历史键值(KV 缓存),使 Transformer 的增量解码无需对已生成词元重新计算注意力。",
        term_es = "caché de atención",
        term_zh = "注意力缓存",
        aliases_es = { "caché de atención", "claves y valores pasados", "past_key_values" },
        aliases_zh = { "注意力缓存", "历史键值", "past_key_values", "Transformer 注意力缓存" },
    }
    
    data["attention encoder decoder"] = {
        short = "A sequence-to-sequence neural architecture in which an encoder maps the input to hidden states and an autoregressive decoder generates the output while attending to those states. The dominant architecture for ASR and translation before the pure-Transformer era.",
        article = nil,
        aliases = { "AED", "attention-based encoder-decoder", "attention encoder-decoder", "encoder-decoder with attention", "LAS", "Listen Attend and Spell" },
        es = "Arquitectura neuronal seq2seq en la que un codificador transforma la entrada en estados ocultos y un decodificador autorregresivo genera la salida atendiendo a esos estados. Fue la arquitectura dominante para ASR y traducción antes de la era de los Transformers puros.",
        zh = "一种序列到序列神经架构:编码器将输入映射为隐藏状态,自回归解码器在生成输出时对这些状态进行注意力计算。在纯 Transformer 时代之前曾是 ASR 与机器翻译的主流架构。",
        term_es = "codificador-decodificador con atención",
        term_zh = "注意力编码器-解码器",
        aliases_es = { "AED", "encoder-decoder con atención", "LAS" },
        aliases_zh = { "AED", "带注意力的编码器解码器", "LAS" },
    }
    
    data["attention fairness"] = {
        short = "A line of fairness research focused on how attention mechanisms in neural models distribute weight across inputs or groups, and on auditing or constraining those weights to avoid unequal treatment.",
        article = nil,
        aliases = { "fair attention", "fairness in attention" },
        es = "Línea de investigación en equidad centrada en cómo los mecanismos de atención de los modelos neuronales distribuyen pesos entre entradas o grupos, y en auditar o restringir esos pesos para evitar tratos desiguales.",
        zh = "注意力公平性是一项公平性研究,关注神经模型中的注意力机制如何在输入或群体之间分配权重,以及如何审计或约束这些权重以避免不平等对待。",
        term_es = "equidad de la atención",
        term_zh = "注意力公平性",
        aliases_es = { "equidad de atención", "fairness en atención" },
        aliases_zh = { "注意力公平性", "注意力公平" },
    }
    
    data["attention flow"] = {
        short = "An attention-attribution method (Abnar & Zuidema, 2020) that aggregates raw attention weights across layers by computing maximum flow over the directed graph of attention edges, yielding more reliable token-to-token explanations than single-layer attention.",
        article = nil,
        aliases = { "attention flow", "attention rollout and flow" },
        es = "Método de atribución de atención (Abnar y Zuidema, 2020) que agrega los pesos de atención brutos a lo largo de las capas calculando el flujo máximo en el grafo dirigido de aristas de atención, produciendo explicaciones token-a-token más fiables que la atención de una sola capa.",
        zh = "一种注意力归因方法(Abnar 与 Zuidema,2020),通过在注意力边构成的有向图上计算最大流来跨层聚合原始注意力权重,从而获得比单层注意力更可靠的 token 间解释。",
        term_es = "flujo de atención",
        term_zh = "注意力流",
        aliases_es = { "attention flow" },
        aliases_zh = { "attention flow", "注意力流动" },
    }
    
    data["attention head"] = {
        short = "A single parallel attention computation within a multi-head attention layer, with its own learned projections of queries, keys, and values.",
        article = "Attention Mechanisms",
        aliases = { "Attention Head", "attention heads" },
        es = "Cómputo de atención en paralelo dentro de una capa de atención multi-cabeza, con sus propias proyecciones aprendidas de consultas, claves y valores.",
        zh = "多头注意力层中的一个并行注意力计算单元,拥有各自可学习的查询、键和值投影。",
        term_es = "cabeza de atención",
        term_zh = "注意力头",
        aliases_es = { "attention head", "cabezas de atención", "cabezal de atención" },
        aliases_zh = { "attention head", "注意力头部", "注意力头部单元" },
    }
    
    data["attention head clustering"] = {
        short = "An analysis technique that groups the attention heads of a transformer based on similarity of their attention patterns or behaviors, used to discover functional categories such as positional, syntactic, or induction heads.",
        article = nil,
        aliases = { "attention head clustering", "head clustering", "clustering of attention heads" },
        es = "Técnica de análisis que agrupa las cabezas de atención de un transformer según la similitud de sus patrones o comportamientos de atención, empleada para descubrir categorías funcionales como cabezas posicionales, sintácticas o de inducción.",
        zh = "一种分析技术,根据 Transformer 各注意力头的注意力模式或行为相似性对其进行聚类,用以发现位置头、句法头或归纳头等功能类别。",
        term_es = "agrupamiento de cabezas de atención",
        term_zh = "注意力头聚类",
        aliases_es = { "clustering de cabezas de atención", "agrupación de cabezas" },
        aliases_zh = { "注意力头聚簇", "注意力头分组" },
    }
    
    data["attention head taxonomy"] = {
        short = "A classification of attention heads in transformer models by their functional role, such as positional, syntactic, induction, or copying heads, used to interpret what specific heads compute.",
        article = nil,
        aliases = { "taxonomy of attention heads", "attention head classification" },
        es = "Clasificación de los attention heads de un transformer según su función (posicionales, sintácticos, de inducción, de copia, etc.), utilizada para interpretar qué computa cada head.",
        zh = "对 Transformer 中注意力头按功能类别(位置、句法、归纳、复制等)进行的分类,用于解释各个注意力头所执行的计算。",
        term_es = "taxonomía de attention heads",
        term_zh = "注意力头分类",
        aliases_es = { "clasificación de attention heads", "taxonomía de cabezas de atención" },
        aliases_zh = { "注意力头分类法", "attention head 分类" },
    }
    
    data["attention is not explanation"] = {
        short = "A line of work arguing that raw attention weights in neural networks are not faithful explanations of model behavior, since alternative attention distributions can produce equivalent predictions.",
        article = nil,
        aliases = { "attention is not explanation hypothesis", "Jain and Wallace 2019" },
        es = "Línea de trabajo que sostiene que los pesos de atención por sí solos no constituyen explicaciones fieles del comportamiento de un modelo, porque distribuciones alternativas de atención pueden producir las mismas predicciones.",
        zh = "一种观点,认为神经网络中原始的注意力权重并非对模型行为的忠实解释,因为不同的注意力分布可以产生相同的预测结果。",
        term_es = "attention is not explanation",
        term_zh = "注意力不是解释",
        aliases_es = { "la atención no es explicación" },
        aliases_zh = { "attention is not explanation", "注意力并非解释" },
    }
    
    data["attention knockout"] = {
        short = "An interpretability technique that ablates specific attention edges or heads at inference time to measure their causal contribution to a model's output.",
        article = nil,
        aliases = { "attention ablation", "attention edge ablation" },
        es = "Técnica de interpretabilidad que anula aristas o heads de atención específicos en inferencia para medir su contribución causal a la salida del modelo.",
        zh = "一种可解释性技术,通过在推理时屏蔽特定的注意力连接或注意力头,测量它们对模型输出的因果贡献。",
        term_es = "attention knockout",
        term_zh = "注意力屏蔽",
        aliases_es = { "ablación de atención" },
        aliases_zh = { "attention knockout", "注意力消融" },
    }
    
    data["attention map"] = {
        short = "The matrix of attention weights produced by softmax over query-key scores, indicating how much each query position attends to each key position.",
        article = "Attention Mechanisms",
        aliases = { "Attention Map", "attention matrix", "attention weights", "attention pattern" },
        es = "Matriz de pesos de atención producida por el softmax sobre los puntajes consulta-clave, que indica cuánto atiende cada posición de consulta a cada posición de clave.",
        zh = "对查询-键分数取 softmax 得到的注意力权重矩阵,表示每个查询位置对每个键位置的关注程度。",
        term_es = "mapa de atención",
        term_zh = "注意力图",
        aliases_es = { "attention map", "matriz de atención", "pesos de atención", "patrón de atención" },
        aliases_zh = { "attention map", "注意力矩阵", "注意力权重", "注意力分布" },
    }
    
    data["attention pattern"] = {
        short = "The matrix of attention weights produced by a single head, indicating how strongly each query token attends to each key token; analyzed to understand head behavior.",
        article = nil,
        aliases = { "attention map", "attention weights matrix" },
        es = "Matriz de pesos de atención producida por un único head, que indica con qué intensidad cada token de consulta atiende a cada token clave; se analiza para comprender el comportamiento del head.",
        zh = "单个注意力头生成的注意力权重矩阵,表示每个查询 token 对每个键 token 的关注强度,常用于分析注意力头的行为。",
        term_es = "patrón de atención",
        term_zh = "注意力模式",
        aliases_es = { "mapa de atención", "matriz de atención" },
        aliases_zh = { "注意力图", "注意力权重矩阵" },
    }
    
    data["attention rescoring"] = {
        short = "A two-pass ASR decoding strategy where a CTC or first-pass model produces N-best hypotheses that are then rescored by an attention decoder, combining the speed of CTC with the accuracy of attention models.",
        article = nil,
        aliases = { "attention-based rescoring", "second-pass attention rescoring" },
        es = "Estrategia de decodificación de ASR en dos pasadas en la que un modelo CTC o de primera pasada produce hipótesis N-best que luego son repuntuadas por un decodificador de atención, combinando la velocidad de CTC con la precisión de los modelos de atención.",
        zh = "一种两遍 ASR 解码策略:先由 CTC 或首遍模型生成 N-best 假设,再由注意力解码器进行重打分,兼顾 CTC 的速度与注意力模型的准确性。",
        term_es = "rescoring por atención",
        term_zh = "注意力重打分",
        aliases_es = { "repuntuación por atención", "rescoring atencional" },
        aliases_zh = { "注意力重评分", "二遍注意力重打分" },
    }
    
    data["attention rollout"] = {
        short = "A method for tracing token influence across transformer layers by recursively multiplying attention matrices, optionally combined with the residual stream, to obtain layer-aggregated attribution maps.",
        article = nil,
        aliases = { "rollout attention", "Abnar and Zuidema rollout" },
        es = "Método para rastrear la influencia de tokens a través de las capas de un transformer multiplicando recursivamente las matrices de atención, opcionalmente combinadas con la corriente residual, obteniendo mapas de atribución agregados por capa.",
        zh = "一种通过逐层递归相乘注意力矩阵(可选与残差流结合)来追踪 token 在 Transformer 各层间影响,生成跨层聚合归因图的方法。",
        term_es = "attention rollout",
        term_zh = "注意力 rollout",
        aliases_es = { "rollout de atención" },
        aliases_zh = { "注意力展开", "attention rollout" },
    }
    
    data["attention sink"] = {
        short = "A position, often the first token, that consistently absorbs a disproportionate share of attention weight in autoregressive Transformers, observed to be necessary for stable streaming generation.",
        article = nil,
        aliases = { "Attention Sink", "attention sinks", "sink token" },
        es = "Posición, frecuentemente el primer token, que absorbe de forma consistente una proporción desproporcionada del peso de atención en Transformers autorregresivos, y que se ha observado necesaria para una generación estable en streaming.",
        zh = "在自回归 Transformer 中,通常是第一个 token 的某个位置,会持续吸收不成比例的注意力权重;研究发现其对于稳定的流式生成至关重要。",
        term_es = "sumidero de atención",
        term_zh = "注意力汇聚点",
        aliases_es = { "attention sink", "sumideros de atención", "token sumidero" },
        aliases_zh = { "attention sink", "注意力汇", "汇聚 token" },
    }
    
    data["attention slicing"] = {
        short = "A memory-saving technique for transformer attention that splits the query dimension into smaller chunks computed sequentially, trading throughput for reduced peak GPU memory during inference of diffusion or language models.",
        article = nil,
        aliases = { "sliced attention", "attention slice" },
        es = "Técnica de ahorro de memoria para la atención de transformadores que divide la dimensión de las consultas en bloques más pequeños calculados secuencialmente, sacrificando rendimiento a cambio de un menor consumo máximo de memoria GPU durante la inferencia de modelos de difusión o de lenguaje.",
        zh = "一种用于 Transformer 注意力的省内存技术,将查询维度切分为较小的块依次计算,以牺牲吞吐量换取扩散模型或语言模型推理时更低的 GPU 峰值显存占用。",
        term_es = "attention slicing",
        term_zh = "注意力切片",
        aliases_es = { "segmentación de atención" },
        aliases_zh = { "切片注意力", "分片注意力" },
    }
    
    data["attention transfer loss"] = {
        short = "A knowledge-distillation loss that aligns spatial attention maps (e.g. summed squared activations across channels) between teacher and student networks, transferring where the teacher attends rather than its raw features.",
        article = nil,
        aliases = { "AT loss", "attention transfer", "attention map distillation", "attention distillation loss" },
        es = "Pérdida de destilación de conocimiento que alinea mapas de atención espacial (por ejemplo, suma de activaciones al cuadrado por canal) entre las redes maestra y estudiante, transfiriendo dónde atiende el maestro en lugar de sus características brutas.",
        zh = "一种知识蒸馏损失,对齐教师与学生网络的空间注意力图(如沿通道求和的激活平方),传递教师关注的位置而非原始特征。",
        term_es = "pérdida de transferencia de atención",
        term_zh = "注意力迁移损失",
        aliases_es = { "pérdida AT", "transferencia de atención", "destilación de mapas de atención" },
        aliases_zh = { "AT 损失", "注意力迁移", "注意力图蒸馏" },
    }
    
    data["attention visualization"] = {
        short = "Techniques and tools for plotting attention weights or attention patterns of transformer models to inspect which input tokens influence each output token.",
        article = nil,
        aliases = { "attention visualisation", "visualizing attention" },
        es = "Conjunto de técnicas y herramientas para representar gráficamente los pesos o patrones de atención de modelos transformer y ver qué tokens de entrada influyen en cada salida.",
        zh = "用于绘制 Transformer 模型注意力权重或注意力模式的技术与工具,用以检视哪些输入 token 影响了每个输出 token。",
        term_es = "visualización de la atención",
        term_zh = "注意力可视化",
        aliases_es = { "visualización de atención" },
        aliases_zh = { "注意力权重可视化", "可视化注意力" },
    }
    
    data["attentive neural process"] = {
        short = "A neural process variant that replaces the deterministic context aggregator with a cross-attention mechanism, allowing each target point to attend to relevant context points and improving function-fit fidelity.",
        article = nil,
        aliases = { "ANP", "attentive NP", "attention-based neural process" },
        es = "Variante del proceso neuronal que sustituye el agregador determinista de contexto por un mecanismo de atención cruzada, permitiendo que cada punto objetivo atienda a los puntos de contexto relevantes y mejore la fidelidad del ajuste funcional.",
        zh = "神经过程的变体,用交叉注意力机制取代确定性上下文聚合器,使每个目标点可关注相关的上下文点,从而提升对函数的拟合精度。",
        term_es = "proceso neuronal atento",
        term_zh = "注意力神经过程",
        aliases_es = { "ANP", "proceso neuronal con atención", "neural process atento" },
        aliases_zh = { "ANP", "基于注意力的神经过程", "注意力NP" },
    }
    
    data["attentive sampling supernet"] = {
        short = "A supernet training scheme that biases sub-network sampling toward more promising or under-trained candidates using a learned attention or importance distribution rather than sampling uniformly.",
        article = nil,
        aliases = { "attentive sampling super-net", "attentive supernet sampling" },
        es = "Esquema de entrenamiento de supernet que sesga el muestreo de subredes hacia candidatos más prometedores o menos entrenados mediante una distribución aprendida de atención o importancia, en lugar de muestrear de forma uniforme.",
        zh = "一种超网络训练方案,使用学习到的注意力或重要性分布将子网络的采样偏向更有前景或训练不足的候选,而不是均匀采样。",
        term_es = "supernet con muestreo atentivo",
        term_zh = "注意力采样超网络",
        aliases_es = { "muestreo atentivo en supernet" },
        aliases_zh = { "注意采样超网络" },
    }
    
    data["attentivefp"] = {
        short = "A graph attention network for molecular property prediction that aggregates atom and bond information through multi-step attention, enabling interpretable molecular representations via per-atom attention weights.",
        article = nil,
        aliases = { "AttentiveFP", "Attentive FP", "attentive fp", "Attentive Fingerprint" },
        es = "Una red de atención de grafos para predicción de propiedades moleculares que agrega información de átomos y enlaces mediante atención de varios pasos, permitiendo representaciones moleculares interpretables a través de pesos de atención por átomo.",
        zh = "一种用于分子性质预测的图注意力网络,通过多步注意力聚合原子和键的信息,借助逐原子注意力权重实现可解释的分子表示。",
        term_es = "AttentiveFP",
        term_zh = "AttentiveFP",
        aliases_es = { "AttentiveFP", "Attentive FP" },
        aliases_zh = { "AttentiveFP", "Attentive FP" },
    }
    
    data["attentivenas"] = {
        short = "A weight-sharing neural architecture search method that focuses training on Pareto-optimal sub-networks via attentive sampling, improving accuracy-latency trade-offs across deployment constraints.",
        article = nil,
        aliases = { "AttentiveNAS", "Attentive NAS" },
        es = "Método de búsqueda de arquitecturas neuronales con compartición de pesos que concentra el entrenamiento en subredes Pareto-óptimas mediante muestreo atentivo, mejorando los compromisos entre precisión y latencia en distintas restricciones de despliegue.",
        zh = "一种权重共享的神经架构搜索方法,通过注意力采样将训练集中在帕累托最优子网络上,在不同部署约束下改善精度与时延的折衷。",
        term_es = "AttentiveNAS",
        term_zh = "AttentiveNAS",
        aliases_es = { "AttentiveNAS" },
        aliases_zh = { "AttentiveNAS" },
    }
    
    data["attenuation bias"] = {
        short = "Bias toward zero of a regression coefficient caused by classical (non-differential) measurement error in an independent variable; in simple linear regression the OLS slope is multiplied by the reliability ratio, σ²_X / (σ²_X + σ²_u).",
        article = nil,
        aliases = { "attenuation", "regression dilution", "regression dilution bias", "errors-in-variables attenuation" },
        es = "Sesgo hacia cero de un coeficiente de regresión causado por error de medición clásico (no diferencial) en una variable independiente; en regresión lineal simple, la pendiente de MCO queda multiplicada por la razón de fiabilidad σ²_X / (σ²_X + σ²_u).",
        zh = "由独立变量上的经典(无差异)测量误差引起的回归系数向零的偏倚;在简单线性回归中,普通最小二乘斜率会被可靠性比 σ²_X / (σ²_X + σ²_u) 乘以缩小。",
        term_es = "sesgo de atenuación",
        term_zh = "衰减偏倚",
        aliases_es = { "atenuación", "dilución de la regresión", "sesgo por dilución de regresión", "atenuación por error de medición" },
        aliases_zh = { "衰减偏差", "回归稀释", "回归稀释偏倚", "测量误差衰减" },
    }
    
    data["atth"] = {
        short = "Attention-based Hyperbolic knowledge graph embedding; combines hyperbolic geometry with relation-specific rotations, reflections, and an attention mechanism to capture both hierarchical and logical relational patterns.",
        article = nil,
        aliases = { "AttH", "ATTH", "Attention Hyperbolic embedding", "Attention-based Hyperbolic embedding" },
        es = "Embedding hiperbólico con atención para grafos de conocimiento; combina geometría hiperbólica con rotaciones y reflexiones específicas de cada relación y un mecanismo de atención para capturar simultáneamente patrones relacionales jerárquicos y lógicos.",
        zh = "基于注意力的双曲知识图谱嵌入;将双曲几何与每种关系特定的旋转、反射以及注意力机制相结合,以同时捕获层级和逻辑关系模式。",
        term_es = "AttH",
        term_zh = "AttH",
        aliases_es = { "AttH", "embedding hiperbólico con atención" },
        aliases_zh = { "AttH", "注意力双曲嵌入" },
    }
    
    data["attractive potential"] = {
        short = "A pairwise potential in a Markov random field that assigns higher probability when neighboring variables take the same value, encouraging smooth or piecewise-constant labelings.",
        article = nil,
        aliases = { "attractive pairwise potential", "smoothness potential", "agreement potential" },
        es = "Potencial por pares en un campo aleatorio de Markov que asigna mayor probabilidad cuando las variables vecinas toman el mismo valor, fomentando etiquetaciones suaves o constantes a trozos.",
        zh = "马尔可夫随机场中的一种成对势函数,当相邻变量取相同值时赋予更高概率,从而鼓励标签的平滑或分段恒定。",
        term_es = "potencial atractivo",
        term_zh = "吸引势",
        aliases_es = { "potencial de suavidad", "potencial de acuerdo" },
        aliases_zh = { "吸引势函数", "平滑势", "一致性势" },
    }
    
    data["attributable fraction"] = {
        short = "The proportion of cases in a population (or in the exposed subgroup) that would be prevented if exposure were removed, assuming the exposure is causal; computed from relative risks and exposure prevalence.",
        article = nil,
        aliases = { "attributable risk fraction", "population attributable fraction", "PAF", "attributable proportion", "etiologic fraction" },
        es = "Proporción de casos en una población (o en el subgrupo expuesto) que se evitarían si se eliminara la exposición, suponiendo que dicha exposición sea causal; se calcula a partir de los riesgos relativos y de la prevalencia de la exposición.",
        zh = "在某一人群(或暴露亚组)中,如果消除暴露则可避免发生的病例所占比例(在暴露具有因果作用的假设下),由相对风险和暴露流行率计算得到。",
        term_es = "fracción atribuible",
        term_zh = "归因分数",
        aliases_es = { "fracción atribuible poblacional", "FAP", "fracción etiológica", "proporción atribuible" },
        aliases_zh = { "人群归因分数", "PAF", "病因分数", "归因比例" },
    }
    
    data["attributable risk"] = {
        short = "The absolute difference in incidence (or risk) of an outcome between an exposed and unexposed group, R(X=1) − R(X=0); under exchangeability it equals the average treatment effect on a risk-difference scale.",
        article = nil,
        aliases = { "risk difference", "absolute risk difference", "excess risk", "AR" },
        es = "Diferencia absoluta en la incidencia (o el riesgo) de un resultado entre un grupo expuesto y uno no expuesto, R(X=1) − R(X=0); bajo intercambiabilidad equivale al efecto medio del tratamiento en la escala de diferencia de riesgos.",
        zh = "暴露组与非暴露组中某结果的发病率(或风险)之差,R(X=1) − R(X=0);在可交换性假设下,它等于以风险差为尺度的平均处理效应。",
        term_es = "riesgo atribuible",
        term_zh = "归因风险",
        aliases_es = { "diferencia de riesgo", "diferencia de riesgo absoluto", "exceso de riesgo", "AR" },
        aliases_zh = { "风险差", "绝对风险差", "超额风险", "AR" },
    }
    
    data["attribute captioning"] = {
        short = "An image captioning task that emphasizes describing fine-grained object attributes — color, shape, material, count, state — rather than only object categories and high-level scene content. Often used to probe vision-language alignment.",
        article = nil,
        aliases = { "attribute-rich captioning", "attribute-aware captioning", "fine-grained attribute captioning" },
        es = "Tarea de generación de descripciones de imágenes que enfatiza la descripción de atributos detallados de los objetos —color, forma, material, cantidad, estado— en lugar de limitarse a las categorías y al contenido general de la escena. Se utiliza con frecuencia para sondear la alineación entre visión y lenguaje.",
        zh = "一种图像描述生成任务,强调对物体细粒度属性(颜色、形状、材质、数量、状态等)的刻画,而不仅仅描述物体类别和场景概览。常用于探测视觉与语言之间的对齐能力。",
        term_es = "generación de descripciones por atributos",
        term_zh = "属性级图像描述生成",
        aliases_es = { "descripción centrada en atributos", "captioning por atributos", "captioning con atributos" },
        aliases_zh = { "属性描述生成", "属性感知图像描述", "细粒度属性描述" },
    }
    
    data["attribute inference attack"] = {
        short = "A privacy attack that uses access to a model or its outputs to infer sensitive attributes (e.g., gender, race, income) of training individuals or other users that were not intended to be exposed.",
        article = nil,
        aliases = { "attribute inference", "AIA", "sensitive-attribute inference attack" },
        es = "Ataque de privacidad que utiliza el acceso a un modelo o a sus salidas para inferir atributos sensibles (por ejemplo, género, raza o ingresos) de individuos del conjunto de entrenamiento u otros usuarios, atributos que no debían ser expuestos.",
        zh = "一种隐私攻击:利用对模型或其输出的访问,推断训练个体或其他用户的敏感属性(如性别、种族、收入),而这些属性本不应被暴露。",
        term_es = "ataque de inferencia de atributos",
        term_zh = "属性推断攻击",
        aliases_es = { "inferencia de atributos", "AIA" },
        aliases_zh = { "属性推理攻击", "敏感属性推断攻击" },
    }
    
    data["attribute suppression"] = {
        short = "A debiasing technique that removes or masks information about a sensitive attribute from inputs or learned representations, intended to prevent models from using it; effectiveness is limited by correlated proxy features.",
        article = nil,
        aliases = { "feature suppression", "sensitive attribute suppression", "attribute removal" },
        es = "Técnica de debiasing que elimina o oculta información sobre un atributo sensible en las entradas o en las representaciones aprendidas, con el objetivo de impedir que los modelos lo utilicen; su eficacia está limitada por la presencia de variables proxy correlacionadas.",
        zh = "属性抑制是一种去偏技术,通过从输入或学习到的表示中移除或屏蔽敏感属性信息,以防止模型使用该属性;其有效性受相关代理特征的限制。",
        term_es = "supresión de atributos",
        term_zh = "属性抑制",
        aliases_es = { "supresión de atributos", "eliminación de atributos sensibles" },
        aliases_zh = { "属性抑制", "属性屏蔽", "敏感属性抑制" },
    }
    
    data["attribute swapping"] = {
        short = "A counterfactual data augmentation technique that swaps the value of a sensitive attribute (e.g., gender pronouns) in training examples to encourage models to be invariant to that attribute.",
        article = nil,
        aliases = { "counterfactual data augmentation", "CDA", "gender swapping" },
        es = "Técnica de aumento de datos contrafactual que intercambia el valor de un atributo sensible (por ejemplo, pronombres de género) en los ejemplos de entrenamiento para fomentar que los modelos sean invariantes a ese atributo.",
        zh = "属性交换是一种反事实数据增强技术,通过交换训练样本中敏感属性的值(例如性别代词),以促使模型对该属性保持不变性。",
        term_es = "intercambio de atributos",
        term_zh = "属性交换",
        aliases_es = { "intercambio de atributos", "aumento de datos contrafactual", "intercambio de género" },
        aliases_zh = { "属性交换", "反事实数据增强", "性别交换" },
    }
    
    data["attribution graph"] = {
        short = "A directed graph whose nodes are model components (neurons, heads, features) and whose edges encode estimated causal contributions to a target behavior or output.",
        article = nil,
        aliases = { "attribution graphs" },
        es = "Grafo dirigido cuyos nodos son componentes del modelo (neuronas, heads, características) y cuyas aristas codifican las contribuciones causales estimadas a un comportamiento o salida objetivo.",
        zh = "一种有向图,其节点为模型组件(神经元、注意力头、特征),边表示其对目标行为或输出的估计因果贡献。",
        term_es = "grafo de atribución",
        term_zh = "归因图",
        aliases_es = { "grafos de atribución" },
        aliases_zh = { "attribution graph" },
    }
    
    data["attribution map"] = {
        short = "A heatmap over input features (pixels, tokens) that assigns each feature a score reflecting its contribution to a model's prediction.",
        article = nil,
        aliases = { "saliency map", "attribution heatmap" },
        es = "Mapa de calor sobre las características de entrada (píxeles, tokens) que asigna a cada una una puntuación que refleja su contribución a la predicción del modelo.",
        zh = "对输入特征(像素、token)的热力图,为每个特征赋值以反映其对模型预测的贡献。",
        term_es = "mapa de atribución",
        term_zh = "归因图",
        aliases_es = { "mapa de saliencia", "mapa de relevancia" },
        aliases_zh = { "归因热力图", "显著性图" },
    }
    
    data["attribution patching"] = {
        short = "An interpretability technique that approximates activation patching using a first-order gradient expansion, allowing efficient causal attribution to many model components in a single backward pass.",
        article = nil,
        aliases = { "edge attribution patching", "EAP" },
        es = "Técnica de interpretabilidad que aproxima el activation patching mediante una expansión de gradiente de primer orden, permitiendo atribuir causalmente muchos componentes del modelo en una sola pasada hacia atrás.",
        zh = "一种可解释性技术,使用一阶梯度展开近似激活补丁(activation patching),从而在单次反向传播中高效地对多个模型组件进行因果归因。",
        term_es = "attribution patching",
        term_zh = "归因补丁",
        aliases_es = { "parcheo por atribución" },
        aliases_zh = { "attribution patching", "归因 patching" },
    }
    
    data["attrition bias"] = {
        short = "Selection bias arising when participants drop out of a study non-randomly with respect to the exposure and outcome, so that the analyzed sample no longer represents the target population.",
        article = nil,
        aliases = { "loss-to-follow-up bias", "loss to follow-up bias", "drop-out bias", "dropout bias", "withdrawal bias" },
        es = "Sesgo de selección que surge cuando los participantes abandonan un estudio de forma no aleatoria con respecto a la exposición y al resultado, de modo que la muestra analizada deja de representar a la población objetivo.",
        zh = "当受试者以与暴露和结局相关的非随机方式退出研究时所产生的选择偏倚,导致分析样本不再代表目标人群。",
        term_es = "sesgo de atrición",
        term_zh = "失访偏倚",
        aliases_es = { "sesgo por pérdida de seguimiento", "sesgo por abandono", "sesgo por retiros" },
        aliases_zh = { "脱落偏倚", "失随访偏倚", "退出偏倚" },
    }
    
    data["audio captioning"] = {
        short = "The task of generating a free-form natural-language description of the contents of an audio clip — sound events, sources, and acoustic context — typically evaluated on datasets such as AudioCaps and Clotho.",
        article = nil,
        aliases = { "automated audio captioning", "AAC", "audio-to-text captioning" },
        es = "Tarea consistente en generar una descripción en lenguaje natural y de forma libre del contenido de un fragmento de audio —eventos sonoros, fuentes y contexto acústico—, evaluada habitualmente en conjuntos de datos como AudioCaps y Clotho.",
        zh = "对一段音频内容(声音事件、声源及声学环境)生成自由形式自然语言描述的任务,通常在 AudioCaps、Clotho 等数据集上评测。",
        term_es = "descripción automática de audio",
        term_zh = "音频描述生成",
        aliases_es = { "captioning de audio", "generación de descripciones de audio", "AAC" },
        aliases_zh = { "自动音频描述", "音频字幕生成", "AAC" },
    }
    
    data["audio classification"] = {
        short = "The task of assigning one or more category labels to an audio clip — covering speech, music, environmental sounds, or sound events — typically with CNNs, transformers, or models like AST and PANNs.",
        article = nil,
        aliases = { "sound classification", "audio tagging" },
        es = "Tarea de asignar una o más etiquetas de categoría a un fragmento de audio —voz, música, sonidos ambientales o eventos sonoros— normalmente mediante CNN, transformers o modelos como AST y PANNs.",
        zh = "为音频片段分配一个或多个类别标签的任务,涵盖语音、音乐、环境声或声音事件,常用 CNN、Transformer 或 AST、PANNs 等模型完成。",
        term_es = "clasificación de audio",
        term_zh = "音频分类",
        aliases_es = { "etiquetado de audio", "clasificación de sonido" },
        aliases_zh = { "声音分类", "音频标签" },
    }
    
    data["audio diffusion"] = {
        short = "Generative models that synthesize audio (waveforms, spectrograms, or codec tokens) by reversing a learned noising process, used for text-to-audio generation, music generation, and speech synthesis.",
        article = nil,
        aliases = { "diffusion audio model", "audio diffusion model", "diffusion-based audio generation" },
        es = "Modelos generativos que sintetizan audio (formas de onda, espectrogramas o tokens de códec) invirtiendo un proceso de ruido aprendido, usados para generación de audio a partir de texto, generación musical y síntesis de voz.",
        zh = "通过逆转学到的加噪过程合成音频(波形、频谱图或编解码 token)的生成模型,用于文本到音频、音乐生成和语音合成。",
        term_es = "difusión de audio",
        term_zh = "音频扩散",
        aliases_es = { "modelos de difusión para audio", "generación de audio por difusión" },
        aliases_zh = { "音频扩散模型", "基于扩散的音频生成" },
    }
    
    data["audio diffusion model"] = {
        short = "A generative diffusion model whose data domain is audio — represented as raw waveforms, spectrograms, or learned latent codes — and which produces samples by iteratively denoising from Gaussian noise. Used for speech, music, and general audio synthesis.",
        article = nil,
        aliases = { "audio diffusion", "diffusion model for audio", "audio denoising diffusion model" },
        es = "Modelo generativo de difusión cuyo dominio de datos es el audio —representado como formas de onda en bruto, espectrogramas o códigos latentes aprendidos— y que produce muestras eliminando ruido de manera iterativa a partir de ruido gaussiano. Se utiliza en síntesis de voz, música y audio general.",
        zh = "一类生成式扩散模型,其数据域为音频(表示形式包括原始波形、频谱图或学习得到的潜在编码),通过对高斯噪声进行迭代去噪生成样本。可用于语音、音乐和通用音频合成。",
        term_es = "modelo de difusión de audio",
        term_zh = "音频扩散模型",
        aliases_es = { "difusión de audio", "modelo de difusión para audio" },
        aliases_zh = { "音频扩散", "用于音频的扩散模型", "音频去噪扩散模型" },
    }
    
    data["audio embedding"] = {
        short = "A fixed-dimensional vector representation of an audio segment produced by a neural model (e.g. VGGish, YAMNet, CLAP), used for retrieval, classification, and similarity search.",
        article = nil,
        aliases = { "audio embeddings", "sound embedding", "audio representation" },
        es = "Representación vectorial de dimensión fija de un segmento de audio producida por un modelo neuronal (por ejemplo, VGGish, YAMNet o CLAP), usada para recuperación, clasificación y búsqueda por similitud.",
        zh = "由神经模型(如 VGGish、YAMNet、CLAP)生成的音频片段固定维度向量表示,用于检索、分类和相似度搜索。",
        term_es = "embedding de audio",
        term_zh = "音频嵌入",
        aliases_es = { "embeddings de audio", "representación de audio" },
        aliases_zh = { "音频表示", "声音嵌入" },
    }
    
    data["audio fingerprinting"] = {
        short = "A technique that derives a compact, robust signature from an audio clip so it can be matched against a reference database despite noise, compression, or distortion. Powers services like Shazam.",
        article = nil,
        aliases = { "acoustic fingerprinting", "audio fingerprint", "acoustic fingerprint" },
        es = "Técnica que deriva una firma compacta y robusta de un fragmento de audio para poder cotejarlo con una base de datos de referencia pese al ruido, la compresión o la distorsión. Es la base de servicios como Shazam.",
        zh = "从音频片段中提取紧凑且鲁棒签名的技术,使其在存在噪声、压缩或失真时仍能与参考数据库匹配,是 Shazam 等服务的核心。",
        term_es = "huella digital de audio",
        term_zh = "音频指纹",
        aliases_es = { "huella acústica", "fingerprinting de audio" },
        aliases_zh = { "声学指纹", "音频指纹识别" },
    }
    
    data["audio foundation model"] = {
        short = "A large self-supervised or weakly supervised model pretrained on broad audio data — covering speech, music, and general sound — that can be adapted to many downstream audio tasks (e.g. AudioLM, MusicLM, Whisper, CLAP).",
        article = nil,
        aliases = { "audio foundation models", "foundation model for audio", "large audio model" },
        es = "Modelo grande, autosupervisado o débilmente supervisado, preentrenado con datos de audio amplios —voz, música y sonidos generales— que puede adaptarse a muchas tareas de audio posteriores (por ejemplo, AudioLM, MusicLM, Whisper, CLAP).",
        zh = "在涵盖语音、音乐和通用声音的大规模音频数据上自监督或弱监督预训练的大型模型,可适配到多种下游音频任务(如 AudioLM、MusicLM、Whisper、CLAP)。",
        term_es = "modelo fundacional de audio",
        term_zh = "音频基础模型",
        aliases_es = { "modelo base de audio", "modelos fundacionales de audio" },
        aliases_zh = { "音频基础模型", "通用音频模型" },
    }
    
    data["audio inpainting"] = {
        short = "The task of filling in missing or corrupted segments of an audio signal so that the reconstructed audio is perceptually consistent with the surrounding context.",
        article = nil,
        aliases = { "audio inpaint", "speech inpainting", "audio gap filling" },
        es = "Tarea de rellenar segmentos faltantes o corruptos de una señal de audio de modo que el audio reconstruido sea perceptualmente coherente con el contexto circundante.",
        zh = "对音频信号中缺失或损坏片段进行填补的任务,使重建后的音频在感知上与周围上下文保持一致。",
        term_es = "inpainting de audio",
        term_zh = "音频修复",
        aliases_es = { "restauración de audio", "relleno de audio" },
        aliases_zh = { "音频补全", "音频内嵌修复" },
    }
    
    data["audio mae"] = {
        short = "Audio Masked Autoencoder: a self-supervised model that masks patches of a mel-spectrogram and trains a Transformer encoder-decoder to reconstruct them, learning representations transferable to audio classification.",
        article = nil,
        aliases = { "Audio-MAE", "AudioMAE", "audio masked autoencoder" },
        es = "Audio Masked Autoencoder: modelo auto-supervisado que enmascara parches de un espectrograma mel y entrena un Transformer codificador-decodificador para reconstruirlos, aprendiendo representaciones transferibles a clasificación de audio.",
        zh = "Audio Masked Autoencoder:一种自监督模型,对梅尔频谱图的若干 patch 进行掩码,并训练 Transformer 编码器-解码器重建这些 patch,学到可迁移到音频分类的表示。",
        term_es = "Audio-MAE",
        term_zh = "Audio-MAE",
        aliases_es = { "autoencoder enmascarado de audio" },
        aliases_zh = { "音频掩码自编码器", "AudioMAE" },
    }
    
    data["audio set"] = {
        short = "AudioSet: a Google-released dataset of over 2 million 10-second YouTube clips weakly labeled with a hierarchical ontology of 632 audio event classes, the standard benchmark for large-scale audio classification.",
        article = nil,
        aliases = { "AudioSet", "Audioset", "Google AudioSet" },
        es = "AudioSet: conjunto de datos publicado por Google con más de 2 millones de fragmentos de YouTube de 10 segundos etiquetados débilmente según una ontología jerárquica de 632 clases de eventos de audio; es el referente estándar para clasificación de audio a gran escala.",
        zh = "AudioSet:Google 发布的数据集,包含超过 200 万段 10 秒 YouTube 片段,按 632 个音频事件类别的层级本体进行弱标注,是大规模音频分类的标准基准。",
        term_es = "AudioSet",
        term_zh = "AudioSet",
        aliases_es = { "conjunto de datos AudioSet" },
        aliases_zh = { "AudioSet 数据集", "谷歌 AudioSet" },
    }
    
    data["audio spectrogram transformer"] = {
        short = "A Transformer architecture for audio classification that splits a log-mel spectrogram into patches, embeds them, and applies standard self-attention layers, often initialized from a pretrained Vision Transformer.",
        article = nil,
        aliases = { "AST", "Audio Spectrogram Transformer", "audio spectrogram transformers" },
        es = "Arquitectura Transformer para clasificación de audio que divide un espectrograma log-mel en parches, los embebe y aplica capas de autoatención estándar, frecuentemente inicializada a partir de un Vision Transformer preentrenado.",
        zh = "一种用于音频分类的 Transformer 架构,将对数梅尔频谱图切分为 patch、嵌入后施加标准自注意力层,常以预训练的 Vision Transformer 进行初始化。",
        term_es = "Audio Spectrogram Transformer",
        term_zh = "音频频谱图 Transformer",
        aliases_es = { "AST", "transformer de espectrograma de audio" },
        aliases_zh = { "AST", "音频频谱 Transformer" },
    }
    
    data["audio super-resolution"] = {
        short = "The task of reconstructing a high-sample-rate or wider-bandwidth audio signal from a low-resolution input, typically using neural networks trained to predict missing high-frequency content.",
        article = nil,
        aliases = { "audio super resolution", "bandwidth extension", "audio upsampling", "speech super-resolution", "speech bandwidth extension" },
        es = "Tarea de reconstruir una señal de audio con mayor tasa de muestreo o mayor ancho de banda a partir de una entrada de baja resolución, generalmente mediante redes neuronales entrenadas para predecir el contenido de alta frecuencia faltante.",
        zh = "从低分辨率输入重建具有更高采样率或更宽带宽的音频信号的任务,通常使用神经网络预测缺失的高频内容。",
        term_es = "superresolución de audio",
        term_zh = "音频超分辨率",
        aliases_es = { "extensión de ancho de banda", "sobremuestreo de audio", "superresolución de voz" },
        aliases_zh = { "音频上采样", "带宽扩展", "语音超分辨率" },
    }
    
    data["audio tagging"] = {
        short = "The task of assigning one or more semantic labels to a short audio clip, identifying which sound events or classes are present without locating their precise timing.",
        article = nil,
        aliases = { "audio classification", "sound event tagging", "weakly labeled audio classification", "multi-label audio classification" },
        es = "Tarea de asignar una o más etiquetas semánticas a un fragmento corto de audio, identificando qué eventos o clases sonoras están presentes sin localizar su instante exacto.",
        zh = "为一段短音频分配一个或多个语义标签的任务,识别其中存在哪些声音事件或类别,但不定位其精确时间。",
        term_es = "etiquetado de audio",
        term_zh = "音频标注",
        aliases_es = { "clasificación de audio", "etiquetado de eventos sonoros", "clasificación multietiqueta de audio" },
        aliases_zh = { "音频分类", "声音事件标注", "多标签音频分类" },
    }
    
    data["audio-conditioned generation"] = {
        short = "Generative modeling where the output — typically video, image, or another audio stream — is conditioned on an input audio signal. Examples include lip-sync video generation from speech and music-driven dance synthesis.",
        article = nil,
        aliases = { "audio conditioned generation", "audio-driven generation", "audio-guided generation" },
        es = "Modelado generativo en el que la salida —típicamente vídeo, imagen u otro flujo de audio— se condiciona a una señal de audio de entrada. Algunos ejemplos son la generación de vídeo con sincronía labial a partir de voz y la síntesis de baile guiada por música.",
        zh = "一类生成式建模,其输出(通常是视频、图像或另一段音频)以输入音频信号为条件。典型例子包括基于语音的口型同步视频生成以及由音乐驱动的舞蹈合成。",
        term_es = "generación condicionada por audio",
        term_zh = "音频条件生成",
        aliases_es = { "generación guiada por audio", "generación condicionada al audio" },
        aliases_zh = { "音频驱动生成", "以音频为条件的生成", "音频引导生成" },
    }
    
    data["audio-language model"] = {
        short = "A model that jointly processes audio and natural language, typically built by coupling an audio encoder with a language model and trained on aligned audio-text data. Supports tasks such as audio captioning, audio question answering, and instruction following over sound.",
        article = nil,
        aliases = { "ALM", "audio language model", "large audio-language model", "LALM" },
        es = "Modelo que procesa conjuntamente audio y lenguaje natural, generalmente construido acoplando un codificador de audio a un modelo de lenguaje y entrenado con datos audio-texto alineados. Permite tareas como descripción de audio, preguntas y respuestas sobre audio y seguimiento de instrucciones referidas a sonido.",
        zh = "一类同时处理音频和自然语言的模型,通常将音频编码器与语言模型耦合,并在对齐的音频-文本数据上训练。可支持音频描述生成、音频问答以及围绕声音的指令跟随等任务。",
        term_es = "modelo de audio y lenguaje",
        term_zh = "音频-语言模型",
        aliases_es = { "ALM", "modelo audio-lenguaje", "modelo grande de audio y lenguaje", "LALM" },
        aliases_zh = { "ALM", "音频语言模型", "大型音频-语言模型", "LALM" },
    }
    
    data["audio-language pretraining"] = {
        short = "Self-supervised or weakly supervised pretraining on aligned audio-text pairs — typically using contrastive or generative objectives — to learn joint audio-language representations transferable to downstream tasks such as zero-shot audio classification and retrieval.",
        article = nil,
        aliases = { "audio language pretraining", "audio-text pretraining", "contrastive audio-language pretraining", "CLAP-style pretraining" },
        es = "Preentrenamiento autosupervisado o débilmente supervisado sobre pares audio-texto alineados —normalmente con objetivos contrastivos o generativos— para aprender representaciones conjuntas de audio y lenguaje transferibles a tareas posteriores como la clasificación y la recuperación de audio en cero disparos.",
        zh = "在对齐的音频-文本配对上进行的自监督或弱监督预训练,通常采用对比式或生成式目标,从而学习可迁移到零样本音频分类、检索等下游任务的音频-语言联合表示。",
        term_es = "preentrenamiento audio-lenguaje",
        term_zh = "音频-语言预训练",
        aliases_es = { "preentrenamiento de audio y lenguaje", "preentrenamiento contrastivo audio-lenguaje", "preentrenamiento estilo CLAP" },
        aliases_zh = { "音频语言预训练", "音频-文本预训练", "对比式音频-语言预训练", "CLAP 式预训练" },
    }
    
    data["audio-text retrieval"] = {
        short = "Cross-modal retrieval between audio clips and natural-language descriptions, where given a query in one modality the system ranks candidates in the other. Standard benchmark for evaluating shared audio-language embedding spaces.",
        article = nil,
        aliases = { "audio text retrieval", "text-to-audio retrieval", "audio-to-text retrieval", "cross-modal audio-text retrieval" },
        es = "Recuperación intermodal entre fragmentos de audio y descripciones en lenguaje natural, en la que, dada una consulta en una modalidad, el sistema ordena los candidatos de la otra. Es una evaluación estándar de los espacios de embedding compartidos entre audio y lenguaje.",
        zh = "音频片段与自然语言描述之间的跨模态检索:给定一种模态的查询,系统对另一种模态中的候选进行排序。是评估音频-语言共享嵌入空间的标准任务。",
        term_es = "recuperación audio-texto",
        term_zh = "音频-文本检索",
        aliases_es = { "recuperación de audio a texto", "recuperación de texto a audio", "recuperación intermodal audio-texto" },
        aliases_zh = { "音频文本检索", "文本到音频检索", "音频到文本检索", "跨模态音频文本检索" },
    }
    
    data["audio-to-audio diffusion"] = {
        short = "A class of diffusion models that take an audio input and generate a transformed audio output, used for tasks such as style transfer, denoising, source separation, and audio editing.",
        article = nil,
        aliases = { "audio to audio diffusion", "A2A diffusion", "audio editing diffusion", "audio-conditioned diffusion" },
        es = "Clase de modelos de difusión que toman una entrada de audio y generan una salida de audio transformada, utilizados para tareas como transferencia de estilo, eliminación de ruido, separación de fuentes y edición de audio.",
        zh = "一类扩散模型,以音频作为输入并生成经过变换的音频输出,用于风格迁移、降噪、源分离和音频编辑等任务。",
        term_es = "difusión de audio a audio",
        term_zh = "音频到音频扩散",
        aliases_es = { "difusión audio a audio", "difusión condicionada por audio" },
        aliases_zh = { "音频到音频扩散模型", "音频条件扩散" },
    }
    
    data["audio-to-midi"] = {
        short = "The task of converting an audio recording into a symbolic MIDI representation by detecting note onsets, pitches, durations, and velocities. A specialization of automatic music transcription targeted at producing playable MIDI files.",
        article = nil,
        aliases = { "audio to midi", "audio2midi", "MIDI transcription", "audio-to-MIDI conversion", "wave-to-MIDI" },
        es = "Tarea de convertir una grabación de audio en una representación simbólica MIDI mediante la detección de inicios, alturas, duraciones e intensidades de las notas. Es una especialización de la transcripción musical automática orientada a producir archivos MIDI reproducibles.",
        zh = "将音频录音转换为符号化 MIDI 表示的任务,通过检测音符起始、音高、时长和力度来完成。它是自动音乐转录的一种专门形式,旨在生成可播放的 MIDI 文件。",
        term_es = "audio a MIDI",
        term_zh = "音频转MIDI",
        aliases_es = { "transcripción a MIDI", "conversión audio-MIDI" },
        aliases_zh = { "音频到MIDI", "MIDI转录", "波形转MIDI" },
    }
    
    data["audio-visual learning"] = {
        short = "A subfield of multimodal learning that exploits the natural co-occurrence of audio and video streams in unlabeled recordings as a self-supervisory signal, learning representations and tasks such as sound source localization and audio-visual correspondence.",
        article = nil,
        aliases = { "audio visual learning", "AV learning", "audio-visual self-supervised learning" },
        es = "Subcampo del aprendizaje multimodal que aprovecha la co-ocurrencia natural de las pistas de audio y vídeo en grabaciones sin etiquetar como señal de autosupervisión, aprendiendo representaciones y tareas como la localización de fuentes sonoras y la correspondencia audio-visual.",
        zh = "多模态学习的一个分支,利用未标注录像中音频流与视频流的天然共现作为自监督信号,学习表征以及声源定位、音视频对应等任务。",
        term_es = "aprendizaje audio-visual",
        term_zh = "音视频学习",
        aliases_es = { "aprendizaje audiovisual", "aprendizaje AV", "aprendizaje audiovisual autosupervisado" },
        aliases_zh = { "音频视觉学习", "视听学习", "音视频自监督学习" },
    }
    
    data["audio-visual representation"] = {
        short = "A learned representation that jointly encodes synchronized audio and visual signals into a shared embedding space, enabling tasks like cross-modal retrieval, sound source separation, and audio-visual recognition.",
        article = nil,
        aliases = { "audio visual representation", "audio-visual embedding", "AV representation", "joint audio-visual representation" },
        es = "Representación aprendida que codifica conjuntamente señales de audio y vídeo sincronizadas en un espacio de embedding compartido, posibilitando tareas como la recuperación intermodal, la separación de fuentes sonoras y el reconocimiento audio-visual.",
        zh = "一种学习得到的表示,将同步的音频与视觉信号联合编码到共享嵌入空间中,可支持跨模态检索、声源分离以及音视频识别等任务。",
        term_es = "representación audio-visual",
        term_zh = "音视频表示",
        aliases_es = { "representación audiovisual", "embedding audio-visual", "representación conjunta audio-visual" },
        aliases_zh = { "音频视觉表示", "视听表示", "音视频联合表示" },
    }
    
    data["audio-visual scene understanding"] = {
        short = "The task of jointly interpreting an audio-visual recording to identify objects, events, and their spatial-temporal relations using both modalities — for example, detecting which on-screen object produced a given sound.",
        article = nil,
        aliases = { "audio visual scene understanding", "AV scene understanding", "audio-visual scene analysis" },
        es = "Tarea de interpretar conjuntamente una grabación audio-visual para identificar objetos, eventos y sus relaciones espacio-temporales utilizando ambas modalidades, por ejemplo, detectando qué objeto en pantalla produjo un sonido determinado.",
        zh = "对音视频录制内容进行联合解析的任务,利用两种模态识别其中的物体、事件及其时空关系,例如判断画面中哪个物体发出了某段声音。",
        term_es = "comprensión de escenas audio-visuales",
        term_zh = "音视频场景理解",
        aliases_es = { "análisis de escenas audio-visuales", "comprensión audiovisual de escenas" },
        aliases_zh = { "音频视觉场景理解", "视听场景理解", "音视频场景分析" },
    }
    
    data["audio-visual speech recognition"] = {
        short = "A speech recognition approach that combines acoustic input with visual lip and face cues to transcribe spoken language, improving robustness in noisy environments where audio alone is unreliable.",
        article = nil,
        aliases = { "AVSR", "audiovisual speech recognition", "lip-reading speech recognition" },
        es = "Enfoque de reconocimiento de voz que combina la entrada acústica con señales visuales de labios y rostro para transcribir el habla, mejorando la robustez en entornos ruidosos donde el audio por sí solo es poco fiable.",
        zh = "一种将声学输入与唇部和面部视觉线索相结合以转录语音的语音识别方法,可在仅靠音频不可靠的嘈杂环境中提高鲁棒性。",
        term_es = "reconocimiento audiovisual de voz",
        term_zh = "音视频语音识别",
        aliases_es = { "AVSR", "reconocimiento audio-visual del habla" },
        aliases_zh = { "AVSR", "视听语音识别", "唇读语音识别" },
    }
    
    data["audiobox"] = {
        short = "A family of audio generation foundation models from Meta that unifies speech, sound effects and music synthesis under a flow-matching framework with text and audio prompts.",
        article = nil,
        aliases = { "Audiobox", "Meta Audiobox" },
        es = "Familia de modelos fundacionales de generación de audio de Meta que unifica la síntesis de voz, efectos de sonido y música bajo un marco de flow matching con indicaciones de texto y audio.",
        zh = "Meta 推出的音频生成基础模型家族,基于 flow matching 框架,将语音、音效和音乐合成统一在文本和音频提示之下。",
        term_es = "Audiobox",
        term_zh = "Audiobox",
        aliases_es = { "Audiobox de Meta" },
        aliases_zh = { "Meta Audiobox" },
    }
    
    data["audiocaps"] = {
        short = "A large-scale dataset of about 50,000 audio clips drawn from AudioSet, each paired with a human-written natural-language caption, used to train and evaluate audio captioning and text-to-audio models.",
        article = nil,
        aliases = { "AudioCaps", "AudioCaps dataset" },
        es = "Conjunto de datos a gran escala de unos 50.000 clips de audio extraídos de AudioSet, cada uno acompañado de una descripción en lenguaje natural escrita por humanos, utilizado para entrenar y evaluar modelos de subtitulado de audio y de texto a audio.",
        zh = "约5万段音频片段构成的大规模数据集,源自AudioSet,每段配有人工撰写的自然语言描述,用于训练和评估音频字幕及文本转音频模型。",
        term_es = "AudioCaps",
        term_zh = "AudioCaps",
        aliases_es = { "conjunto de datos AudioCaps" },
        aliases_zh = { "AudioCaps数据集" },
    }
    
    data["audioclip"] = {
        short = "An extension of CLIP that adds an audio encoder trained jointly with image and text encoders via contrastive learning over (audio, image, text) triplets, enabling zero-shot audio classification and cross-modal retrieval.",
        article = nil,
        aliases = { "AudioCLIP" },
        es = "Extensión de CLIP que añade un codificador de audio entrenado conjuntamente con los codificadores de imagen y texto mediante aprendizaje contrastivo sobre tripletes (audio, imagen, texto), lo que permite clasificación de audio en cero disparos y recuperación intermodal.",
        zh = "CLIP的扩展模型,新增音频编码器,通过对(音频、图像、文本)三元组进行对比学习与图像、文本编码器联合训练,从而支持零样本音频分类和跨模态检索。",
        term_es = "AudioCLIP",
        term_zh = "AudioCLIP",
        aliases_es = { "AudioCLIP" },
        aliases_zh = { "AudioCLIP" },
    }
    
    data["audiocraft"] = {
        short = "An open-source PyTorch library released by Meta AI for audio generation research, bundling models such as MusicGen, AudioGen, and the EnCodec neural audio codec.",
        article = nil,
        aliases = { "AudioCraft", "Meta AudioCraft", "audiocraft library" },
        es = "Biblioteca de código abierto en PyTorch publicada por Meta AI para investigación en generación de audio, que reúne modelos como MusicGen, AudioGen y el códec neuronal de audio EnCodec.",
        zh = "由 Meta AI 发布的开源 PyTorch 音频生成研究库,集成了 MusicGen、AudioGen 以及 EnCodec 神经音频编解码器等模型。",
        term_es = "AudioCraft",
        term_zh = "AudioCraft",
        aliases_es = { "biblioteca AudioCraft", "AudioCraft de Meta" },
        aliases_zh = { "Meta AudioCraft", "AudioCraft 库" },
    }
    
    data["audiogen"] = {
        short = "A text-to-audio generative model from Meta that synthesizes general environmental sounds and audio scenes from natural-language descriptions using a discrete audio tokenizer and an autoregressive Transformer.",
        article = nil,
        aliases = { "AudioGen" },
        es = "Modelo generativo de texto a audio de Meta que sintetiza sonidos ambientales y escenas de audio a partir de descripciones en lenguaje natural usando un tokenizador de audio discreto y un Transformer autorregresivo.",
        zh = "Meta提出的文本到音频生成模型,使用离散音频分词器与自回归Transformer,根据自然语言描述合成通用环境声音与音频场景。",
        term_es = "AudioGen",
        term_zh = "AudioGen",
        aliases_es = { "AudioGen" },
        aliases_zh = { "AudioGen" },
    }
    
    data["audiolcm"] = {
        short = "A latent consistency model for text-to-audio generation that distills a pretrained latent diffusion model to enable high-quality audio synthesis in just a few sampling steps.",
        article = nil,
        aliases = { "AudioLCM", "Audio LCM", "audio latent consistency model" },
        es = "Modelo de consistencia latente para la generación de audio a partir de texto que destila un modelo de difusión latente preentrenado para permitir la síntesis de audio de alta calidad en pocos pasos de muestreo.",
        zh = "用于文本到音频生成的潜在一致性模型,通过对预训练潜在扩散模型进行蒸馏,仅需少量采样步骤即可生成高质量音频。",
        term_es = "AudioLCM",
        term_zh = "AudioLCM",
        aliases_es = { "modelo de consistencia latente de audio" },
        aliases_zh = { "音频潜在一致性模型" },
    }
    
    data["audioldm"] = {
        short = "A text-to-audio latent diffusion model that generates audio by denoising in the latent space of a pretrained audio autoencoder, conditioned on CLAP text embeddings to produce sound effects, music, and speech-like audio.",
        article = nil,
        aliases = { "AudioLDM", "Audio Latent Diffusion Model" },
        es = "Modelo de difusión latente de texto a audio que genera audio mediante desruidado en el espacio latente de un autoencoder de audio preentrenado, condicionado por embeddings de texto CLAP, para producir efectos de sonido, música y audio similar al habla.",
        zh = "一种文本到音频的潜在扩散模型,在预训练音频自编码器的潜在空间中进行去噪,并以CLAP文本嵌入为条件,生成音效、音乐及类语音音频。",
        term_es = "AudioLDM",
        term_zh = "AudioLDM",
        aliases_es = { "AudioLDM", "modelo de difusión latente de audio" },
        aliases_zh = { "AudioLDM", "音频潜在扩散模型" },
    }
    
    data["audioldm 2"] = {
        short = "The second version of AudioLDM, a unified text-to-audio diffusion model that uses an intermediate language-of-audio representation (AudioMAE features) to generate speech, music, and sound effects within a single framework.",
        article = nil,
        aliases = { "AudioLDM 2", "AudioLDM2", "AudioLDM v2" },
        es = "Segunda versión de AudioLDM, un modelo unificado de difusión de texto a audio que utiliza una representación intermedia de \"lenguaje del audio\" (basada en AudioMAE) para generar habla, música y efectos de sonido en un único marco.",
        zh = "AudioLDM的第二代版本,一种统一的文本到音频扩散模型,借助中间的\"音频语言\"表示(基于AudioMAE特征),在同一框架内生成语音、音乐和音效。",
        term_es = "AudioLDM 2",
        term_zh = "AudioLDM 2",
        aliases_es = { "AudioLDM2" },
        aliases_zh = { "AudioLDM2" },
    }
    
    data["audiolm"] = {
        short = "A language-modeling approach to audio generation from Google that produces speech and music as sequences of discrete tokens, combining semantic tokens from a self-supervised model with acoustic tokens from a neural codec.",
        article = nil,
        aliases = { "AudioLM", "Audio LM", "Google AudioLM", "audio language model AudioLM" },
        es = "Enfoque de modelado de lenguaje aplicado a la generación de audio propuesto por Google, que produce voz y música como secuencias de tokens discretos, combinando tokens semánticos de un modelo autosupervisado con tokens acústicos de un códec neuronal.",
        zh = "由谷歌提出的将语言建模方法应用于音频生成的工作,将语音和音乐表示为离散令牌序列,结合来自自监督模型的语义令牌与来自神经编解码器的声学令牌。",
        term_es = "AudioLM",
        term_zh = "AudioLM",
        aliases_es = { "AudioLM de Google", "modelo de lenguaje de audio AudioLM" },
        aliases_zh = { "Google AudioLM", "AudioLM 音频语言模型" },
    }
    
    data["audiomentations"] = {
        short = "An open-source Python library for audio data augmentation that provides composable transforms such as added noise, pitch shifting, time stretching, room simulation, and gain changes for training audio models.",
        article = nil,
        aliases = { "Audiomentations", "audiomentations library" },
        es = "Biblioteca de código abierto en Python para aumentación de datos de audio que ofrece transformaciones componibles como adición de ruido, cambio de tono, estiramiento temporal, simulación de sala y variaciones de ganancia para entrenar modelos de audio.",
        zh = "用于音频数据增强的开源 Python 库,提供可组合的变换,如加入噪声、变调、时间拉伸、房间模拟和增益变化,用于训练音频模型。",
        term_es = "audiomentations",
        term_zh = "audiomentations",
        aliases_es = { "biblioteca audiomentations" },
        aliases_zh = { "audiomentations 库" },
    }
    
    data["audiopalm"] = {
        short = "A multimodal large language model from Google that unifies the PaLM-2 text backbone with discrete audio tokens, allowing it to perform speech recognition, speech translation, and speech-to-speech translation in a single autoregressive model.",
        article = nil,
        aliases = { "AudioPaLM" },
        es = "Modelo multimodal grande de Google que unifica la columna de texto de PaLM-2 con tokens de audio discretos, permitiéndole realizar reconocimiento de voz, traducción de voz y traducción de voz a voz en un solo modelo autorregresivo.",
        zh = "谷歌提出的多模态大型语言模型,将PaLM-2文本主干与离散音频token相统一,可在单一自回归模型中完成语音识别、语音翻译和语音到语音翻译。",
        term_es = "AudioPaLM",
        term_zh = "AudioPaLM",
        aliases_es = { "AudioPaLM" },
        aliases_zh = { "AudioPaLM" },
    }
    
    data["audioset"] = {
        short = "A large-scale ontology and dataset from Google of over two million 10-second YouTube clips weakly labeled with 527 sound event classes, widely used for audio tagging, sound event detection, and self-supervised audio pretraining.",
        article = nil,
        aliases = { "AudioSet", "Audio Set" },
        es = "Ontología y conjunto de datos a gran escala de Google con más de dos millones de clips de YouTube de 10 segundos etiquetados débilmente con 527 clases de eventos sonoros, ampliamente utilizado para etiquetado de audio, detección de eventos sonoros y preentrenamiento autosupervisado de audio.",
        zh = "谷歌发布的大规模本体与数据集,包含超过两百万段10秒YouTube片段,弱标注为527个声音事件类别,广泛用于音频标注、声音事件检测和音频自监督预训练。",
        term_es = "AudioSet",
        term_zh = "AudioSet",
        aliases_es = { "AudioSet" },
        aliases_zh = { "AudioSet" },
    }
    
    data["audit trail"] = {
        short = "A chronological, tamper-evident record of events, decisions, and changes within a system, used to support accountability, forensic analysis, and regulatory compliance for algorithmic and data-processing systems.",
        article = nil,
        aliases = { "audit log", "audit logs", "audit trails" },
        es = "Registro cronológico y a prueba de manipulación de eventos, decisiones y cambios dentro de un sistema, utilizado para respaldar la rendición de cuentas, el análisis forense y el cumplimiento regulatorio en sistemas algorítmicos y de procesamiento de datos.",
        zh = "审计跟踪是系统内事件、决策和变更的按时间顺序、防篡改的记录,用于支持算法和数据处理系统的问责、取证分析和合规要求。",
        term_es = "rastro de auditoría",
        term_zh = "审计跟踪",
        aliases_es = { "registro de auditoría", "pista de auditoría", "rastro de auditoría" },
        aliases_zh = { "审计跟踪", "审计轨迹", "审计日志" },
    }
    
    data["auditing framework"] = {
        short = "A structured methodology specifying the procedures, criteria, and artifacts for auditing algorithmic systems, often defining stages such as scoping, data collection, evaluation, reporting, and remediation.",
        article = nil,
        aliases = { "audit framework", "algorithm auditing framework", "AI audit framework" },
        es = "Metodología estructurada que especifica los procedimientos, criterios y artefactos para auditar sistemas algorítmicos, definiendo frecuentemente etapas como delimitación del alcance, recolección de datos, evaluación, informe y remediación.",
        zh = "审计框架是为算法系统审计指定程序、标准和工件的结构化方法,通常定义范围确定、数据收集、评估、报告和补救等阶段。",
        term_es = "marco de auditoría",
        term_zh = "审计框架",
        aliases_es = { "marco de auditoría", "marco de auditoría algorítmica" },
        aliases_zh = { "审计框架", "算法审计框架" },
    }
    
    data["augmented inverse probability weighting"] = {
        short = "A doubly robust estimator of the average treatment effect that combines an outcome regression with inverse-propensity weighting via an augmentation term, remaining consistent if either the outcome model or the propensity model is correctly specified.",
        article = nil,
        aliases = { "AIPW", "augmented IPW", "doubly robust estimator", "doubly-robust estimator", "DR-IPW", "augmented inverse-probability weighting" },
        es = "Estimador doblemente robusto del efecto medio del tratamiento que combina una regresión del resultado con la ponderación inversa por la probabilidad de tratamiento mediante un término de aumento, permaneciendo consistente si el modelo del resultado o el de la propensión está correctamente especificado.",
        zh = "一种双重稳健的平均处理效应估计量,通过一个增广项将结果回归与倾向得分逆概率加权结合起来;只要结果模型或倾向得分模型有一个被正确设定,估计量就保持一致性。",
        term_es = "ponderación inversa de la probabilidad aumentada",
        term_zh = "增广逆概率加权",
        aliases_es = { "AIPW", "IPW aumentada", "estimador doblemente robusto", "DR-IPW" },
        aliases_zh = { "AIPW", "增广 IPW", "双重稳健估计", "双稳健估计量" },
    }
    
    data["augmented synthetic control"] = {
        short = "An extension of the synthetic control method that fits a model to the pre-treatment outcomes (e.g. ridge regression on covariates) and adds it as a bias correction to the synthetic control estimate, reducing residual imbalance and allowing negative weights.",
        article = nil,
        aliases = { "augmented synthetic control method", "ASCM", "augmented SCM", "ridge augmented synthetic control" },
        es = "Extensión del método de control sintético que ajusta un modelo a los resultados previos al tratamiento (por ejemplo, regresión ridge sobre covariables) y lo añade como corrección de sesgo a la estimación del control sintético, reduciendo el desbalance residual y permitiendo pesos negativos.",
        zh = "对合成控制法的一种扩展:先用模型(如基于协变量的岭回归)拟合处理前的结果,再将其作为偏差校正添加到合成控制估计中,从而减少残余不平衡并允许出现负权重。",
        term_es = "control sintético aumentado",
        term_zh = "增广合成控制",
        aliases_es = { "método de control sintético aumentado", "ASCM", "SCM aumentado" },
        aliases_zh = { "增广合成控制法", "ASCM", "增强合成控制" },
    }
    
    data["auprc"] = {
        short = "The area under the precision–recall curve, summarizing precision across all recall levels. Preferred over AUROC under strong class imbalance because it ignores true negatives, which dominate ROC under skew.",
        article = nil,
        aliases = { "AUPRC", "AUC-PR", "PR AUC", "area under the PR curve", "area under precision-recall curve" },
        es = "Área bajo la curva precisión–exhaustividad, que resume la precisión en todos los niveles de recall. Se prefiere sobre el AUROC con fuerte desbalance de clases, ya que ignora los verdaderos negativos, que dominan la ROC bajo distribuciones desbalanceadas.",
        zh = "PR 曲线下的面积,汇总了所有召回率水平上的精确率。在类别严重不均衡时,相较 AUROC 更受推崇,因为它不受占主导的真阴性样本影响。",
        term_es = "AUPRC",
        term_zh = "AUPRC",
        aliases_es = { "AUC-PR", "área bajo la curva PR", "AUC PR" },
        aliases_zh = { "AUC-PR", "PR AUC", "PR 曲线下面积" },
    }
    
    data["auroc"] = {
        short = "The area under the ROC curve, equal to the probability that a uniformly chosen positive example is ranked above a uniformly chosen negative one. A threshold-free summary of binary classifier discrimination, between 0.5 (random) and 1 (perfect).",
        article = nil,
        aliases = { "AUROC", "AUC", "AUC-ROC", "ROC AUC", "area under the ROC curve", "area under ROC" },
        es = "Área bajo la curva ROC, igual a la probabilidad de que un positivo elegido al azar reciba mayor puntuación que un negativo elegido al azar. Es un resumen, sin depender del umbral, de la capacidad de discriminación del clasificador binario, entre 0.5 (aleatorio) y 1 (perfecto).",
        zh = "ROC 曲线下的面积,等于随机抽取的正样本得分高于随机抽取的负样本得分的概率。它是与阈值无关的二分类区分能力指标,取值范围为 0.5(随机)到 1(完美)。",
        term_es = "AUROC",
        term_zh = "AUROC",
        aliases_es = { "AUC", "AUC-ROC", "área bajo la curva ROC" },
        aliases_zh = { "AUC", "AUC-ROC", "ROC 曲线下面积" },
    }
    
    data["auror algorithm"] = {
        short = "A defense against targeted poisoning attacks in federated learning that identifies suspicious clients by clustering indicative model features across rounds and excluding outliers from aggregation.",
        article = nil,
        aliases = { "Auror", "AUROR", "Auror defense" },
        es = "Defensa contra ataques de envenenamiento dirigidos en aprendizaje federado que identifica clientes sospechosos agrupando características indicativas del modelo a lo largo de las rondas y excluye los valores atípicos de la agregación.",
        zh = "一种针对联邦学习定向投毒攻击的防御方法:通过对各轮中具指示性的模型特征进行聚类来识别可疑客户端,并将离群点排除在聚合之外。",
        term_es = "algoritmo Auror",
        term_zh = "Auror 算法",
        aliases_es = { "Auror", "defensa Auror" },
        aliases_zh = { "Auror", "Auror 防御" },
    }
    
    data["auto-deeplab"] = {
        short = "A neural architecture search method for semantic segmentation that jointly searches the cell-level structure and the network-level spatial-resolution path, extending DARTS-style search to dense prediction.",
        article = nil,
        aliases = { "Auto-DeepLab", "AutoDeepLab", "Auto DeepLab" },
        es = "Método de búsqueda de arquitecturas neuronales para segmentación semántica que busca conjuntamente la estructura a nivel de celda y la trayectoria de resolución espacial a nivel de red, extendiendo la búsqueda al estilo DARTS a la predicción densa.",
        zh = "一种用于语义分割的神经架构搜索方法,联合搜索单元级结构和网络级的空间分辨率路径,将DARTS式搜索扩展到密集预测任务。",
        term_es = "Auto-DeepLab",
        term_zh = "Auto-DeepLab",
        aliases_es = { "Auto-DeepLab" },
        aliases_zh = { "Auto-DeepLab" },
    }
    
    data["auto-keras"] = {
        short = "An open-source AutoML library built on top of Keras that automates neural architecture search and hyperparameter tuning for vision, text, and tabular tasks via a high-level API.",
        article = nil,
        aliases = { "AutoKeras", "Auto-Keras", "autokeras" },
        es = "Biblioteca de AutoML de código abierto construida sobre Keras que automatiza la búsqueda de arquitecturas neuronales y el ajuste de hiperparámetros para tareas de visión, texto y datos tabulares mediante una API de alto nivel.",
        zh = "基于Keras构建的开源AutoML库,通过高层API为视觉、文本和表格任务自动执行神经架构搜索与超参数调优。",
        term_es = "Auto-Keras",
        term_zh = "Auto-Keras",
        aliases_es = { "AutoKeras", "Auto-Keras" },
        aliases_zh = { "AutoKeras", "Auto-Keras" },
    }
    
    data["auto-pytorch"] = {
        short = "An AutoML framework for PyTorch that jointly optimizes neural architectures and training hyperparameters for tabular and time-series tasks, combining BOHB-style search with portfolio meta-learning.",
        article = nil,
        aliases = { "AutoPyTorch", "Auto-PyTorch", "auto pytorch" },
        es = "Marco de AutoML para PyTorch que optimiza conjuntamente arquitecturas neuronales e hiperparámetros de entrenamiento para tareas tabulares y de series temporales, combinando búsqueda al estilo BOHB con meta-aprendizaje basado en portafolios.",
        zh = "面向PyTorch的AutoML框架,针对表格数据和时间序列任务联合优化神经架构与训练超参数,将BOHB式搜索与组合式元学习相结合。",
        term_es = "Auto-PyTorch",
        term_zh = "Auto-PyTorch",
        aliases_es = { "Auto-PyTorch", "AutoPyTorch" },
        aliases_zh = { "Auto-PyTorch", "AutoPyTorch" },
    }
    
    data["auto-sklearn"] = {
        short = "An AutoML system built on scikit-learn that automates model selection and hyperparameter tuning for tabular data using Bayesian optimization, meta-learning warm-starts, and ensemble construction.",
        article = nil,
        aliases = { "auto-sklearn", "autosklearn", "Auto-sklearn", "Auto-Sklearn" },
        es = "Sistema de AutoML basado en scikit-learn que automatiza la selección de modelos y el ajuste de hiperparámetros para datos tabulares mediante optimización bayesiana, arranques en caliente con meta-aprendizaje y construcción de ensambles.",
        zh = "基于scikit-learn构建的AutoML系统,针对表格数据通过贝叶斯优化、基于元学习的热启动以及集成构建来自动完成模型选择与超参数调优。",
        term_es = "auto-sklearn",
        term_zh = "auto-sklearn",
        aliases_es = { "auto-sklearn", "autosklearn" },
        aliases_zh = { "auto-sklearn", "autosklearn" },
    }
    
    data["autoaugment"] = {
        short = "An automated data-augmentation method that uses reinforcement learning to search over a discrete space of augmentation policies (sequences of image operations and magnitudes) and selects the one that maximizes validation accuracy.",
        article = nil,
        aliases = { "AutoAugment", "auto-augment", "Auto-Augment" },
        es = "Método automatizado de aumento de datos que utiliza aprendizaje por refuerzo para buscar en un espacio discreto de políticas de aumento (secuencias de operaciones de imagen y magnitudes) y selecciona la que maximiza la precisión de validación.",
        zh = "一种自动化数据增强方法,使用强化学习在离散的增强策略空间(由图像操作及其幅度的序列组成)中搜索,并选择能最大化验证集精度的策略。",
        term_es = "AutoAugment",
        term_zh = "AutoAugment",
        aliases_es = { "auto-aumento", "AutoAugment" },
        aliases_zh = { "自动增强", "AutoAugment 策略", "autoaugment" },
    }
    
    data["autoaugment policy search"] = {
        short = "A reinforcement-learning-based search over discrete data augmentation policies (sequences of image operations with magnitudes and probabilities) to improve image classification accuracy, introduced in AutoAugment by Cubuk et al. (2018).",
        article = nil,
        aliases = { "AutoAugment", "AutoAugment policy search", "auto-augment policy search" },
        es = "Búsqueda basada en aprendizaje por refuerzo sobre políticas discretas de aumento de datos (secuencias de operaciones de imagen con magnitudes y probabilidades) para mejorar la precisión en clasificación de imágenes, presentada en AutoAugment por Cubuk et al. (2018).",
        zh = "一种基于强化学习的对离散数据增强策略(带幅度和概率的图像操作序列)的搜索方法,用于提升图像分类精度,由Cubuk等人在AutoAugment(2018)中提出。",
        term_es = "búsqueda de políticas AutoAugment",
        term_zh = "AutoAugment策略搜索",
        aliases_es = { "AutoAugment", "búsqueda de políticas de aumento" },
        aliases_zh = { "AutoAugment", "AutoAugment策略搜索" },
    }
    
    data["autocorrelation diagnostic"] = {
        short = "An MCMC convergence diagnostic that examines the autocorrelation function of sampled chains to estimate effective sample size and detect slow mixing of the sampler.",
        article = nil,
        aliases = { "autocorrelation MCMC diagnostic", "ACF diagnostic", "sample autocorrelation diagnostic" },
        es = "Diagnóstico de convergencia para MCMC que examina la función de autocorrelación de las cadenas muestreadas para estimar el tamaño de muestra efectivo y detectar mezcla lenta del muestreador.",
        zh = "一种 MCMC 收敛诊断,通过分析采样链的自相关函数来估计有效样本量并检测采样器混合缓慢的情况。",
        term_es = "diagnóstico de autocorrelación",
        term_zh = "自相关诊断",
        aliases_es = { "diagnóstico ACF", "diagnóstico de autocorrelación MCMC" },
        aliases_zh = { "ACF 诊断", "自相关性诊断" },
    }
    
    data["autodock"] = {
        short = "A suite of automated docking tools that predicts how small molecules bind to a receptor of known 3D structure, using a Lamarckian genetic algorithm to search ligand poses against a precomputed grid-based scoring function.",
        article = nil,
        aliases = { "AutoDock", "AutoDock 4", "AD4" },
        es = "Un conjunto de herramientas de acoplamiento molecular automatizado que predice cómo se unen pequeñas moléculas a un receptor de estructura 3D conocida, utilizando un algoritmo genético lamarckiano para buscar poses del ligando frente a una función de puntuación basada en cuadrícula precomputada.",
        zh = "一套自动分子对接工具,使用拉马克遗传算法在预计算的网格评分函数上搜索配体姿态,预测小分子与已知三维结构受体的结合方式。",
        term_es = "AutoDock",
        term_zh = "AutoDock",
        aliases_es = { "AutoDock", "AutoDock 4", "AD4" },
        aliases_zh = { "AutoDock", "AutoDock 4", "AD4" },
    }
    
    data["autodock vina"] = {
        short = "An open-source molecular docking program that predicts ligand binding poses and affinities using an empirical scoring function and an iterated local search optimizer, faster and generally more accurate than AutoDock 4.",
        article = nil,
        aliases = { "AutoDock Vina", "Vina" },
        es = "Un programa de acoplamiento molecular de código abierto que predice poses y afinidades de unión del ligando utilizando una función de puntuación empírica y un optimizador de búsqueda local iterada, más rápido y generalmente más preciso que AutoDock 4.",
        zh = "一款开源的分子对接程序,使用经验评分函数和迭代局部搜索优化器预测配体的结合姿态和亲和力,比 AutoDock 4 更快且通常更准确。",
        term_es = "AutoDock Vina",
        term_zh = "AutoDock Vina",
        aliases_es = { "AutoDock Vina", "Vina" },
        aliases_zh = { "AutoDock Vina", "Vina" },
    }
    
    data["autoencoder"] = {
        short = "A neural network trained to reconstruct its input through a low-dimensional bottleneck, learning a compressed representation in the process.",
        article = nil,
        aliases = { "auto-encoder", "AE", "autoencoder network" },
        es = "Red neuronal entrenada para reconstruir su entrada a través de un cuello de botella de baja dimensión, aprendiendo una representación comprimida en el proceso.",
        zh = "一种通过低维瓶颈重建输入的神经网络,过程中学习到压缩的表示。",
        term_es = "autocodificador",
        term_zh = "自编码器",
        aliases_es = { "autoencoder", "auto-codificador", "AE" },
        aliases_zh = { "自动编码器", "自编码网络", "AE" },
    }
    
    data["autoformalization"] = {
        short = "The automatic translation of natural-language mathematical statements (and proofs) into the syntax of a formal proof assistant such as Lean, Coq, or Isabelle, often performed with large language models.",
        article = nil,
        aliases = { "autoformalization", "auto-formalization", "automatic formalization" },
        es = "La traducción automática de enunciados (y demostraciones) matemáticos en lenguaje natural a la sintaxis de un asistente de demostración formal como Lean, Coq o Isabelle, frecuentemente mediante modelos de lenguaje grandes.",
        zh = "将自然语言数学陈述(及其证明)自动翻译为 Lean、Coq 或 Isabelle 等形式化证明助手语法的过程,通常由大语言模型完成。",
        term_es = "autoformalización",
        term_zh = "自动形式化",
        aliases_es = { "autoformalización", "formalización automática" },
        aliases_zh = { "自动形式化", "自动形式化数学" },
    }
    
    data["autoformer"] = {
        short = "A neural architecture search method for vision transformers that trains a weight-sharing supernet over depth, embedding dimension, head count, and MLP ratio, then samples sub-transformers under deployment constraints.",
        article = nil,
        aliases = { "AutoFormer", "Autoformer (NAS)" },
        es = "Método de búsqueda de arquitecturas neuronales para transformers de visión que entrena una supernet con compartición de pesos sobre profundidad, dimensión de embedding, número de cabezas y razón del MLP, y luego muestrea sub-transformers bajo restricciones de despliegue.",
        zh = "一种面向视觉Transformer的神经架构搜索方法,训练一个在深度、嵌入维度、注意力头数和MLP比例上共享权重的超网络,然后在部署约束下采样子Transformer。",
        term_es = "AutoFormer",
        term_zh = "AutoFormer",
        aliases_es = { "AutoFormer" },
        aliases_zh = { "AutoFormer" },
    }
    
    data["autogan"] = {
        short = "A neural architecture search method that uses reinforcement learning to discover generator architectures for generative adversarial networks, with the Inception Score serving as the reward signal.",
        article = nil,
        aliases = { "AutoGAN", "Auto-GAN" },
        es = "Método de búsqueda de arquitecturas neuronales que utiliza aprendizaje por refuerzo para descubrir arquitecturas de generadores en redes generativas adversariales, empleando la Inception Score como señal de recompensa.",
        zh = "一种神经架构搜索方法,使用强化学习为生成对抗网络发现生成器架构,并以Inception Score作为奖励信号。",
        term_es = "AutoGAN",
        term_zh = "AutoGAN",
        aliases_es = { "AutoGAN" },
        aliases_zh = { "AutoGAN" },
    }
    
    data["autogen framework"] = {
        short = "An open-source framework from Microsoft for building multi-agent LLM applications, where agents with distinct roles converse, call tools and execute code to solve tasks collaboratively.",
        article = nil,
        aliases = { "AutoGen", "Microsoft AutoGen", "autogen" },
        es = "Marco de código abierto de Microsoft para construir aplicaciones multiagente con LLMs, en el que agentes con distintos roles conversan, invocan herramientas y ejecutan código para resolver tareas de forma colaborativa.",
        zh = "微软开源的多智能体 LLM 应用框架,由具有不同角色的智能体相互对话、调用工具并执行代码,以协作完成任务。",
        term_es = "framework AutoGen",
        term_zh = "AutoGen 框架",
        aliases_es = { "AutoGen", "AutoGen de Microsoft" },
        aliases_zh = { "AutoGen", "微软 AutoGen" },
    }
    
    data["autogluon"] = {
        short = "An open-source AutoML toolkit from Amazon that emphasizes multi-layer stacking, repeated bagging, and pre-defined model portfolios to deliver strong tabular, text, and image baselines with minimal user input.",
        article = nil,
        aliases = { "AutoGluon", "auto-gluon" },
        es = "Conjunto de herramientas de AutoML de código abierto de Amazon que enfatiza el apilamiento multinivel, el bagging repetido y portafolios de modelos predefinidos para ofrecer líneas base sólidas en datos tabulares, texto e imágenes con mínima intervención del usuario.",
        zh = "亚马逊开源的AutoML工具包,强调多层堆叠、重复bagging以及预定义的模型组合,能够在用户介入最少的情况下为表格、文本和图像任务提供强基线。",
        term_es = "AutoGluon",
        term_zh = "AutoGluon",
        aliases_es = { "AutoGluon" },
        aliases_zh = { "AutoGluon" },
    }
    
    data["automated data preprocessing"] = {
        short = "Automated selection and configuration of data-cleaning, encoding, scaling, imputation, and outlier-handling steps as part of an AutoML pipeline, typically searched jointly with model and hyperparameter choices.",
        article = nil,
        aliases = { "automated preprocessing", "automatic data preprocessing", "automated data pre-processing" },
        es = "Selección y configuración automáticas de pasos de limpieza de datos, codificación, escalado, imputación y tratamiento de valores atípicos como parte de una canalización de AutoML, normalmente buscados conjuntamente con la elección del modelo y los hiperparámetros.",
        zh = "在AutoML流水线中自动选择并配置数据清洗、编码、缩放、缺失值填补与异常值处理等步骤,通常与模型和超参数选择联合搜索。",
        term_es = "preprocesamiento de datos automatizado",
        term_zh = "自动化数据预处理",
        aliases_es = { "preprocesamiento automático de datos" },
        aliases_zh = { "自动数据预处理", "数据预处理自动化" },
    }
    
    data["automated decision-making"] = {
        short = "The use of algorithmic systems to render decisions affecting individuals (e.g. credit, hiring, sentencing) with little or no human intervention. Subject to fairness, transparency, and legal scrutiny under regulations such as the GDPR.",
        article = nil,
        aliases = { "ADM", "algorithmic decision-making", "automated decision making", "automated decisions" },
        es = "Uso de sistemas algorítmicos para tomar decisiones que afectan a personas (crédito, contratación, sentencias) con poca o ninguna intervención humana. Sujeto a escrutinio en materia de equidad y transparencia bajo regulaciones como el RGPD.",
        zh = "使用算法系统在很少或没有人工干预的情况下做出影响个人的决策(例如信贷、招聘、量刑)。在 GDPR 等法规下受到公平性与透明度方面的审查。",
        term_es = "toma de decisiones automatizada",
        term_zh = "自动化决策",
        aliases_es = { "ADM", "decisiones automatizadas", "decisiones algorítmicas" },
        aliases_zh = { "ADM", "算法决策", "自动决策" },
    }
    
    data["automated feature engineering"] = {
        short = "The automated construction, transformation, and selection of features from raw data, covering techniques such as relational deep feature synthesis, genetic programming, and learned embeddings used to reduce manual data-science effort.",
        article = nil,
        aliases = { "auto feature engineering", "automatic feature engineering", "AutoFE" },
        es = "Construcción, transformación y selección automáticas de variables a partir de datos en bruto, incluyendo técnicas como la síntesis profunda de variables relacionales, la programación genética y los embeddings aprendidos, con el fin de reducir el esfuerzo manual en ciencia de datos.",
        zh = "从原始数据中自动构造、变换和选择特征,涵盖关系深度特征合成、遗传编程和学习得到的嵌入等技术,用以减少人工数据科学工作量。",
        term_es = "ingeniería de características automatizada",
        term_zh = "自动化特征工程",
        aliases_es = { "ingeniería automática de características", "AutoFE" },
        aliases_zh = { "自动特征工程", "AutoFE" },
    }
    
    data["automated machine learning"] = {
        short = "The end-to-end automation of machine-learning pipeline construction—including preprocessing, feature engineering, model selection, hyperparameter tuning, and ensembling—so that practitioners can produce competitive models with minimal manual tuning.",
        article = nil,
        aliases = { "AutoML", "auto-ML", "auto ML" },
        es = "Automatización extremo a extremo de la construcción de canalizaciones de aprendizaje automático —que incluye preprocesamiento, ingeniería de características, selección de modelos, ajuste de hiperparámetros y ensamblado— de modo que los profesionales puedan producir modelos competitivos con un ajuste manual mínimo.",
        zh = "端到端自动化机器学习流水线的构建,包括预处理、特征工程、模型选择、超参数调优和集成,使从业者只需极少手工调优即可得到具有竞争力的模型。",
        term_es = "aprendizaje automático automatizado",
        term_zh = "自动化机器学习",
        aliases_es = { "AutoML", "ML automatizado" },
        aliases_zh = { "AutoML", "自动机器学习" },
    }
    
    data["automated model selection"] = {
        short = "The automated choice of a learning algorithm and its primary configuration—often jointly with hyperparameters as the Combined Algorithm Selection and Hyperparameter optimization problem—based on validation performance over a search space of candidate models.",
        article = nil,
        aliases = { "auto model selection", "automatic model selection", "CASH" },
        es = "Elección automatizada de un algoritmo de aprendizaje y su configuración principal —a menudo junto con los hiperparámetros, como el problema combinado de selección de algoritmo y optimización de hiperparámetros (CASH)— basándose en el desempeño de validación sobre un espacio de búsqueda de modelos candidatos.",
        zh = "基于在候选模型搜索空间上的验证性能,自动选择学习算法及其主要配置,通常与超参数联合优化(即CASH,组合算法选择与超参数优化问题)。",
        term_es = "selección automatizada de modelos",
        term_zh = "自动化模型选择",
        aliases_es = { "selección automática de modelos", "CASH" },
        aliases_zh = { "自动模型选择", "CASH" },
    }
    
    data["automated pipeline construction"] = {
        short = "The automated assembly of a sequence of preprocessing, feature-engineering, and modeling components into a complete machine-learning pipeline, jointly searched over operator choices and hyperparameters.",
        article = nil,
        aliases = { "automated ML pipeline construction", "automatic pipeline construction", "pipeline synthesis" },
        es = "Ensamblaje automatizado de una secuencia de componentes de preprocesamiento, ingeniería de características y modelado en una canalización de aprendizaje automático completa, buscada conjuntamente sobre las elecciones de operadores e hiperparámetros.",
        zh = "将预处理、特征工程和建模组件自动组装为完整的机器学习流水线,并在算子选择与超参数上进行联合搜索。",
        term_es = "construcción automatizada de pipelines",
        term_zh = "自动化流水线构建",
        aliases_es = { "construcción automática de pipelines", "síntesis de pipelines" },
        aliases_zh = { "自动流水线构建", "流水线合成" },
    }
    
    data["automated synthesis"] = {
        short = "The use of robotic platforms and software-driven workflows to plan and execute chemical reactions with minimal human intervention, often coupled with retrosynthesis models and inline analytics for closed-loop molecular discovery.",
        article = nil,
        aliases = { "Automated synthesis", "automated chemical synthesis", "robotic synthesis", "self-driving lab" },
        es = "Uso de plataformas robóticas y flujos de trabajo dirigidos por software para planificar y ejecutar reacciones químicas con mínima intervención humana, a menudo combinado con modelos de retrosíntesis y analítica en línea para el descubrimiento molecular en bucle cerrado.",
        zh = "利用机器人平台和软件驱动的工作流以最少的人工干预规划和执行化学反应,通常与逆合成模型和在线分析相结合,实现闭环分子发现。",
        term_es = "síntesis automatizada",
        term_zh = "自动化合成",
        aliases_es = { "síntesis química automatizada", "síntesis robótica", "laboratorio autónomo" },
        aliases_zh = { "自动化化学合成", "机器人合成", "自主实验室" },
    }
    
    data["automated theorem proving"] = {
        short = "ATP: the use of computer programs to construct formal proofs of mathematical statements; spans saturation-based first-order provers, tableau methods, SMT solvers, and modern neural-guided systems.",
        article = nil,
        aliases = { "ATP", "automated theorem proving", "automatic theorem proving", "machine theorem proving" },
        es = "ATP: el uso de programas informáticos para construir demostraciones formales de enunciados matemáticos; abarca demostradores de primer orden basados en saturación, métodos de tableaux, resolutores SMT y sistemas modernos guiados por redes neuronales.",
        zh = "ATP:使用计算机程序构造数学命题形式化证明的领域;涵盖基于饱和的一阶证明器、表方法、SMT 求解器以及现代神经引导系统。",
        term_es = "demostración automática de teoremas",
        term_zh = "自动定理证明",
        aliases_es = { "ATP", "demostración automática de teoremas", "prueba automática de teoremas" },
        aliases_zh = { "ATP", "自动定理证明", "自动机器定理证明" },
    }
    
    data["automatic concept extraction"] = {
        short = "Methods that automatically discover human-interpretable concepts from a trained model's activations, such as ACE, instead of requiring a predefined concept set.",
        article = nil,
        aliases = { "ACE", "automated concept extraction" },
        es = "Métodos que descubren automáticamente conceptos interpretables a partir de las activaciones de un modelo entrenado, como ACE, sin necesidad de un conjunto predefinido de conceptos.",
        zh = "从训练好的模型激活中自动发现可被人类理解的概念的方法(如 ACE),无需预先定义概念集合。",
        term_es = "extracción automática de conceptos",
        term_zh = "自动概念提取",
        aliases_es = { "ACE", "extracción automática de concepto" },
        aliases_zh = { "ACE", "自动化概念提取" },
    }
    
    data["automatic mixed precision"] = {
        short = "Framework support (e.g. PyTorch torch.cuda.amp, TensorFlow tf.keras.mixed_precision) that transparently casts operations between FP32 and FP16/BF16 according to per-op safety lists, removing the need for manual precision management.",
        article = nil,
        aliases = { "AMP", "Automatic Mixed Precision", "torch.amp", "torch.cuda.amp" },
        es = "Soporte de los frameworks (por ejemplo, torch.cuda.amp en PyTorch o tf.keras.mixed_precision en TensorFlow) que convierte automáticamente las operaciones entre FP32 y FP16/BF16 según listas de seguridad por operación, eliminando la necesidad de gestionar la precisión manualmente.",
        zh = "深度学习框架提供的功能(如 PyTorch 的 torch.cuda.amp、TensorFlow 的 tf.keras.mixed_precision),按操作级别的安全列表自动在 FP32 与 FP16/BF16 之间转换,省去手动管理精度的负担。",
        term_es = "precisión mixta automática",
        term_zh = "自动混合精度",
        aliases_es = { "AMP", "torch.cuda.amp" },
        aliases_zh = { "AMP", "torch.cuda.amp" },
    }
    
    data["automatic music transcription"] = {
        short = "The task of converting recorded music into a symbolic representation such as a score or MIDI file by detecting notes, onsets, durations, and instruments.",
        article = nil,
        aliases = { "AMT", "music transcription", "polyphonic music transcription", "automated music transcription" },
        es = "Tarea de convertir música grabada en una representación simbólica, como una partitura o un archivo MIDI, mediante la detección de notas, inicios, duraciones e instrumentos.",
        zh = "将录制的音乐转换为符号表示(如乐谱或 MIDI 文件)的任务,通过检测音符、起始、时长和乐器来完成。",
        term_es = "transcripción musical automática",
        term_zh = "自动音乐转录",
        aliases_es = { "AMT", "transcripción de música", "transcripción musical polifónica" },
        aliases_zh = { "AMT", "音乐转录", "复音音乐转录" },
    }
    
    data["automatic prompt engineering"] = {
        short = "A family of methods that automatically search for or optimize prompts for a target model, using techniques such as gradient-free search, LLM-driven proposal-and-scoring loops, or differentiable soft prompts.",
        article = nil,
        aliases = { "APE", "automated prompt engineering", "prompt optimization" },
        es = "Conjunto de métodos que buscan u optimizan automáticamente indicaciones (prompts) para un modelo objetivo, usando técnicas como búsqueda sin gradiente, ciclos de propuesta y evaluación guiados por un LLM, o prompts suaves diferenciables.",
        zh = "一类自动为目标模型搜索或优化提示词的方法,常用技术包括无梯度搜索、由 LLM 驱动的生成—评分循环以及可微分的软提示。",
        term_es = "ingeniería automática de prompts",
        term_zh = "自动提示工程",
        aliases_es = { "APE", "optimización de prompts" },
        aliases_zh = { "APE", "提示词自动优化", "自动化提示工程" },
    }
    
    data["automatic relevance determination"] = {
        short = "A Bayesian feature-selection technique that places a hierarchical Gaussian prior on weights with feature-specific precisions, so that inference shrinks irrelevant features' weights toward zero by driving their precisions large.",
        article = nil,
        aliases = { "ARD", "MacKay ARD", "relevance determination" },
        es = "Técnica bayesiana de selección de características que coloca un prior gaussiano jerárquico sobre los pesos con precisiones específicas por característica, de modo que la inferencia contrae hacia cero los pesos de las características irrelevantes al hacer crecer sus precisiones.",
        zh = "一种贝叶斯特征选择技术,对权重施加按特征不同精度的分层高斯先验,使推断通过将无关特征的精度推大而把其权重收缩到零附近。",
        term_es = "determinación automática de relevancia",
        term_zh = "自动相关性确定",
        aliases_es = { "ARD", "ARD de MacKay", "determinación de relevancia" },
        aliases_zh = { "ARD", "MacKay ARD", "相关性自动确定" },
    }
    
    data["automation bias"] = {
        short = "The cognitive tendency of human operators to over-rely on outputs from automated systems, accepting algorithmic recommendations without sufficient scrutiny even when contradictory evidence is available.",
        article = nil,
        aliases = { "automation-induced bias", "complacency bias" },
        es = "Tendencia cognitiva de los operadores humanos a confiar excesivamente en las salidas de sistemas automatizados, aceptando recomendaciones algorítmicas sin suficiente escrutinio incluso cuando existe evidencia contradictoria.",
        zh = "人类操作者过度依赖自动化系统输出的认知倾向,即使存在相反证据,也会在缺乏充分审查的情况下接受算法建议。",
        term_es = "sesgo de automatización",
        term_zh = "自动化偏差",
        aliases_es = { "sesgo por automatización" },
        aliases_zh = { "自动化偏见" },
    }
    
    data["automl benchmark"] = {
        short = "A standardized benchmark suite for evaluating AutoML systems on a fixed set of tabular tasks, time budgets, and evaluation metrics, exemplified by the OpenML AutoML Benchmark introduced by Gijsbers et al. (2019).",
        article = nil,
        aliases = { "AutoML Benchmark", "AMLB", "OpenML AutoML Benchmark" },
        es = "Conjunto estandarizado de pruebas para evaluar sistemas de AutoML sobre un conjunto fijo de tareas tabulares, presupuestos de tiempo y métricas de evaluación, ejemplificado por el OpenML AutoML Benchmark presentado por Gijsbers et al. (2019).",
        zh = "用于评估AutoML系统的标准化基准套件,固定一组表格任务、时间预算和评估指标,典型代表是Gijsbers等人(2019)提出的OpenML AutoML基准。",
        term_es = "AutoML Benchmark",
        term_zh = "AutoML基准",
        aliases_es = { "banco de pruebas de AutoML", "AMLB" },
        aliases_zh = { "AutoML基准测试", "AMLB" },
    }
    
    data["automl-gs"] = {
        short = "An open-source AutoML tool that generates training pipelines for tabular data, producing self-contained Python code for gradient-boosted and neural baselines that can be edited by hand.",
        article = nil,
        aliases = { "automl gs", "AutoML-GS" },
        es = "Herramienta de AutoML de código abierto que genera pipelines de entrenamiento para datos tabulares, produciendo código Python autocontenido con líneas base de árboles potenciados y redes neuronales que pueden editarse manualmente.",
        zh = "一种开源AutoML工具,为表格数据生成训练流水线,输出自包含的Python代码,包含可手工修改的梯度提升和神经网络基线。",
        term_es = "automl-gs",
        term_zh = "automl-gs",
        aliases_es = { "AutoML-GS" },
        aliases_zh = { "AutoML-GS" },
    }
    
    data["automl-zero"] = {
        short = "An AutoML approach that evolves entire machine learning algorithms from scratch using only basic mathematical primitives, demonstrating that methods such as backpropagation can emerge from search alone.",
        article = nil,
        aliases = { "automl zero", "AutoML-Zero" },
        es = "Enfoque de AutoML que evoluciona algoritmos de aprendizaje automático completos desde cero utilizando únicamente primitivas matemáticas básicas, mostrando que métodos como la retropropagación pueden emerger únicamente de la búsqueda.",
        zh = "一种AutoML方法,仅使用基本数学原语从零开始进化出完整的机器学习算法,证明反向传播等方法可以仅通过搜索而涌现。",
        term_es = "automl-zero",
        term_zh = "automl-zero",
        aliases_es = { "AutoML-Zero" },
        aliases_zh = { "AutoML-Zero" },
    }
    
    data["autonomy assumption"] = {
        short = "The assumption that each structural equation in a causal model represents an autonomous mechanism that can be intervened on or replaced without altering the others; underlies the modular semantics of the do-operator and the validity of counterfactual reasoning.",
        article = nil,
        aliases = { "modularity assumption", "autonomy of mechanisms", "modularity of mechanisms", "independent mechanisms assumption" },
        es = "Supuesto de que cada ecuación estructural de un modelo causal representa un mecanismo autónomo que puede intervenirse o sustituirse sin alterar las demás; sustenta la semántica modular del operador do y la validez del razonamiento contrafáctico.",
        zh = "假设因果模型中每条结构方程都表示一个自主的机制,对其进行干预或替换不会改变其他方程;这是 do 算子模块化语义和反事实推理有效性的基础。",
        term_es = "supuesto de autonomía",
        term_zh = "自主性假设",
        aliases_es = { "supuesto de modularidad", "autonomía de los mecanismos", "modularidad de los mecanismos", "supuesto de mecanismos independientes" },
        aliases_zh = { "模块化假设", "机制自主性", "机制模块化", "独立机制假设" },
    }
    
    data["autoregressive hidden markov model"] = {
        short = "A hidden Markov model whose observations depend not only on the latent state but also on a fixed window of previous observations, capturing local temporal dynamics within each regime.",
        article = nil,
        aliases = { "AR-HMM", "ARHMM", "autoregressive HMM" },
        es = "Modelo oculto de Markov en el que las observaciones dependen no solo del estado latente sino también de una ventana fija de observaciones previas, capturando la dinámica temporal local dentro de cada régimen.",
        zh = "一种隐马尔可夫模型,其观测不仅依赖于隐状态,还依赖于固定长度的过去观测窗口,从而在每个状态下捕捉局部时序动态。",
        term_es = "HMM autorregresivo",
        term_zh = "自回归隐马尔可夫模型",
        aliases_es = { "AR-HMM", "ARHMM" },
        aliases_zh = { "AR-HMM", "ARHMM", "自回归 HMM" },
    }
    
    data["autoregressive model"] = {
        short = "A generative model that factorizes the joint distribution over a sequence as a product of conditionals p(x) = ∏ᵢ p(xᵢ | x<ᵢ) and generates one element at a time by sampling from each conditional in turn. Examples include PixelRNN, WaveNet, and GPT-style language models.",
        article = nil,
        aliases = { "AR model", "autoregressive generative model", "auto-regressive model" },
        es = "Modelo generativo que factoriza la distribución conjunta sobre una secuencia como producto de condicionales p(x) = ∏ᵢ p(xᵢ | x<ᵢ) y genera un elemento a la vez muestreando de cada condicional en orden. Ejemplos: PixelRNN, WaveNet y los modelos de lenguaje tipo GPT.",
        zh = "自回归生成模型:将序列上的联合分布分解为条件概率之积 p(x) = ∏ᵢ p(xᵢ | x<ᵢ),并按顺序逐元素采样以生成样本。代表模型包括 PixelRNN、WaveNet 以及 GPT 系列语言模型。",
        term_es = "modelo autorregresivo",
        term_zh = "自回归模型",
        aliases_es = { "modelo AR", "modelo generativo autorregresivo" },
        aliases_zh = { "AR 模型", "自回归生成模型" },
    }
    
    data["autoregressive predictive coding"] = {
        short = "A self-supervised speech representation learning method that trains a recurrent or transformer encoder to predict future spectral frames from past context, producing features useful for downstream speech tasks.",
        article = nil,
        aliases = { "APC", "autoregressive predictive coding APC", "future-frame predictive coding" },
        es = "Método de aprendizaje autosupervisado de representaciones del habla que entrena un codificador recurrente o transformador para predecir los siguientes cuadros espectrales a partir del contexto pasado, produciendo características útiles para tareas posteriores de habla.",
        zh = "一种自监督语音表示学习方法,训练循环或 Transformer 编码器根据过去的上下文预测未来的频谱帧,从而产生对下游语音任务有用的特征。",
        term_es = "codificación predictiva autorregresiva",
        term_zh = "自回归预测编码",
        aliases_es = { "APC", "codificación predictiva autorregresiva APC" },
        aliases_zh = { "APC", "自回归预测编码 APC" },
    }
    
    data["autoregressive process"] = {
        short = "A stochastic process in which each value is a linear combination of a fixed number of previous values plus white noise, giving the AR(p) family widely used in time-series analysis.",
        article = nil,
        aliases = { "AR process", "AR(p)", "autoregression", "autoregressive model" },
        es = "Proceso estocástico en el que cada valor es una combinación lineal de un número fijo de valores anteriores más ruido blanco, dando lugar a la familia AR(p) ampliamente usada en análisis de series temporales.",
        zh = "一类随机过程,每个取值由若干历史取值的线性组合加上白噪声构成,构成时间序列分析中常用的 AR(p) 家族。",
        term_es = "proceso autorregresivo",
        term_zh = "自回归过程",
        aliases_es = { "AR(p)", "modelo autorregresivo", "proceso AR" },
        aliases_zh = { "AR 过程", "AR(p) 过程", "自回归模型" },
    }
    
    data["autoregressive tts"] = {
        short = "A class of text-to-speech systems that generate the output waveform or acoustic features one frame or token at a time, conditioning each step on previously generated outputs. Examples include Tacotron 2 and Bark.",
        article = nil,
        aliases = { "autoregressive text-to-speech", "AR TTS", "autoregressive speech synthesis", "AR text-to-speech" },
        es = "Clase de sistemas de texto a voz que generan la forma de onda o las características acústicas de salida un cuadro o token a la vez, condicionando cada paso en las salidas previamente generadas. Ejemplos incluyen Tacotron 2 y Bark.",
        zh = "一类文本到语音系统,逐帧或逐令牌生成输出波形或声学特征,每一步都以先前生成的输出为条件。代表性模型包括 Tacotron 2 和 Bark。",
        term_es = "TTS autorregresivo",
        term_zh = "自回归 TTS",
        aliases_es = { "texto a voz autorregresivo", "síntesis de voz autorregresiva", "AR TTS" },
        aliases_zh = { "自回归文本到语音", "自回归语音合成", "AR TTS" },
    }
    
    data["autoslim"] = {
        short = "A network slimming method that automatically determines optimal channel widths layer-by-layer under a resource constraint by training a single slimmable network and selecting widths greedily.",
        article = nil,
        aliases = { "AutoSlim", "auto-slim" },
        es = "Método de poda de redes que determina automáticamente el ancho de canales óptimo capa por capa bajo una restricción de recursos, entrenando una única red ajustable y seleccionando los anchos de forma voraz.",
        zh = "一种网络瘦身方法,通过训练一个可伸缩网络并贪心选择各层通道宽度,在资源约束下自动确定每层的最优通道数。",
        term_es = "AutoSlim",
        term_zh = "AutoSlim",
        aliases_es = { "auto-slim" },
        aliases_zh = { "auto-slim" },
    }
    
    data["autovc"] = {
        short = "A non-parallel voice conversion model based on an autoencoder with a carefully tuned information bottleneck that disentangles speaker identity from linguistic content, allowing zero-shot conversion to unseen target speakers.",
        article = nil,
        aliases = { "AutoVC", "Auto-VC", "autoencoder voice conversion AutoVC" },
        es = "Modelo de conversión de voz no paralela basado en un autoencoder con un cuello de botella de información cuidadosamente ajustado, que separa la identidad del hablante del contenido lingüístico y permite la conversión zero-shot a hablantes objetivo no vistos.",
        zh = "一种基于自编码器的非平行语音转换模型,通过精心调节的信息瓶颈将说话人身份与语言内容解耦,实现对未见目标说话人的零样本转换。",
        term_es = "AutoVC",
        term_zh = "AutoVC",
        aliases_es = { "Auto-VC", "modelo AutoVC" },
        aliases_zh = { "Auto-VC", "AutoVC 模型" },
    }
    
    data["auxiliary particle filter"] = {
        short = "A sequential Monte Carlo method, due to Pitt and Shephard, that uses an auxiliary variable indicating the parent particle to focus resampling on particles likely to be consistent with the next observation.",
        article = nil,
        aliases = { "APF", "auxiliary SIR", "Pitt-Shephard particle filter" },
        es = "Método de Monte Carlo secuencial, debido a Pitt y Shephard, que emplea una variable auxiliar que indica la partícula padre para concentrar el remuestreo en partículas con probabilidad de ser coherentes con la siguiente observación.",
        zh = "由 Pitt 与 Shephard 提出的一种序贯蒙特卡洛方法,通过引入指示父粒子的辅助变量,使重采样集中于可能与下一次观测一致的粒子。",
        term_es = "filtro de partículas auxiliar",
        term_zh = "辅助粒子滤波器",
        aliases_es = { "APF", "filtro de partículas auxiliar de Pitt-Shephard" },
        aliases_zh = { "APF", "辅助粒子滤波", "Pitt-Shephard 粒子滤波" },
    }
    
    data["avalon fingerprint"] = {
        short = "A substructure-based molecular fingerprint generated by the Avalon Cheminformatics Toolkit, encoding 16 classes of molecular features including atom pairs, paths, rings, and pharmacophore-style patterns.",
        article = nil,
        aliases = { "Avalon fingerprint", "Avalon FP" },
        es = "Una huella molecular basada en subestructuras generada por el Avalon Cheminformatics Toolkit, que codifica 16 clases de características moleculares incluyendo pares de átomos, caminos, anillos y patrones de tipo farmacóforo.",
        zh = "由 Avalon 化学信息学工具包生成的基于子结构的分子指纹,编码 16 类分子特征,包括原子对、路径、环和类药效团模式。",
        term_es = "huella Avalon",
        term_zh = "Avalon 指纹",
        aliases_es = { "fingerprint Avalon", "huella molecular Avalon" },
        aliases_zh = { "Avalon 分子指纹", "Avalon FP" },
    }
    
    data["average causal effect"] = {
        short = "The expectation over the population of the individual causal effect of a treatment, E[Y(1) − Y(0)] in the potential outcomes framework, equivalently E[Y | do(X=1)] − E[Y | do(X=0)] under structural causal models.",
        article = nil,
        aliases = { "ACE", "average treatment effect", "ATE", "mean causal effect", "expected causal effect" },
        es = "Esperanza, sobre la población, del efecto causal individual de un tratamiento, E[Y(1) − Y(0)] en el marco de resultados potenciales, equivalentemente E[Y | do(X=1)] − E[Y | do(X=0)] bajo modelos causales estructurales.",
        zh = "在总体上对个体因果效应取期望,即潜在结果框架下的 E[Y(1) − Y(0)];在结构因果模型下等价于 E[Y | do(X=1)] − E[Y | do(X=0)]。",
        term_es = "efecto causal medio",
        term_zh = "平均因果效应",
        aliases_es = { "ACE", "efecto medio del tratamiento", "ATE", "efecto causal promedio", "efecto causal esperado" },
        aliases_zh = { "ACE", "平均处理效应", "ATE", "因果效应均值", "期望因果效应" },
    }
    
    data["average derivative"] = {
        short = "The population-mean partial derivative of the conditional expectation of an outcome with respect to a covariate, E[∂E[Y | X] / ∂X_j]; a target parameter for nonparametric and semiparametric inference, often estimated with debiased machine learning.",
        article = nil,
        aliases = { "average partial derivative", "average partial effect", "mean derivative", "average marginal effect" },
        es = "Derivada parcial media en la población de la esperanza condicional de un resultado con respecto a una covariable, E[∂E[Y | X] / ∂X_j]; constituye un parámetro objetivo en inferencia no paramétrica y semiparamétrica, frecuentemente estimado con aprendizaje automático debiesgado.",
        zh = "总体上结果条件期望关于某协变量的平均偏导数 E[∂E[Y | X] / ∂X_j];作为非参数和半参数推断中的目标参数,常用去偏机器学习方法进行估计。",
        term_es = "derivada media",
        term_zh = "平均导数",
        aliases_es = { "derivada parcial media", "efecto parcial medio", "efecto marginal medio" },
        aliases_zh = { "平均偏导数", "平均偏效应", "平均边际效应" },
    }
    
    data["average pooling"] = {
        short = "A pooling operation that outputs the arithmetic mean of the values within each local spatial window of the input feature map, smoothing activations while reducing spatial dimensions.",
        article = nil,
        aliases = { "avgpool", "avg pooling", "average-pooling", "mean pooling", "AvgPool" },
        es = "Operación de pooling que devuelve la media aritmética de los valores dentro de cada ventana espacial local del mapa de características de entrada, suavizando las activaciones mientras reduce las dimensiones espaciales.",
        zh = "一种池化操作,输出输入特征图每个局部空间窗口内数值的算术平均值,在降低空间维度的同时平滑激活。",
        term_es = "average pooling",
        term_zh = "平均池化",
        aliases_es = { "agrupación promedio", "pooling promedio", "pooling de promedio" },
        aliases_zh = { "average pooling", "均值池化" },
    }
    
    data["average precision"] = {
        short = "A scalar summary of the precision–recall curve, computed as the weighted mean of precisions at each threshold, with weights equal to the increase in recall. Often used as a numerical proxy for AUPRC.",
        article = nil,
        aliases = { "AP", "average-precision" },
        es = "Resumen escalar de la curva precisión–exhaustividad, calculado como la media ponderada de las precisiones en cada umbral, con pesos iguales al incremento de recall. Suele emplearse como aproximación numérica del AUPRC.",
        zh = "精确率—召回率曲线的标量汇总,计算方法为各阈值下精确率的加权平均,权重等于召回率的增量。常用作 AUPRC 的数值近似。",
        term_es = "precisión promedio",
        term_zh = "平均精度",
        aliases_es = { "AP", "precisión media" },
        aliases_zh = { "AP", "average precision", "平均精确率" },
    }
    
    data["average treatment effect"] = {
        short = "The expectation over the population of the difference in potential outcomes between treatment and control, E[Y(1) − Y(0)]; the canonical population-level causal estimand.",
        article = nil,
        aliases = { "ATE", "average causal effect", "ACE", "mean treatment effect", "population average treatment effect", "PATE" },
        es = "Esperanza en la población de la diferencia de resultados potenciales entre tratamiento y control, E[Y(1) − Y(0)]; es el estimando causal canónico a nivel poblacional.",
        zh = "总体上处理与对照下潜在结果之差的期望 E[Y(1) − Y(0)],是最典型的总体层面因果估计量。",
        term_es = "efecto medio del tratamiento",
        term_zh = "平均处理效应",
        aliases_es = { "ATE", "efecto causal medio", "ACE", "efecto medio del tratamiento poblacional", "PATE" },
        aliases_zh = { "ATE", "平均因果效应", "ACE", "总体平均处理效应", "PATE" },
    }
    
    data["average treatment effect on the controls"] = {
        short = "The expected potential-outcome difference among the untreated subpopulation, E[Y(1) − Y(0) | X = 0]; useful for asking what effect would have occurred had the controls been treated.",
        article = nil,
        aliases = { "ATC", "ATU", "average treatment effect on controls", "average treatment effect on the untreated", "ATE on the controls", "ATE on the untreated" },
        es = "Diferencia esperada de resultados potenciales en la subpoblación no tratada, E[Y(1) − Y(0) | X = 0]; resulta útil para responder qué efecto habría ocurrido si los controles hubieran sido tratados.",
        zh = "未受处理子总体上潜在结果差的期望 E[Y(1) − Y(0) | X = 0];用于回答“如果对照组当时也接受处理会产生什么效应”这一问题。",
        term_es = "efecto medio del tratamiento sobre los controles",
        term_zh = "对照组平均处理效应",
        aliases_es = { "ATC", "ATU", "efecto medio del tratamiento sobre los no tratados", "ATE sobre los controles" },
        aliases_zh = { "ATC", "ATU", "未处理者平均处理效应", "对照上的 ATE", "未处理组的 ATE" },
    }
    
    data["average treatment effect on the overlap"] = {
        short = "A weighted average treatment effect over the population using overlap weights e(X)(1 − e(X)), which downweight units with extreme propensity scores; minimizes asymptotic variance among balancing-weight estimands.",
        article = nil,
        aliases = { "ATO", "overlap weighted ATE", "overlap-weighted ATE", "ATE on the overlap population" },
        es = "Efecto medio del tratamiento ponderado en la población mediante pesos de solapamiento e(X)(1 − e(X)), que reducen el peso de las unidades con puntajes de propensión extremos; minimiza la varianza asintótica entre los estimandos con pesos de balance.",
        zh = "使用重叠权重 e(X)(1 − e(X)) 在总体上加权得到的平均处理效应;该权重会降低倾向得分极端的样本的影响,并在平衡权重类估计量中具有最小的渐近方差。",
        term_es = "efecto medio del tratamiento sobre el solapamiento",
        term_zh = "重叠平均处理效应",
        aliases_es = { "ATO", "ATE con pesos de solapamiento", "ATE sobre la población de solapamiento" },
        aliases_zh = { "ATO", "重叠加权 ATE", "重叠人群 ATE" },
    }
    
    data["average treatment effect on the treated"] = {
        short = "The expected potential-outcome difference among the treated subpopulation, E[Y(1) − Y(0) | X = 1]; the relevant estimand when the policy question concerns those who actually received treatment.",
        article = nil,
        aliases = { "ATT", "average treatment effect on treated", "ATET", "ATE on the treated", "treatment-on-treated effect" },
        es = "Diferencia esperada de resultados potenciales en la subpoblación tratada, E[Y(1) − Y(0) | X = 1]; es el estimando relevante cuando la pregunta de política se refiere a quienes efectivamente recibieron el tratamiento.",
        zh = "受处理子总体上潜在结果差的期望 E[Y(1) − Y(0) | X = 1];当政策问题关注实际接受处理者时,该估计量最为相关。",
        term_es = "efecto medio del tratamiento sobre los tratados",
        term_zh = "处理组平均处理效应",
        aliases_es = { "ATT", "ATET", "ATE sobre los tratados", "efecto del tratamiento sobre los tratados" },
        aliases_zh = { "ATT", "ATET", "处理者上的 ATE", "受处理者平均处理效应" },
    }
    
    data["averaged one-dependence estimator"] = {
        short = "A semi-naive Bayes classifier that averages the predictions of multiple one-dependence estimators, each conditioning every attribute on the class plus one other attribute, yielding strong accuracy with low variance.",
        article = nil,
        aliases = { "AODE", "AODE classifier", "averaged ODE" },
        es = "Clasificador bayesiano seminaif que promedia las predicciones de varios estimadores de una dependencia, cada uno condicionando todos los atributos en la clase y un atributo adicional, ofreciendo alta precisión con baja varianza.",
        zh = "一种半朴素贝叶斯分类器,将多个一阶依赖估计器的预测进行平均,每个估计器都让所有属性以类别和一个其他属性为条件,从而以低方差获得较高的精度。",
        term_es = "AODE",
        term_zh = "AODE",
        aliases_es = { "estimador promedio de una dependencia", "clasificador AODE" },
        aliases_zh = { "AODE 分类器", "平均一阶依赖估计器" },
    }
    
    data["averaged perceptron"] = {
        short = "A variant of the perceptron algorithm whose final weight vector is the average of all weight vectors visited during training, yielding better generalization than the last weight vector while requiring no extra passes over the data.",
        article = nil,
        aliases = { "averaged perceptron algorithm", "Collins averaged perceptron", "voted-averaged perceptron" },
        es = "Variante del algoritmo perceptrón cuyo vector de pesos final es el promedio de todos los vectores de pesos visitados durante el entrenamiento, logrando mejor generalización que el último vector sin requerir pasadas adicionales por los datos.",
        zh = "感知机算法的一种变体,最终权重向量取训练期间访问的所有权重向量的平均值,在不增加数据遍历次数的前提下比单纯使用最终权重具有更好的泛化能力。",
        term_es = "perceptrón promediado",
        term_zh = "平均感知机",
        aliases_es = { "perceptrón promedio", "perceptrón de Collins" },
        aliases_zh = { "平均感知器", "Collins 平均感知机" },
    }
    
    data["awq"] = {
        short = "Activation-aware Weight Quantization (Lin et al., 2023): a post-training weight-only quantization method that protects the small fraction of weight channels with the largest activations by per-channel scaling, achieving accurate 4-bit LLM inference.",
        article = nil,
        aliases = { "AWQ", "Activation-aware Weight Quantization", "Activation Aware Weight Quantization" },
        es = "Activation-aware Weight Quantization (Lin et al., 2023): método de cuantización solo de pesos posterior al entrenamiento que protege la pequeña fracción de canales de pesos con las activaciones más grandes mediante escalado por canal, permitiendo inferencia precisa de LLM en 4 bits.",
        zh = "Lin 等人于 2023 年提出的激活感知权重量化(Activation-aware Weight Quantization):一种训练后仅权重量化方法,通过按通道缩放保护少数激活幅度最大的权重通道,可在 4 位下保持 LLM 推理精度。",
        term_es = "AWQ",
        term_zh = "AWQ",
        aliases_es = { "cuantización AWQ", "cuantización de pesos consciente de activaciones" },
        aliases_zh = { "AWQ 量化", "激活感知权重量化" },
    }
    
    data["axiom of choice"] = {
        short = "A foundational axiom of set theory asserting that for any collection of nonempty sets there exists a function selecting one element from each; equivalent to Zorn's lemma and the well-ordering theorem.",
        article = nil,
        aliases = { "AC", "Axiom of Choice" },
        es = "Axioma fundacional de la teoría de conjuntos que afirma que, para toda colección de conjuntos no vacíos, existe una función que selecciona un elemento de cada uno; equivalente al lema de Zorn y al teorema del buen orden.",
        zh = "集合论的一条基础公理,断言对任意一族非空集合,都存在一个从每个集合中各选一个元素的函数;它等价于 Zorn 引理和良序定理。",
        term_es = "axioma de elección",
        term_zh = "选择公理",
        aliases_es = { "AC", "axioma de la elección" },
        aliases_zh = { "AC", "选择公理" },
    }
    
    data["axiomatic attribution"] = {
        short = "An attribution framework that requires methods to satisfy formal axioms such as sensitivity, implementation invariance, and completeness; integrated gradients is a canonical example.",
        article = nil,
        aliases = { "axiomatic attribution methods" },
        es = "Marco de atribución que exige que los métodos satisfagan axiomas formales como sensibilidad, invariancia bajo implementación y completitud; los gradientes integrados son un ejemplo canónico.",
        zh = "一种归因框架,要求方法满足敏感性、实现不变性、完备性等形式化公理,integrated gradients 是其代表性方法。",
        term_es = "atribución axiomática",
        term_zh = "公理化归因",
        aliases_es = { "métodos de atribución axiomática" },
        aliases_zh = { "公理归因", "公理化归因方法" },
    }
    
    data["aya expanse"] = {
        short = "A multilingual instruction-tuned LLM family from Cohere for AI covering 23 languages, distilled from larger Aya models and released with open weights.",
        article = nil,
        aliases = { "Aya Expanse", "Aya-Expanse" },
        es = "Familia de LLMs multilingües ajustados por instrucciones de Cohere for AI que cubre 23 idiomas, destilada a partir de modelos Aya más grandes y publicada con pesos abiertos.",
        zh = "Cohere for AI 推出的多语言指令微调大模型家族,覆盖 23 种语言,由更大规模的 Aya 模型蒸馏而来并以开源权重发布。",
        term_es = "Aya Expanse",
        term_zh = "Aya Expanse",
        aliases_es = { "Aya-Expanse" },
        aliases_zh = { "Aya-Expanse" },
    }
    
    data["b-cell epitope"] = {
        short = "The portion of an antigen recognized by a B-cell receptor or its secreted antibody, often a discontinuous (conformational) surface patch on the folded antigen, in contrast to the linear peptides recognized by T cells via MHC.",
        article = nil,
        aliases = { "B cell epitope", "B-cell epitope", "BCR epitope", "antibody epitope", "conformational B-cell epitope" },
        es = "Porción de un antígeno reconocida por un receptor de células B o su anticuerpo secretado, a menudo una región superficial discontinua (conformacional) del antígeno plegado, a diferencia de los péptidos lineales reconocidos por las células T vía MHC.",
        zh = "被 B 细胞受体或其分泌的抗体所识别的抗原区域,通常为折叠抗原表面的不连续(构象性)区域;这与 T 细胞通过 MHC 识别的线性肽段不同。",
        term_es = "epítopo de células B",
        term_zh = "B 细胞表位",
        aliases_es = { "epítopo de linfocitos B", "epítopo conformacional de células B", "epítopo de anticuerpo" },
        aliases_zh = { "B-cell 表位", "抗体表位", "构象性 B 细胞表位" },
    }
    
    data["babi tasks"] = {
        short = "A suite of 20 synthetic text-based question-answering tasks released by Facebook AI Research to test machine reading comprehension and reasoning capabilities such as counting, induction, deduction, and path finding.",
        article = nil,
        aliases = { "bAbI", "bAbI tasks", "bAbI dataset", "bAbI-20", "Facebook bAbI" },
        es = "Un conjunto de 20 tareas sintéticas de pregunta-respuesta basadas en texto, publicadas por Facebook AI Research para evaluar la comprensión lectora y capacidades de razonamiento como conteo, inducción, deducción y búsqueda de caminos.",
        zh = "由 Facebook AI Research 发布的 20 个合成文本问答任务集合,用于测试机器阅读理解和推理能力,如计数、归纳、演绎和路径查找。",
        term_es = "tareas bAbI",
        term_zh = "bAbI 任务",
        aliases_es = { "bAbI", "conjunto bAbI", "tareas bAbI-20" },
        aliases_zh = { "bAbI", "bAbI 任务集", "bAbI 数据集" },
    }
    
    data["bace dataset"] = {
        short = "A MoleculeNet benchmark of 1,513 small molecules with measured binding affinities and binary inhibition labels for human β-secretase 1 (BACE-1), a target for Alzheimer's disease drug discovery.",
        article = nil,
        aliases = { "BACE", "BACE dataset", "BACE-1 dataset" },
        es = "Un conjunto de datos de referencia de MoleculeNet con 1.513 moléculas pequeñas con afinidades de unión medidas y etiquetas binarias de inhibición para la β-secretasa 1 humana (BACE-1), un objetivo para el descubrimiento de fármacos contra la enfermedad de Alzheimer.",
        zh = "MoleculeNet 中包含 1,513 个小分子的基准数据集,提供针对人类 β-分泌酶 1(BACE-1)的实测结合亲和力和二元抑制标签,BACE-1 是阿尔茨海默病药物发现的靶点。",
        term_es = "conjunto de datos BACE",
        term_zh = "BACE 数据集",
        aliases_es = { "BACE", "dataset BACE", "conjunto BACE-1" },
        aliases_zh = { "BACE", "BACE-1 数据集" },
    }
    
    data["back-translation"] = {
        short = "A data-augmentation technique for machine translation: a target-to-source model translates monolingual target-language text into synthetic source sentences, which are then paired with the originals to enlarge the source-to-target training set.",
        article = nil,
        aliases = { "back translation", "Back-Translation", "back-translation augmentation", "BT" },
        es = "Técnica de aumento de datos para traducción automática: un modelo de destino a fuente traduce texto monolingüe del idioma destino para generar oraciones fuente sintéticas, que luego se emparejan con las originales para ampliar el conjunto de entrenamiento de fuente a destino.",
        zh = "机器翻译中的一种数据增强技术:使用目标到源的模型将目标语言的单语文本翻译为合成的源语言句子,再与原文配对,以扩充源到目标的训练数据集。",
        term_es = "retrotraducción",
        term_zh = "回译",
        aliases_es = { "back-translation", "back translation", "traducción inversa", "BT" },
        aliases_zh = { "back-translation", "BT", "反向翻译", "逆向翻译" },
    }
    
    data["backbone diffusion"] = {
        short = "A class of generative models (e.g., RFdiffusion, Chroma) that produce protein backbone coordinates by iteratively denoising 3D structures, used for de novo protein design and binder generation.",
        article = nil,
        aliases = { "Backbone diffusion", "protein backbone diffusion" },
        es = "Una clase de modelos generativos (por ejemplo, RFdiffusion, Chroma) que producen coordenadas del esqueleto proteico mediante el denoising iterativo de estructuras 3D, usados para diseño de proteínas de novo y generación de unidores.",
        zh = "一类通过迭代去噪三维结构来生成蛋白质骨架坐标的生成模型(如 RFdiffusion、Chroma),用于从头蛋白质设计和结合蛋白生成。",
        term_es = "difusión de esqueleto",
        term_zh = "骨架扩散",
        aliases_es = { "difusión de esqueleto proteico", "difusión de backbone" },
        aliases_zh = { "蛋白质骨架扩散", "backbone 扩散" },
    }
    
    data["backdoor adjustment"] = {
        short = "Identification of a causal effect by conditioning on a set Z that satisfies the backdoor criterion — Z blocks every path with an arrow into the treatment and contains no descendants of treatment — yielding P(Y | do(X=x)) = Σ_z P(Y | X=x, Z=z) P(Z=z).",
        article = nil,
        aliases = { "backdoor criterion adjustment", "back-door adjustment", "back door adjustment", "backdoor formula", "covariate adjustment by backdoor", "Pearl's backdoor adjustment" },
        es = "Identificación de un efecto causal mediante el condicionamiento por un conjunto Z que satisface el criterio de puerta trasera — Z bloquea todo camino con una flecha entrante al tratamiento y no contiene descendientes del tratamiento — y proporciona P(Y | do(X=x)) = Σ_z P(Y | X=x, Z=z) P(Z=z).",
        zh = "通过对满足后门准则的集合 Z 取条件来识别因果效应:Z 阻断所有指向处理的路径,且不包含处理的后代;由此得到 P(Y | do(X=x)) = Σ_z P(Y | X=x, Z=z) P(Z=z)。",
        term_es = "ajuste por puerta trasera",
        term_zh = "后门调整",
        aliases_es = { "ajuste por criterio de puerta trasera", "fórmula de puerta trasera", "ajuste por covariables por puerta trasera", "ajuste de Pearl por puerta trasera" },
        aliases_zh = { "后门准则调整", "后门公式", "Pearl 后门调整", "基于后门的协变量调整" },
    }
    
    data["backdoor adjustment for fairness"] = {
        short = "A causal-inference technique applied to fairness analysis that blocks confounding paths between a sensitive attribute and an outcome by conditioning on (adjusting for) variables that satisfy the back-door criterion in a causal graph.",
        article = nil,
        aliases = { "back-door adjustment", "backdoor criterion adjustment" },
        es = "Técnica de inferencia causal aplicada al análisis de equidad que bloquea las rutas confusoras entre un atributo sensible y un resultado, condicionando sobre variables que satisfacen el criterio de puerta trasera en un grafo causal.",
        zh = "应用于公平性分析的因果推断技术,通过对满足因果图中后门准则的变量进行条件化(调整),阻断敏感属性与结果之间的混杂路径。",
        term_es = "ajuste de puerta trasera para equidad",
        term_zh = "公平性后门调整",
        aliases_es = { "ajuste back-door", "ajuste backdoor" },
        aliases_zh = { "后门调整", "后门准则调整" },
    }
    
    data["backdoor attack federated"] = {
        short = "A poisoning attack on federated learning in which a malicious client crafts updates so that the global model misclassifies inputs containing a specific trigger while behaving normally on clean data.",
        article = nil,
        aliases = { "federated backdoor attack", "backdoor attack in FL", "FL backdoor attack" },
        es = "Ataque de envenenamiento contra el aprendizaje federado en el que un cliente malicioso elabora actualizaciones para que el modelo global clasifique incorrectamente entradas con un disparador específico, mientras se comporta normalmente con datos limpios.",
        zh = "针对联邦学习的投毒攻击:恶意客户端精心构造更新,使全局模型在含有特定触发器的输入上发生误分类,而对干净数据保持正常表现。",
        term_es = "ataque de puerta trasera federado",
        term_zh = "联邦后门攻击",
        aliases_es = { "ataque backdoor federado", "puerta trasera en aprendizaje federado" },
        aliases_zh = { "联邦学习后门攻击", "FL 后门攻击" },
    }
    
    data["backdoor criterion"] = {
        short = "Pearl's graphical criterion for identifying a sufficient adjustment set: a set Z satisfies it relative to (X,Y) if no node in Z is a descendant of X and Z blocks every backdoor path from X to Y.",
        article = nil,
        aliases = { "Pearl's backdoor criterion", "back-door criterion" },
        es = "Criterio gráfico de Pearl para identificar un conjunto de ajuste suficiente: un conjunto Z lo cumple respecto a (X,Y) si ningún nodo de Z es descendiente de X y Z bloquea toda trayectoria de puerta trasera entre X e Y.",
        zh = "Pearl 提出的图形化判据,用于识别充分调整集:若集合 Z 中的节点都不是 X 的后代,且 Z 阻断了从 X 到 Y 的所有后门路径,则 Z 相对于 (X,Y) 满足后门判据。",
        term_es = "criterio de puerta trasera",
        term_zh = "后门判据",
        aliases_es = { "criterio backdoor", "criterio de Pearl" },
        aliases_zh = { "后门准则", "Pearl 后门判据" },
    }
    
    data["backdoor llm attack"] = {
        short = "A poisoning attack in which an adversary plants a hidden trigger in an LLM's training or fine-tuning data so that specific inputs at inference time elicit attacker-chosen behavior while the model behaves normally otherwise.",
        article = nil,
        aliases = { "LLM backdoor attack", "backdoor attack on LLMs", "trojan LLM attack" },
        es = "Ataque de envenenamiento en el que un adversario inserta un disparador oculto en los datos de entrenamiento o ajuste fino de un LLM, de modo que entradas específicas en inferencia provocan un comportamiento elegido por el atacante, mientras el modelo se comporta con normalidad en los demás casos.",
        zh = "一种投毒攻击:攻击者在大语言模型的训练或微调数据中埋入隐藏触发器,使得推理时特定输入会触发攻击者预设的行为,而模型在其他情况下表现正常。",
        term_es = "ataque de puerta trasera en LLMs",
        term_zh = "大语言模型后门攻击",
        aliases_es = { "ataque backdoor a LLMs", "ataque trojan a LLMs" },
        aliases_zh = { "LLM 后门攻击", "针对大模型的后门攻击" },
    }
    
    data["backdoor path"] = {
        short = "In a causal DAG, any path from treatment X to outcome Y that begins with an arrow into X (i.e., X ← ...). Open backdoor paths transmit confounding bias and must be blocked by conditioning to identify the causal effect.",
        article = nil,
        aliases = { "back-door path", "backdoor pathway" },
        es = "En un DAG causal, cualquier trayectoria del tratamiento X al resultado Y que comienza con una flecha entrante hacia X (es decir, X ← ...). Las trayectorias de puerta trasera abiertas transmiten sesgo de confusión y deben bloquearse por condicionamiento para identificar el efecto causal.",
        zh = "在因果有向无环图中,从处理变量 X 到结果 Y、且起始边箭头指向 X(即 X ← …)的任意路径。开放的后门路径会传递混淆偏差,必须通过条件化加以阻断,才能识别因果效应。",
        term_es = "trayectoria de puerta trasera",
        term_zh = "后门路径",
        aliases_es = { "camino de puerta trasera", "backdoor path" },
        aliases_zh = { "后门通路", "back-door 路径" },
    }
    
    data["backpropagation"] = {
        short = "An algorithm for computing gradients of a loss function with respect to network weights by applying the chain rule layer by layer from output to input.",
        article = "Backpropagation",
        aliases = { "backprop" },
        es = "Algoritmo para calcular gradientes de una función de pérdida respecto a los pesos de la red, aplicando la regla de la cadena capa por capa.",
        zh = "一种通过逐层应用链式法则从输出到输入计算损失函数关于网络权重梯度的算法。",
        term_es = "retropropagación",
        term_zh = "反向传播",
        aliases_es = { "backprop", "propagación hacia atrás" },
        aliases_zh = { "backprop", "BP" },
    }
    
    data["backtracking line search"] = {
        short = "A line search that starts from a large step and shrinks it by a constant factor until a sufficient-decrease condition, typically the Armijo condition, is satisfied.",
        article = nil,
        aliases = { "Armijo line search", "Armijo rule", "backtracking" },
        es = "Búsqueda en línea que parte de un paso grande y lo reduce repetidamente por un factor constante hasta que se cumple una condición de descenso suficiente, habitualmente la condición de Armijo.",
        zh = "一种线搜索方法:从较大的初始步长开始,按固定因子逐步缩减,直到满足充分下降条件(通常为Armijo条件)。",
        term_es = "búsqueda en línea con retroceso",
        term_zh = "回溯线搜索",
        aliases_es = { "backtracking line search", "regla de Armijo", "búsqueda lineal de Armijo" },
        aliases_zh = { "Armijo线搜索", "Armijo准则", "backtracking line search" },
    }
    
    data["backtracking search"] = {
        short = "A general algorithm for solving constraint satisfaction problems that incrementally builds candidate assignments and abandons (backtracks from) any partial assignment that cannot be extended to a complete valid solution.",
        article = nil,
        aliases = { "backtracking", "backtrack search", "chronological backtracking", "depth-first backtracking" },
        es = "Un algoritmo general para resolver problemas de satisfacción de restricciones que construye asignaciones candidatas de forma incremental y descarta (retrocede desde) cualquier asignación parcial que no pueda extenderse a una solución completa válida.",
        zh = "一种求解约束满足问题的通用算法,逐步构造候选赋值,并从任何无法扩展为完整有效解的部分赋值中回溯放弃。",
        term_es = "búsqueda con retroceso",
        term_zh = "回溯搜索",
        aliases_es = { "backtracking", "retroceso cronológico", "búsqueda backtracking" },
        aliases_zh = { "回溯", "回溯算法", "时序回溯" },
    }
    
    data["backup workers"] = {
        short = "A synchronous distributed training strategy in which the server waits for the first N out of N+b worker updates per round and discards the slowest b, mitigating stragglers without using stale gradients.",
        article = nil,
        aliases = { "backup worker scheme", "synchronous SGD with backup workers", "stragglers with backup workers" },
        es = "Estrategia de entrenamiento distribuido síncrono en la que el servidor espera las primeras N actualizaciones de un total de N+b trabajadores por ronda y descarta las b más lentas, mitigando los rezagados sin usar gradientes desactualizados.",
        zh = "一种同步分布式训练策略:服务器每轮等待 N+b 个工作节点中最先到达的 N 个更新,丢弃最慢的 b 个,从而在不使用陈旧梯度的情况下缓解掉队者问题。",
        term_es = "trabajadores de respaldo",
        term_zh = "备份工作节点",
        aliases_es = { "esquema de trabajadores de respaldo", "SGD síncrono con trabajadores de respaldo" },
        aliases_zh = { "备份 worker", "同步 SGD 备份节点策略" },
    }
    
    data["backward algorithm"] = {
        short = "A dynamic-programming routine for hidden Markov models that recursively computes the probability of the future observation sequence given the current latent state, used together with the forward algorithm in the forward-backward procedure.",
        article = nil,
        aliases = { "HMM backward algorithm", "backward pass", "backward recursion" },
        es = "Rutina de programación dinámica para modelos ocultos de Markov que calcula recursivamente la probabilidad de la secuencia futura de observaciones dado el estado latente actual, usada junto con el algoritmo hacia adelante en el procedimiento adelante-atrás.",
        zh = "一种用于隐马尔可夫模型的动态规划算法,递归计算在当前隐状态条件下未来观测序列的概率,与前向算法共同构成前向-后向过程。",
        term_es = "algoritmo hacia atrás",
        term_zh = "后向算法",
        aliases_es = { "algoritmo backward", "recursión hacia atrás" },
        aliases_zh = { "backward 算法", "HMM 后向算法", "后向递推" },
    }
    
    data["backward chaining"] = {
        short = "A goal-driven inference strategy used in rule-based systems and logic programming that starts from a target conclusion and works backward through implications to find supporting facts, as in Prolog query resolution.",
        article = nil,
        aliases = { "goal-driven reasoning", "backward reasoning", "backward inference" },
        es = "Una estrategia de inferencia dirigida por objetivos, usada en sistemas basados en reglas y programación lógica, que parte de una conclusión deseada y retrocede por las implicaciones hasta encontrar hechos que la sustenten, como en la resolución de consultas en Prolog.",
        zh = "一种用于基于规则的系统和逻辑编程的目标驱动推理策略,从目标结论出发,沿蕴含关系反向推导,直到找到支撑该结论的事实,如 Prolog 中的查询求解。",
        term_es = "encadenamiento hacia atrás",
        term_zh = "反向链推理",
        aliases_es = { "razonamiento dirigido por objetivos", "razonamiento hacia atrás", "inferencia hacia atrás" },
        aliases_zh = { "反向推理", "目标驱动推理", "反向链" },
    }
    
    data["backward euler method"] = {
        short = "An implicit first-order numerical scheme for ordinary differential equations that approximates y(t+h) by y_{n+1} = y_n + h·f(t_{n+1}, y_{n+1}); unconditionally stable for stiff problems.",
        article = nil,
        aliases = { "implicit Euler method", "backward Euler", "implicit Euler" },
        es = "Esquema numérico implícito de primer orden para ecuaciones diferenciales ordinarias que aproxima y(t+h) mediante y_{n+1} = y_n + h·f(t_{n+1}, y_{n+1}); incondicionalmente estable para problemas rígidos.",
        zh = "求解常微分方程的一阶隐式数值方法,用 y_{n+1} = y_n + h·f(t_{n+1}, y_{n+1}) 来逼近 y(t+h);对刚性问题无条件稳定。",
        term_es = "método de Euler hacia atrás",
        term_zh = "后向 Euler 方法",
        aliases_es = { "método de Euler implícito", "Euler implícito" },
        aliases_zh = { "隐式 Euler 方法", "后向欧拉法", "隐式欧拉" },
    }
    
    data["bag of bonds"] = {
        short = "A molecular representation that extends the Coulomb matrix by grouping its entries into separate bags by atom-pair type, producing a fixed-length descriptor used in kernel-based machine-learning potentials.",
        article = nil,
        aliases = { "Bag of Bonds", "BoB" },
        es = "Una representación molecular que extiende la matriz de Coulomb agrupando sus entradas en bolsas separadas por tipo de par de átomos, produciendo un descriptor de longitud fija usado en potenciales de aprendizaje automático basados en kernel.",
        zh = "一种分子表示方法,扩展库仑矩阵,将其元素按原子对类型分别归入不同的「袋」中,产生定长描述符,用于基于核方法的机器学习势能。",
        term_es = "bag of bonds",
        term_zh = "键袋表示",
        aliases_es = { "BoB", "bolsa de enlaces" },
        aliases_zh = { "Bag of Bonds", "BoB", "键袋" },
    }
    
    data["bag of words"] = {
        short = "A text representation that encodes a document as the multiset of its tokens, ignoring order and grammar. Each document becomes a fixed-length vector of token counts or frequencies over a vocabulary.",
        article = nil,
        aliases = { "BoW", "bag-of-words", "Bag of Words", "bag-of-words model", "BOW" },
        es = "Representación de texto que codifica un documento como el multiconjunto de sus tokens, ignorando el orden y la gramática. Cada documento se convierte en un vector de longitud fija con conteos o frecuencias de tokens sobre un vocabulario.",
        zh = "一种文本表示方法,将文档编码为其词项的多重集合,忽略顺序和语法。每个文档表示为基于词表的固定长度计数或频率向量。",
        term_es = "bolsa de palabras",
        term_zh = "词袋",
        aliases_es = { "BoW", "modelo de bolsa de palabras", "bag of words" },
        aliases_zh = { "BoW", "词袋模型", "bag of words" },
    }
    
    data["balance diagnostics"] = {
        short = "Statistics used after matching, weighting, or stratification to assess whether covariate distributions are similar across treatment groups; common diagnostics include standardized mean differences, variance ratios, and empirical CDF comparisons.",
        article = nil,
        aliases = { "covariate balance diagnostics", "balance checks", "balance assessment" },
        es = "Estadísticos utilizados tras el emparejamiento, ponderación o estratificación para evaluar si las distribuciones de covariables son similares entre los grupos de tratamiento; los diagnósticos habituales incluyen diferencias de medias estandarizadas, razones de varianza y comparaciones de CDF empíricas.",
        zh = "在匹配、加权或分层后用于检验各处理组协变量分布是否相似的统计量;常见诊断包括标准化均值差、方差比以及经验累积分布函数的比较。",
        term_es = "diagnósticos de balance",
        term_zh = "平衡性诊断",
        aliases_es = { "verificación de balance", "diagnóstico de covariables" },
        aliases_zh = { "协变量平衡诊断", "平衡检验" },
    }
    
    data["balance for negative class"] = {
        short = "A group-fairness criterion requiring that the average predicted score for individuals with a negative true label be equal across protected groups. Proposed by Kleinberg, Mullainathan, and Raghavan (2016).",
        article = nil,
        aliases = { "negative class balance", "balance for the negative class" },
        es = "Criterio de equidad grupal que exige que la puntuación media predicha para los individuos con etiqueta verdadera negativa sea igual entre grupos protegidos. Propuesto por Kleinberg, Mullainathan y Raghavan (2016).",
        zh = "一种群体公平性准则,要求真实标签为负类的个体在不同受保护群体之间的平均预测分数相等。由 Kleinberg、Mullainathan 与 Raghavan(2016)提出。",
        term_es = "balance para la clase negativa",
        term_zh = "负类平衡",
        aliases_es = { "balance de la clase negativa" },
        aliases_zh = { "负类的平衡", "阴性类平衡" },
    }
    
    data["balance for positive class"] = {
        short = "A group-fairness criterion requiring that the average predicted score for individuals with a positive true label be equal across protected groups. Companion to balance for the negative class.",
        article = nil,
        aliases = { "positive class balance", "balance for the positive class" },
        es = "Criterio de equidad grupal que exige que la puntuación media predicha para los individuos con etiqueta verdadera positiva sea igual entre grupos protegidos. Complementario al balance para la clase negativa.",
        zh = "一种群体公平性准则,要求真实标签为正类的个体在不同受保护群体之间的平均预测分数相等。与负类平衡互为补充。",
        term_es = "balance para la clase positiva",
        term_zh = "正类平衡",
        aliases_es = { "balance de la clase positiva" },
        aliases_zh = { "正类的平衡", "阳性类平衡" },
    }
    
    data["balanced accuracy across groups"] = {
        short = "A fairness metric defined as the difference or ratio of balanced accuracy (the mean of true positive rate and true negative rate) computed separately for each protected group; smaller disparities indicate greater fairness.",
        article = nil,
        aliases = { "group balanced accuracy", "per-group balanced accuracy" },
        es = "Métrica de equidad definida como la diferencia o razón de la exactitud balanceada (media entre tasa de verdaderos positivos y verdaderos negativos) calculada por separado para cada grupo protegido; disparidades menores indican mayor equidad.",
        zh = "一种公平性指标,定义为对每个受保护群体分别计算的平衡准确率(真阳率与真阴率的均值)之差或之比;差距越小表示越公平。",
        term_es = "exactitud balanceada entre grupos",
        term_zh = "群体间的平衡准确率",
        aliases_es = { "exactitud balanceada por grupo", "precisión balanceada entre grupos" },
        aliases_zh = { "组间平衡准确率", "分组平衡准确率" },
    }
    
    data["balanced batch sampling"] = {
        short = "A training-time technique that constructs each minibatch to contain approximately equal counts from each class or protected group, used to mitigate imbalance and reduce learned bias toward the majority population.",
        article = nil,
        aliases = { "class-balanced sampling", "balanced minibatch sampling", "stratified batch sampling" },
        es = "Técnica de entrenamiento que construye cada minibatch con conteos aproximadamente iguales de cada clase o grupo protegido, usada para mitigar el desbalance y reducir el sesgo aprendido hacia la población mayoritaria.",
        zh = "一种训练阶段技术,构造每个小批量使其包含来自每个类别或受保护群体的近似相等数量样本,用以缓解不平衡并减少模型对多数群体的学习偏差。",
        term_es = "muestreo de lotes balanceados",
        term_zh = "平衡批次采样",
        aliases_es = { "muestreo balanceado por lote", "muestreo de minibatch balanceado" },
        aliases_zh = { "类别平衡采样", "平衡小批量采样", "分层批次采样" },
    }
    
    data["balanced sampling nas"] = {
        short = "A neural architecture search strategy that draws candidate architectures so that operations and depths are sampled with equal frequency, reducing bias in supernet weight sharing.",
        article = nil,
        aliases = { "balanced sampling neural architecture search", "balanced sampling NAS", "fair sampling NAS" },
        es = "Estrategia de búsqueda de arquitecturas neuronales que muestrea arquitecturas candidatas de modo que las operaciones y profundidades aparezcan con la misma frecuencia, reduciendo el sesgo en la compartición de pesos del supernet.",
        zh = "一种神经架构搜索策略,按等概率采样候选架构中的操作和深度,以降低超网络权重共享中的采样偏差。",
        term_es = "NAS con muestreo balanceado",
        term_zh = "平衡采样NAS",
        aliases_es = { "muestreo balanceado en NAS", "NAS de muestreo equitativo" },
        aliases_zh = { "平衡采样神经架构搜索", "公平采样NAS" },
    }
    
    data["balancing score"] = {
        short = "Any function b(X) of pre-treatment covariates such that treatment assignment is conditionally independent of X given b(X). The propensity score is the coarsest balancing score; the full covariate vector is the finest.",
        article = nil,
        aliases = { "Rosenbaum-Rubin balancing score", "balancing function" },
        es = "Cualquier función b(X) de las covariables previas al tratamiento tal que la asignación al tratamiento es condicionalmente independiente de X dado b(X). La puntuación de propensión es la puntuación de balance más gruesa; el vector completo de covariables es la más fina.",
        zh = "前处理协变量的某个函数 b(X),使得给定 b(X) 时处理分配与 X 条件独立。倾向评分是最粗的平衡评分,完整协变量向量则是最细的平衡评分。",
        term_es = "puntuación de balance",
        term_zh = "平衡评分",
        aliases_es = { "balancing score", "score de balance de Rosenbaum-Rubin" },
        aliases_zh = { "平衡分数", "Rosenbaum-Rubin 平衡评分" },
    }
    
    data["bald score"] = {
        short = "Bayesian Active Learning by Disagreement: an acquisition function equal to the mutual information between model parameters and a prediction, used to select inputs on which a Bayesian model's predictions are most informative about the parameters.",
        article = nil,
        aliases = { "BALD", "BALD acquisition", "Bayesian active learning by disagreement", "BALD score" },
        es = "Aprendizaje Activo Bayesiano por Desacuerdo: función de adquisición igual a la información mutua entre los parámetros del modelo y una predicción, usada para seleccionar entradas cuyas predicciones del modelo bayesiano son más informativas sobre los parámetros.",
        zh = "基于分歧的贝叶斯主动学习:以模型参数与预测之间的互信息作为采集函数,用于选取贝叶斯模型预测对参数信息量最大的输入。",
        term_es = "puntuación BALD",
        term_zh = "BALD分数",
        aliases_es = { "BALD", "función de adquisición BALD", "aprendizaje activo bayesiano por desacuerdo" },
        aliases_zh = { "BALD", "BALD采集函数", "基于分歧的贝叶斯主动学习" },
    }
    
    data["ball tree"] = {
        short = "A binary space-partitioning data structure that recursively encloses points within nested hyperspheres, used to accelerate nearest-neighbor queries in moderate-to-high dimensions.",
        article = nil,
        aliases = { "ball-tree", "balltree" },
        es = "Estructura de datos de particionamiento espacial binaria que envuelve recursivamente los puntos en hiperesferas anidadas, usada para acelerar consultas de vecinos más cercanos en dimensiones medias o altas.",
        zh = "一种二叉空间划分数据结构,将点递归地包含在嵌套的超球中,用于加速中高维空间中的最近邻查询。",
        term_es = "ball tree",
        term_zh = "球树",
        aliases_es = { "árbol de bolas", "ball-tree" },
        aliases_zh = { "球形树", "ball tree" },
    }
    
    data["bam format"] = {
        short = "The Binary Alignment/Map format — a compressed, indexed binary representation of sequence alignments to a reference genome, equivalent in content to SAM and the de facto standard input for downstream variant calling, expression, and coverage analyses.",
        article = nil,
        aliases = { "BAM", "BAM file", ".bam", "Binary Alignment Map", "Binary Alignment/Map format" },
        es = "Formato Binary Alignment/Map: representación binaria comprimida e indexada de alineamientos de secuencias contra un genoma de referencia, equivalente en contenido a SAM y entrada de facto estándar para análisis posteriores de llamado de variantes, expresión y cobertura.",
        zh = "Binary Alignment/Map(BAM)格式:将测序读段对参考基因组的比对结果以压缩、可索引的二进制形式存储,内容上等价于 SAM,是变异检测、表达定量和覆盖度分析等下游流程的事实标准输入。",
        term_es = "formato BAM",
        term_zh = "BAM 格式",
        aliases_es = { "archivo BAM", ".bam", "BAM" },
        aliases_zh = { "BAM 文件", ".bam", "二进制比对/映射格式" },
    }
    
    data["banach fixed point theorem"] = {
        short = "States that a contraction mapping on a complete metric space has a unique fixed point, which can be obtained as the limit of iterating the map from any starting point.",
        article = nil,
        aliases = { "contraction mapping theorem", "Banach contraction principle", "Banach's fixed-point theorem" },
        es = "Establece que toda aplicación contractiva sobre un espacio métrico completo tiene un único punto fijo, que se obtiene como límite de iterar la aplicación a partir de cualquier punto inicial.",
        zh = "断言完备度量空间上的压缩映射存在唯一不动点,且可由从任意起点反复迭代该映射得到。",
        term_es = "teorema del punto fijo de Banach",
        term_zh = "Banach 不动点定理",
        aliases_es = { "principio de contracción de Banach", "teorema de la contracción" },
        aliases_zh = { "压缩映射定理", "巴拿赫不动点定理" },
    }
    
    data["banach space"] = {
        short = "A complete normed vector space; that is, a vector space equipped with a norm under which every Cauchy sequence converges. Foundational to functional analysis.",
        article = nil,
        aliases = { "Banach spaces", "complete normed vector space", "complete normed space" },
        es = "Espacio vectorial normado completo; es decir, un espacio vectorial dotado de una norma bajo la cual toda sucesión de Cauchy converge. Fundamental en análisis funcional.",
        zh = "完备的赋范向量空间,即配备了范数且其下每个柯西序列都收敛的向量空间。它是泛函分析的基础概念。",
        term_es = "espacio de Banach",
        term_zh = "Banach 空间",
        aliases_es = { "espacios de Banach", "espacio vectorial normado completo" },
        aliases_zh = { "巴拿赫空间", "完备赋范空间" },
    }
    
    data["bandit-based hpo"] = {
        short = "Hyperparameter optimization methods that frame configuration selection as a multi-armed bandit problem, allocating compute adaptively to promising configurations; examples include Hyperband and successive halving.",
        article = nil,
        aliases = { "bandit-based hyperparameter optimization", "bandit HPO", "multi-armed bandit HPO" },
        es = "Métodos de optimización de hiperparámetros que plantean la selección de configuraciones como un problema de bandidos multi-brazo, asignando cómputo de forma adaptativa a las configuraciones prometedoras; ejemplos incluyen Hyperband y successive halving.",
        zh = "将超参数选择建模为多臂老虎机问题的优化方法,自适应地将计算资源分配给有希望的配置;例如Hyperband和逐次减半。",
        term_es = "HPO basado en bandidos",
        term_zh = "基于老虎机的HPO",
        aliases_es = { "optimización de hiperparámetros basada en bandidos", "HPO con bandidos multi-brazo" },
        aliases_zh = { "基于多臂老虎机的超参数优化", "老虎机HPO" },
    }
    
    data["bandwidth heterogeneity"] = {
        short = "The condition in federated learning where participating clients have widely differing network bandwidths, so identical-size updates take very different times to transmit and contribute unevenly to round latency.",
        article = nil,
        aliases = { "heterogeneous bandwidth", "network bandwidth heterogeneity", "client bandwidth heterogeneity" },
        es = "Condición en aprendizaje federado en la que los clientes participantes tienen anchos de banda de red muy distintos, de modo que actualizaciones de igual tamaño tardan tiempos muy diferentes en transmitirse y contribuyen de forma desigual a la latencia de la ronda.",
        zh = "联邦学习中参与客户端的网络带宽差异显著的情形:相同大小的更新传输时间差异巨大,对一轮的整体延迟贡献不均。",
        term_es = "heterogeneidad de ancho de banda",
        term_zh = "带宽异构性",
        aliases_es = { "ancho de banda heterogéneo", "heterogeneidad de la red" },
        aliases_zh = { "异构带宽", "客户端带宽异构性", "网络带宽异构" },
    }
    
    data["bandwidth selection"] = {
        short = "The choice of smoothing parameter (window width) in nonparametric estimators such as kernel regression or regression discontinuity designs, governing the bias-variance trade-off; common methods include cross-validation and the Imbens-Kalyanaraman optimal bandwidth.",
        article = nil,
        aliases = { "bandwidth choice", "optimal bandwidth selection", "kernel bandwidth selection" },
        es = "Elección del parámetro de suavizado (ancho de ventana) en estimadores no paramétricos como la regresión por núcleo o los diseños de regresión discontinua, que gobierna el equilibrio sesgo-varianza; los métodos habituales incluyen validación cruzada y el ancho de banda óptimo de Imbens-Kalyanaraman.",
        zh = "在核回归或断点回归等非参数估计中选择平滑参数(窗宽)的过程,决定偏差-方差权衡;常用方法包括交叉验证以及 Imbens-Kalyanaraman 最优带宽。",
        term_es = "selección del ancho de banda",
        term_zh = "带宽选择",
        aliases_es = { "elección de ancho de banda", "selección de bandwidth" },
        aliases_zh = { "窗宽选择", "最优带宽选择" },
    }
    
    data["bandwidth-limited training"] = {
        short = "Distributed or federated training where the dominant cost is communication rather than computation, motivating gradient compression, quantization, sparsification, and infrequent communication.",
        article = nil,
        aliases = { "bandwidth limited training", "communication-limited training", "bandwidth-constrained training" },
        es = "Entrenamiento distribuido o federado en el que el coste dominante es la comunicación y no el cómputo, lo que motiva la compresión, cuantización y esparcificación de gradientes, así como una comunicación poco frecuente.",
        zh = "通信成本而非计算成本占主导的分布式或联邦训练,由此推动梯度压缩、量化、稀疏化以及降低通信频率等技术。",
        term_es = "entrenamiento limitado por ancho de banda",
        term_zh = "带宽受限训练",
        aliases_es = { "entrenamiento con limitación de ancho de banda", "entrenamiento limitado por la comunicación" },
        aliases_zh = { "通信受限训练", "带宽受限的训练" },
    }
    
    data["bark scale"] = {
        short = "A psychoacoustic frequency scale, proposed by Eberhard Zwicker, that divides the audible spectrum into 24 critical bands corresponding to perceived pitch resolution in the human auditory system.",
        article = nil,
        aliases = { "Bark scale", "critical-band scale", "Zwicker scale", "Bark frequency scale" },
        es = "Escala de frecuencias psicoacústica, propuesta por Eberhard Zwicker, que divide el espectro audible en 24 bandas críticas correspondientes a la resolución de tono percibida por el sistema auditivo humano.",
        zh = "由 Eberhard Zwicker 提出的心理声学频率尺度,将可听频谱划分为 24 个临界频带,对应人类听觉系统所感知的音高分辨率。",
        term_es = "escala de Bark",
        term_zh = "巴克尺度",
        aliases_es = { "escala Bark", "escala de bandas críticas", "escala de Zwicker" },
        aliases_zh = { "Bark 尺度", "临界频带尺度", "Bark 频率尺度" },
    }
    
    data["bark tts"] = {
        short = "An open-source text-to-audio generative model from Suno that produces highly expressive multilingual speech, non-verbal sounds, and music from text prompts using a Transformer that predicts EnCodec audio tokens.",
        article = nil,
        aliases = { "Bark", "Bark TTS", "Suno Bark" },
        es = "Modelo generativo de código abierto de texto a audio creado por Suno que produce habla multilingüe muy expresiva, sonidos no verbales y música a partir de indicaciones textuales mediante un Transformer que predice tokens de audio EnCodec.",
        zh = "Suno发布的开源文本到音频生成模型,使用Transformer预测EnCodec音频token,可根据文本提示生成富有表现力的多语言语音、非言语声音及音乐。",
        term_es = "Bark",
        term_zh = "Bark",
        aliases_es = { "Bark TTS", "Bark de Suno" },
        aliases_zh = { "Bark TTS", "Suno Bark" },
    }
    
    data["barlow twins loss"] = {
        short = "Self-supervised loss that drives the cross-correlation matrix between embeddings of two augmented views toward the identity, encouraging invariance and decorrelating feature dimensions.",
        article = nil,
        aliases = { "Barlow Twins", "Barlow-Twins loss" },
        es = "Pérdida auto-supervisada que aproxima la matriz de correlación cruzada entre las representaciones de dos vistas aumentadas a la identidad, fomentando invariancia y descorrelacionando las dimensiones de las características.",
        zh = "自监督损失,使两个增强视图嵌入之间的互相关矩阵趋近单位矩阵,从而鼓励不变性并去除特征维度间的相关性。",
        term_es = "pérdida Barlow Twins",
        term_zh = "Barlow Twins 损失",
        aliases_es = { "Barlow Twins" },
        aliases_zh = { "Barlow Twins" },
    }
    
    data["baron-kenny method"] = {
        short = "A four-step regression-based procedure proposed by Baron and Kenny (1986) for testing mediation: establish total effect, effect of X on mediator M, effect of M on Y controlling for X, and reduction in the X→Y effect after adjusting for M.",
        article = nil,
        aliases = { "Baron-Kenny method", "Baron and Kenny approach", "Baron-Kenny mediation analysis", "causal steps approach" },
        es = "Procedimiento basado en regresión, propuesto por Baron y Kenny (1986), de cuatro pasos para evaluar la mediación: establecer el efecto total, el efecto de X sobre el mediador M, el efecto de M sobre Y controlando X, y la reducción del efecto X→Y al ajustar por M.",
        zh = "Baron 与 Kenny(1986)提出的基于回归的中介分析四步法:检验总效应、X 对中介变量 M 的效应、控制 X 后 M 对 Y 的效应,以及调整 M 后 X→Y 效应的减弱。",
        term_es = "método de Baron y Kenny",
        term_zh = "Baron-Kenny 方法",
        aliases_es = { "método Baron-Kenny", "enfoque de pasos causales" },
        aliases_zh = { "Baron 与 Kenny 方法", "因果步骤法" },
    }
    
    data["bart"] = {
        short = "A denoising sequence-to-sequence transformer pretrained by corrupting text with arbitrary noising functions and learning to reconstruct the original, combining BERT-style bidirectional encoding with GPT-style autoregressive decoding.",
        article = nil,
        aliases = { "BART", "Bidirectional and Auto-Regressive Transformer", "bidirectional and auto-regressive transformer" },
        es = "Transformer secuencia a secuencia con eliminación de ruido preentrenado corrompiendo texto con funciones de ruido arbitrarias y aprendiendo a reconstruir el original, combinando codificación bidireccional estilo BERT con decodificación autorregresiva estilo GPT.",
        zh = "一种降噪的序列到序列 Transformer,通过用任意噪声函数破坏文本并学习还原原文进行预训练,将 BERT 风格的双向编码与 GPT 风格的自回归解码相结合。",
        term_es = "BART",
        term_zh = "BART",
        aliases_es = { "BART", "transformer bidireccional y autorregresivo" },
        aliases_zh = { "BART", "双向自回归 Transformer" },
    }
    
    data["bart for causal inference"] = {
        short = "Use of Bayesian Additive Regression Trees (BART) to estimate conditional outcome surfaces under each treatment, yielding individual and average treatment effects with built-in posterior uncertainty; popularized by Hill (2011).",
        article = nil,
        aliases = { "BART for causal inference", "Bayesian Additive Regression Trees for causal inference", "causal BART", "Hill BART" },
        es = "Uso de Árboles de Regresión Aditivos Bayesianos (BART) para estimar superficies de resultados condicionales bajo cada tratamiento, obteniendo efectos individuales y promedio con incertidumbre posterior incorporada; popularizado por Hill (2011).",
        zh = "利用贝叶斯加性回归树(BART)估计每种处理下的条件结果曲面,从而获得带有后验不确定性的个体与平均处理效应;由 Hill(2011)推广至因果推断。",
        term_es = "BART para inferencia causal",
        term_zh = "用于因果推断的 BART",
        aliases_es = { "BART causal", "árboles aditivos bayesianos para causalidad" },
        aliases_zh = { "因果 BART", "贝叶斯加性回归树因果推断" },
    }
    
    data["baseline attribution"] = {
        short = "An attribution scheme that explains a prediction relative to a chosen baseline input (e.g., a black image or a zero embedding) by attributing the difference in output to input features.",
        article = nil,
        aliases = { "reference baseline attribution", "baseline-relative attribution" },
        es = "Esquema de atribución que explica una predicción en relación con una entrada base elegida (por ejemplo, una imagen negra o un embedding nulo) atribuyendo la diferencia en la salida a las características de entrada.",
        zh = "相对于选定基线输入(如全黑图像或零嵌入)解释预测的归因方案,将输出差异归因到输入特征上。",
        term_es = "atribución con línea base",
        term_zh = "基线归因",
        aliases_es = { "atribución relativa a línea base" },
        aliases_zh = { "基线相对归因", "参考基线归因" },
    }
    
    data["baseline reward"] = {
        short = "A scalar value subtracted from the observed return in policy-gradient methods to reduce variance without introducing bias; typical choices include the average return or a learned value function.",
        article = nil,
        aliases = { "reward baseline", "baseline" },
        es = "Valor escalar restado del retorno observado en métodos de gradiente de política para reducir la varianza sin introducir sesgo; opciones habituales son el retorno medio o una función de valor aprendida.",
        zh = "在策略梯度方法中从观察回报中减去的标量值,用于在不引入偏差的前提下降低方差;常见选择包括平均回报或学习的价值函数。",
        term_es = "recompensa base",
        term_zh = "基线奖励",
        aliases_es = { "línea base de recompensa", "baseline" },
        aliases_zh = { "奖励基线", "基线" },
    }
    
    data["baseline variance reduction"] = {
        short = "A family of techniques that subtract a control variate or baseline from a stochastic gradient estimator to reduce its variance without introducing bias, including REINFORCE-style baselines and learned value functions.",
        article = nil,
        aliases = { "control variate baseline", "variance-reduction baseline", "REINFORCE baseline" },
        es = "Familia de técnicas que restan una variable de control o línea base a un estimador estocástico de gradiente para reducir su varianza sin introducir sesgo, incluyendo líneas base tipo REINFORCE y funciones de valor aprendidas.",
        zh = "一类通过从随机梯度估计中减去控制变量或基线来在不引入偏差的前提下降低方差的技术,包括REINFORCE式基线和学习的价值函数。",
        term_es = "reducción de varianza por línea base",
        term_zh = "基线方差缩减",
        aliases_es = { "línea base de control", "baseline de reducción de varianza", "baseline de REINFORCE" },
        aliases_zh = { "控制变量基线", "方差缩减基线", "REINFORCE基线" },
    }
    
    data["basenji"] = {
        short = "A deep convolutional neural network that predicts genome-wide regulatory profiles — including chromatin accessibility, histone marks, transcription factor binding, and gene expression — directly from long DNA sequence inputs (~131 kb), using dilated convolutions for long-range context.",
        article = nil,
        aliases = { "Basenji", "Basenji model", "Basenji2", "Kelley Basenji" },
        es = "Red neuronal convolucional profunda que predice perfiles regulatorios a escala genómica —incluyendo accesibilidad de la cromatina, marcas de histonas, unión de factores de transcripción y expresión génica— directamente a partir de secuencias largas de ADN (~131 kb), usando convoluciones dilatadas para capturar contexto de largo alcance.",
        zh = "一种深度卷积神经网络,直接以长 DNA 序列(约 131 kb)为输入,预测全基因组的调控特征图谱——包括染色质可及性、组蛋白修饰、转录因子结合与基因表达——并通过空洞卷积捕获远程上下文。",
        term_es = "Basenji",
        term_zh = "Basenji",
        aliases_es = { "modelo Basenji", "Basenji2" },
        aliases_zh = { "Basenji 模型", "Basenji2" },
    }
    
    data["batch bayesian optimization"] = {
        short = "An extension of Bayesian optimization that selects multiple query points per iteration so they can be evaluated in parallel, typically using diversity-promoting acquisition functions or fantasized observations.",
        article = nil,
        aliases = { "parallel Bayesian optimization", "batch BO", "q-Bayesian optimization" },
        es = "Extensión de la optimización bayesiana que selecciona múltiples puntos de consulta por iteración para evaluarlos en paralelo, normalmente mediante funciones de adquisición que promueven la diversidad u observaciones imaginadas.",
        zh = "贝叶斯优化的扩展,每次迭代选择多个查询点以便并行评估,通常使用促进多样性的采集函数或虚拟观测。",
        term_es = "optimización bayesiana por lotes",
        term_zh = "批量贝叶斯优化",
        aliases_es = { "optimización bayesiana paralela", "BO por lotes" },
        aliases_zh = { "并行贝叶斯优化", "批量BO" },
    }
    
    data["batch correction"] = {
        short = "Computational removal of non-biological technical variation between samples processed in different batches, restoring comparability of measurements such as gene expression or protein abundance. Common methods include ComBat, limma's removeBatchEffect, Harmony, and mutual nearest neighbors.",
        article = nil,
        aliases = { "batch effect correction", "batch-effect removal", "batch normalization (omics)", "removeBatchEffect" },
        es = "Eliminación computacional de la variación técnica no biológica entre muestras procesadas en lotes distintos, restableciendo la comparabilidad de mediciones como la expresión génica o la abundancia de proteínas. Métodos habituales incluyen ComBat, removeBatchEffect de limma, Harmony y mutual nearest neighbors.",
        zh = "通过计算方法去除在不同批次中处理的样本之间的非生物学技术变异,恢复基因表达或蛋白丰度等测量值的可比性。常用方法包括 ComBat、limma 的 removeBatchEffect、Harmony 和 mutual nearest neighbors。",
        term_es = "corrección de efecto de lote",
        term_zh = "批次校正",
        aliases_es = { "corrección de batch", "corrección de efectos de lote", "eliminación de efecto de batch" },
        aliases_zh = { "批次效应校正", "批次效应去除", "批次效应矫正" },
    }
    
    data["batch effect"] = {
        short = "Systematic technical variation introduced when biological samples are processed in distinct groups (different days, reagent lots, sequencing lanes, or laboratories), confounding the biological signal of interest. A primary source of irreproducibility in high-throughput omics studies.",
        article = nil,
        aliases = { "batch effects", "technical batch variation", "batch confounding" },
        es = "Variación técnica sistemática introducida cuando muestras biológicas se procesan en grupos distintos (días, lotes de reactivos, calles de secuenciación o laboratorios diferentes), que confunde la señal biológica de interés. Una de las principales causas de irreproducibilidad en estudios ómicos de alto rendimiento.",
        zh = "当生物样本在不同组(不同日期、试剂批次、测序通道或实验室)中处理时引入的系统性技术变异,会与目标生物学信号混杂。它是高通量组学研究中不可重复性的主要来源。",
        term_es = "efecto de lote",
        term_zh = "批次效应",
        aliases_es = { "efecto batch", "sesgo de lote", "variación técnica entre lotes" },
        aliases_zh = { "批次差异", "批次混杂效应" },
    }
    
    data["batch ensemble"] = {
        short = "An efficient ensembling method that represents each ensemble member as a shared weight matrix multiplied by a member-specific rank-one perturbation, allowing many members to be evaluated in parallel within a single mini-batch.",
        article = nil,
        aliases = { "BatchEnsemble", "batch-ensemble", "batchensemble", "rank-one ensemble" },
        es = "Método de ensamblado eficiente que representa cada miembro del ensemble como una matriz de pesos compartida multiplicada por una perturbación de rango uno específica del miembro, permitiendo evaluar muchos miembros en paralelo dentro de un mismo minibatch.",
        zh = "一种高效的集成方法,将每个集成成员表示为共享权重矩阵乘以成员特有的秩一扰动,从而在同一小批量中并行评估多个成员。",
        term_es = "BatchEnsemble",
        term_zh = "BatchEnsemble",
        aliases_es = { "ensemble por lotes", "batch-ensemble", "ensemble de rango uno" },
        aliases_zh = { "批量集成", "batch ensemble", "秩一集成" },
    }
    
    data["batch normalization"] = {
        short = "Layer that normalizes activations across the batch dimension to zero mean and unit variance, then applies learnable scale and shift. Stabilizes training and accelerates convergence.",
        article = "Batch Normalization",
        aliases = { "BatchNorm", "batchnorm", "batch norm", "BN" },
        es = "Capa que normaliza las activaciones a lo largo de la dimensión del batch para tener media cero y varianza uno, y luego aplica un escalado y un desplazamiento aprendibles. Estabiliza el entrenamiento y acelera la convergencia.",
        zh = "在批维度上将激活归一化为零均值、单位方差,再应用可学习的缩放和偏移。可稳定训练并加速收敛。",
        term_es = "normalización por lotes",
        term_zh = "批归一化",
        aliases_es = { "BatchNorm", "batch norm", "BN", "normalización batch" },
        aliases_zh = { "BatchNorm", "BN", "批量归一化", "批标准化" },
    }
    
    data["batch renormalization"] = {
        short = "Extension of batch normalization that adds a per-step affine correction to bridge the gap between mini-batch and population statistics. Reduces sensitivity to small or non-i.i.d. batches.",
        article = nil,
        aliases = { "BatchRenorm", "batch renorm", "Batch Renormalization" },
        es = "Extensión de la normalización por lotes que añade una corrección afín por paso para reducir la brecha entre las estadísticas del minibatch y las de la población. Disminuye la sensibilidad a batches pequeños o no i.i.d.",
        zh = "批归一化的扩展,在每一步添加仿射校正以弥合小批量统计与总体统计之间的差距。可降低对小批量或非独立同分布批次的敏感性。",
        term_es = "renormalización por lotes",
        term_zh = "批再归一化",
        aliases_es = { "BatchRenorm", "renormalización batch" },
        aliases_zh = { "BatchRenorm", "批重归一化", "批量再归一化" },
    }
    
    data["batch size"] = {
        short = "The number of training examples used to compute one gradient estimate before a parameter update; a key hyperparameter influencing optimization noise, hardware utilization, and generalization.",
        article = nil,
        aliases = { "batch_size", "minibatch size", "mini-batch size", "global batch size", "per-device batch size" },
        es = "Número de ejemplos de entrenamiento empleados para calcular una estimación del gradiente antes de una actualización de parámetros; hiperparámetro clave que influye en el ruido de la optimización, el uso del hardware y la generalización.",
        zh = "用于在一次参数更新前计算一次梯度估计的训练样本数量;是影响优化噪声、硬件利用率和泛化能力的关键超参数。",
        term_es = "tamaño de lote",
        term_zh = "批量大小",
        aliases_es = { "batch_size", "tamaño de mini-lote", "tamaño de batch", "tamaño de lote global" },
        aliases_zh = { "batch size", "batch_size", "批大小", "批次大小", "小批量大小" },
    }
    
    data["batchbald"] = {
        short = "A batch-mode acquisition function for Bayesian active learning that selects sets of inputs maximizing the joint mutual information between predictions and parameters, correcting BALD's tendency to pick redundant points when used greedily.",
        article = nil,
        aliases = { "BatchBALD", "batch BALD", "BatchBALD acquisition" },
        es = "Función de adquisición por lotes para aprendizaje activo bayesiano que selecciona conjuntos de entradas maximizando la información mutua conjunta entre predicciones y parámetros, corrigiendo la tendencia de BALD a elegir puntos redundantes cuando se aplica de forma voraz.",
        zh = "用于贝叶斯主动学习的批量采集函数,选择使预测与参数之间联合互信息最大的输入集合,修正了贪心使用BALD时选取冗余点的倾向。",
        term_es = "BatchBALD",
        term_zh = "BatchBALD",
        aliases_es = { "BALD por lotes", "BatchBALD" },
        aliases_zh = { "批量BALD", "BatchBALD采集函数" },
    }
    
    data["batchensemble"] = {
        short = "A specific implementation of efficient ensembling in which each ensemble member shares a base weight matrix and adds its own rank-one update, enabling parallel evaluation of all members in one matrix multiplication.",
        article = nil,
        aliases = { "BatchEnsemble", "batch ensemble", "Wen et al. BatchEnsemble" },
        es = "Implementación específica de ensemble eficiente en la que cada miembro comparte una matriz de pesos base y añade su propia actualización de rango uno, permitiendo la evaluación paralela de todos los miembros en una sola multiplicación matricial.",
        zh = "一种高效集成的具体实现,每个成员共享基础权重矩阵并添加自身的秩一更新,从而通过一次矩阵乘法并行评估所有成员。",
        term_es = "BatchEnsemble",
        term_zh = "BatchEnsemble",
        aliases_es = { "batch ensemble", "BatchEnsemble de Wen et al." },
        aliases_zh = { "batch ensemble", "批量集成", "Wen等BatchEnsemble" },
    }
    
    data["battery-aware federated learning"] = {
        short = "A federated learning design that conditions client participation, local epoch count, or update size on the device's battery state to avoid draining mobile clients during training.",
        article = nil,
        aliases = { "battery aware federated learning", "energy-aware federated learning", "battery-aware FL" },
        es = "Diseño de aprendizaje federado que condiciona la participación del cliente, el número de épocas locales o el tamaño de la actualización al estado de la batería del dispositivo, para evitar agotar los clientes móviles durante el entrenamiento.",
        zh = "一种联邦学习设计:根据设备电池状态调节客户端参与、本地训练轮次或更新大小,避免训练耗尽移动客户端的电量。",
        term_es = "aprendizaje federado consciente de la batería",
        term_zh = "电量感知联邦学习",
        aliases_es = { "FL consciente de la batería", "aprendizaje federado consciente de la energía" },
        aliases_zh = { "电池感知联邦学习", "能量感知联邦学习" },
    }
    
    data["baum-welch algorithm"] = {
        short = "An expectation-maximization algorithm for fitting hidden Markov models from observation sequences alone, computing expected state and transition counts via the forward-backward algorithm and re-estimating parameters in closed form.",
        article = nil,
        aliases = { "Baum-Welch", "Baum-Welch EM", "Baum Welch algorithm", "HMM EM" },
        es = "Algoritmo de esperanza-maximización para ajustar modelos ocultos de Markov a partir solo de secuencias de observaciones, calculando los conteos esperados de estados y transiciones mediante el algoritmo adelante-atrás y reestimando los parámetros en forma cerrada.",
        zh = "一种用于仅依据观测序列拟合隐马尔可夫模型的期望最大化算法,通过前向-后向算法计算状态与转移的期望计数,并以闭式形式重新估计参数。",
        term_es = "algoritmo de Baum-Welch",
        term_zh = "Baum-Welch 算法",
        aliases_es = { "Baum-Welch", "EM de Baum-Welch", "EM para HMM" },
        aliases_zh = { "Baum-Welch", "HMM EM", "鲍姆-韦尔奇算法" },
    }
    
    data["bay-lime"] = {
        short = "A Bayesian extension of LIME that places priors over the local surrogate model's coefficients to quantify uncertainty in feature attributions.",
        article = nil,
        aliases = { "BayLIME", "Bayesian LIME" },
        es = "Extensión bayesiana de LIME que coloca priors sobre los coeficientes del modelo subrogado local para cuantificar la incertidumbre de las atribuciones de características.",
        zh = "LIME 的贝叶斯扩展,通过对局部替代模型的系数引入先验分布,从而量化特征归因的不确定性。",
        term_es = "BayLIME",
        term_zh = "BayLIME",
        aliases_es = { "LIME bayesiano" },
        aliases_zh = { "贝叶斯 LIME", "BayLIME" },
    }
    
    data["bayes by backprop"] = {
        short = "A variational inference algorithm for Bayesian neural networks that learns a Gaussian posterior over weights by reparameterized sampling and backpropagation of the resulting evidence lower bound.",
        article = nil,
        aliases = { "BBB", "Bayes by Backprop", "Blundell BBB" },
        es = "Algoritmo de inferencia variacional para redes neuronales bayesianas que aprende un posterior gaussiano sobre los pesos mediante muestreo reparametrizado y retropropagación del límite inferior de la evidencia resultante.",
        zh = "一种贝叶斯神经网络的变分推断算法,通过重参数化采样并对所得证据下界做反向传播来学习权重的高斯后验。",
        term_es = "Bayes por retropropagación",
        term_zh = "Bayes by Backprop",
        aliases_es = { "BBB", "Bayes-by-Backprop", "BBB de Blundell" },
        aliases_zh = { "BBB", "通过反向传播的贝叶斯", "Blundell BBB" },
    }
    
    data["bayes filter"] = {
        short = "A recursive Bayesian estimator that sequentially updates a posterior belief over a latent state from a stream of observations, alternating prediction (via a transition model) and correction (via an observation model) steps.",
        article = nil,
        aliases = { "Bayes filter", "Bayesian filter", "recursive Bayesian estimation", "Bayesian state estimator" },
        es = "Estimador bayesiano recursivo que actualiza secuencialmente una creencia posterior sobre un estado latente a partir de observaciones, alternando pasos de predicción (mediante un modelo de transición) y corrección (mediante un modelo de observación).",
        zh = "一种递归贝叶斯估计方法,通过预测步(转移模型)和更新步(观测模型)交替地从观测序列中迭代更新对潜在状态的后验信念。",
        term_es = "filtro de Bayes",
        term_zh = "贝叶斯滤波器",
        aliases_es = { "filtro bayesiano", "estimación bayesiana recursiva" },
        aliases_zh = { "贝叶斯滤波", "递归贝叶斯估计" },
    }
    
    data["bayes optimal predictor"] = {
        short = "The predictor that minimizes expected loss under the true data-generating distribution; for squared loss it is the conditional mean and for 0-1 loss it is the maximum a posteriori class.",
        article = nil,
        aliases = { "Bayes-optimal predictor", "Bayes optimal classifier", "Bayes predictor" },
        es = "Predictor que minimiza la pérdida esperada bajo la verdadera distribución generadora de datos; para pérdida cuadrática es la media condicional y para pérdida 0-1 es la clase de máximo a posteriori.",
        zh = "在真实数据生成分布下使期望损失最小化的预测器;在平方损失下为条件均值,在0-1损失下为最大后验类别。",
        term_es = "predictor óptimo de Bayes",
        term_zh = "贝叶斯最优预测器",
        aliases_es = { "predictor de Bayes óptimo", "clasificador óptimo de Bayes", "predictor de Bayes" },
        aliases_zh = { "贝叶斯最优分类器", "贝叶斯预测器", "Bayes最优预测器" },
    }
    
    data["bayes theorem"] = {
        short = "A fundamental identity of probability stating that the posterior P(H|D) is proportional to the likelihood P(D|H) times the prior P(H), with normalizer P(D). It underlies all Bayesian inference.",
        article = nil,
        aliases = { "Bayes' theorem", "Bayes' rule", "Bayes rule", "Bayes' law", "Bayesian update" },
        es = "Identidad fundamental de la probabilidad que establece que la posterior P(H|D) es proporcional a la verosimilitud P(D|H) por la prior P(H), con normalizador P(D). Es la base de toda la inferencia bayesiana.",
        zh = "概率论中的基本恒等式,说明后验 P(H|D) 正比于似然 P(D|H) 乘以先验 P(H),归一化常数为 P(D)。它是所有贝叶斯推断的基础。",
        term_es = "teorema de Bayes",
        term_zh = "贝叶斯定理",
        aliases_es = { "regla de Bayes", "ley de Bayes", "fórmula de Bayes" },
        aliases_zh = { "贝叶斯公式", "贝叶斯法则", "Bayes 定理" },
    }
    
    data["bayesian active learning"] = {
        short = "An active learning paradigm in which a Bayesian model's posterior uncertainty is used to choose informative inputs to label, typically maximizing acquisition functions such as predictive entropy or BALD.",
        article = nil,
        aliases = { "BAL", "Bayesian active learning", "Bayes active learning" },
        es = "Paradigma de aprendizaje activo en el que la incertidumbre del posterior de un modelo bayesiano se utiliza para elegir entradas informativas a etiquetar, típicamente maximizando funciones de adquisición como la entropía predictiva o BALD.",
        zh = "一种主动学习范式,使用贝叶斯模型后验的不确定性来选择最具信息量的待标注输入,通常通过最大化预测熵或BALD等采集函数实现。",
        term_es = "aprendizaje activo bayesiano",
        term_zh = "贝叶斯主动学习",
        aliases_es = { "BAL", "active learning bayesiano" },
        aliases_zh = { "BAL", "Bayes主动学习" },
    }
    
    data["bayesian causal forest"] = {
        short = "A Bayesian extension of causal forests that places separate BART priors on the prognostic and treatment-effect functions, regularizing toward homogeneous effects and improving estimation of heterogeneous treatment effects.",
        article = nil,
        aliases = { "BCF", "Bayesian Causal Forest", "Hahn-Murray-Carvalho BCF" },
        es = "Extensión bayesiana de los bosques causales que coloca priores BART separados sobre las funciones pronóstica y de efecto del tratamiento, regularizando hacia efectos homogéneos y mejorando la estimación de efectos heterogéneos.",
        zh = "因果森林的贝叶斯扩展,对预后函数与处理效应函数分别施加 BART 先验,向同质效应正则化,从而改善异质处理效应的估计。",
        term_es = "bosque causal bayesiano",
        term_zh = "贝叶斯因果森林",
        aliases_es = { "BCF", "Bayesian Causal Forest" },
        aliases_zh = { "BCF", "Bayesian Causal Forest" },
    }
    
    data["bayesian causal inference"] = {
        short = "Approach to causal inference that places priors over potential outcomes, treatment-assignment mechanisms, and structural parameters, then performs posterior inference over causal estimands such as the ATE, ATT, or individual effects.",
        article = nil,
        aliases = { "Bayesian causal inference", "Bayesian approach to causal inference", "Bayesian causal modeling" },
        es = "Enfoque de la inferencia causal que coloca priores sobre los resultados potenciales, los mecanismos de asignación al tratamiento y los parámetros estructurales, para luego realizar inferencia posterior sobre estimandos causales como el ATE, ATT o efectos individuales.",
        zh = "对潜在结果、处理分配机制及结构参数施加先验,然后对 ATE、ATT 或个体效应等因果估计量进行后验推断的因果推断方法。",
        term_es = "inferencia causal bayesiana",
        term_zh = "贝叶斯因果推断",
        aliases_es = { "enfoque bayesiano de inferencia causal", "modelado causal bayesiano" },
        aliases_zh = { "贝叶斯因果分析", "贝叶斯方法因果推断" },
    }
    
    data["bayesian convolutional neural network"] = {
        short = "A convolutional neural network in which the convolutional and dense weights are random variables with a posterior distribution, yielding predictive distributions that quantify epistemic uncertainty.",
        article = nil,
        aliases = { "Bayesian CNN", "BCNN", "Bayesian ConvNet" },
        es = "Red neuronal convolucional cuyos pesos convolucionales y densos son variables aleatorias con una distribución posterior, lo que produce distribuciones predictivas que cuantifican la incertidumbre epistémica.",
        zh = "一种卷积神经网络,其卷积层和全连接层权重为带有后验分布的随机变量,从而产生可量化认知不确定性的预测分布。",
        term_es = "red neuronal convolucional bayesiana",
        term_zh = "贝叶斯卷积神经网络",
        aliases_es = { "CNN bayesiana", "BCNN", "ConvNet bayesiana" },
        aliases_zh = { "贝叶斯CNN", "BCNN", "贝叶斯ConvNet" },
    }
    
    data["bayesian dark knowledge"] = {
        short = "A distillation method that compresses an expensive Bayesian neural network ensemble or posterior sample set into a single compact student network trained to match the predictive distribution.",
        article = nil,
        aliases = { "BDK", "Bayesian Dark Knowledge", "Korattikara BDK" },
        es = "Método de destilación que comprime un conjunto bayesiano de redes neuronales o un conjunto de muestras del posterior, costoso de evaluar, en una única red estudiante compacta entrenada para reproducir la distribución predictiva.",
        zh = "一种蒸馏方法,将昂贵的贝叶斯神经网络集成或后验样本集合压缩成单个紧凑的学生网络,使其匹配预测分布。",
        term_es = "Bayesian Dark Knowledge",
        term_zh = "贝叶斯暗知识",
        aliases_es = { "BDK", "conocimiento oscuro bayesiano" },
        aliases_zh = { "BDK", "Bayesian Dark Knowledge", "Korattikara BDK" },
    }
    
    data["bayesian deep learning"] = {
        short = "A research area combining deep neural networks with Bayesian inference, treating weights or activations as random variables to obtain calibrated uncertainty estimates and principled regularization.",
        article = nil,
        aliases = { "BDL", "Bayesian deep learning", "Bayesian neural networks (broad sense)" },
        es = "Área de investigación que combina redes neuronales profundas con inferencia bayesiana, tratando pesos o activaciones como variables aleatorias para obtener estimaciones de incertidumbre calibradas y una regularización fundamentada.",
        zh = "将深度神经网络与贝叶斯推断相结合的研究方向,把权重或激活视为随机变量,以获得经过校准的不确定性估计和有原则的正则化。",
        term_es = "aprendizaje profundo bayesiano",
        term_zh = "贝叶斯深度学习",
        aliases_es = { "BDL", "deep learning bayesiano" },
        aliases_zh = { "BDL", "贝叶斯深度学习" },
    }
    
    data["bayesian dirichlet score"] = {
        short = "A family of marginal-likelihood scores for learning Bayesian network structure under multinomial conditional distributions and Dirichlet priors, integrating analytically over the parameters.",
        article = nil,
        aliases = { "BD score", "Bayesian Dirichlet score", "BD metric" },
        es = "Familia de puntuaciones de verosimilitud marginal para aprender la estructura de redes bayesianas con distribuciones condicionales multinomiales y priores de Dirichlet, integrando analíticamente sobre los parámetros.",
        zh = "一类用于贝叶斯网络结构学习的边缘似然评分,假设条件分布为多项分布并采用 Dirichlet 先验,对参数进行解析积分。",
        term_es = "puntuación bayesiana de Dirichlet",
        term_zh = "贝叶斯-Dirichlet 评分",
        aliases_es = { "BD score", "puntuación BD" },
        aliases_zh = { "BD 评分", "贝叶斯狄利克雷评分" },
    }
    
    data["bayesian dropconnect"] = {
        short = "A Bayesian interpretation of DropConnect in which independent Bernoulli masks on individual weights at training and test time correspond to approximate variational inference over a structured weight posterior.",
        article = nil,
        aliases = { "Bayesian DropConnect", "BDC", "DropConnect Bayesian" },
        es = "Interpretación bayesiana de DropConnect en la que máscaras Bernoulli independientes sobre pesos individuales, aplicadas en entrenamiento y test, corresponden a inferencia variacional aproximada sobre un posterior estructurado de los pesos.",
        zh = "对DropConnect的贝叶斯解释:在训练和测试时对各权重独立应用伯努利掩码,可视为对结构化权重后验的近似变分推断。",
        term_es = "DropConnect bayesiano",
        term_zh = "贝叶斯DropConnect",
        aliases_es = { "Bayesian DropConnect", "BDC" },
        aliases_zh = { "Bayesian DropConnect", "BDC", "贝叶斯丢弃连接" },
    }
    
    data["bayesian ensemble"] = {
        short = "An ensemble of neural networks whose members are interpreted as samples from an approximate posterior over weights, with predictions averaged to approximate the Bayesian predictive distribution.",
        article = nil,
        aliases = { "Bayesian model ensemble", "ensemble Bayesian inference", "posterior ensemble" },
        es = "Conjunto de redes neuronales cuyos miembros se interpretan como muestras de un posterior aproximado sobre los pesos, promediándose sus predicciones para aproximar la distribución predictiva bayesiana.",
        zh = "一种神经网络集成,其成员被解释为权重近似后验的样本,通过对预测做平均来近似贝叶斯预测分布。",
        term_es = "ensemble bayesiano",
        term_zh = "贝叶斯集成",
        aliases_es = { "ensemble bayesiano de modelos", "inferencia bayesiana por ensemble", "ensemble del posterior" },
        aliases_zh = { "贝叶斯模型集成", "后验集成", "贝叶斯ensemble" },
    }
    
    data["bayesian experimental design"] = {
        short = "A framework for choosing experiments that maximize the expected information gain about quantities of interest under a Bayesian model, often by maximizing the mutual information between outcomes and parameters.",
        article = nil,
        aliases = { "BED", "optimal experimental design", "Bayesian optimal experimental design", "BOED" },
        es = "Marco para elegir experimentos que maximizan la ganancia esperada de información sobre las cantidades de interés bajo un modelo bayesiano, normalmente maximizando la información mutua entre resultados y parámetros.",
        zh = "一种实验选择框架,在贝叶斯模型下选取使关于目标量的期望信息增益最大的实验,通常通过最大化结果与参数之间的互信息实现。",
        term_es = "diseño experimental bayesiano",
        term_zh = "贝叶斯实验设计",
        aliases_es = { "BED", "diseño experimental óptimo", "diseño experimental óptimo bayesiano", "BOED" },
        aliases_zh = { "BED", "贝叶斯最优实验设计", "BOED", "最优实验设计" },
    }
    
    data["bayesian gan"] = {
        short = "A generative adversarial network in which the generator and discriminator weights are treated as random variables with a posterior, sampled via stochastic-gradient MCMC to obtain diverse generators and improved mode coverage.",
        article = nil,
        aliases = { "Bayesian GAN", "BGAN", "Saatci Wilson Bayesian GAN" },
        es = "Red generativa antagónica en la que los pesos del generador y el discriminador se tratan como variables aleatorias con un posterior, muestreado mediante MCMC con gradiente estocástico para obtener generadores diversos y mejor cobertura de modos.",
        zh = "一种生成对抗网络,将生成器和判别器的权重视为带有后验的随机变量,通过随机梯度MCMC进行采样,以获得多样化的生成器并改善对模态的覆盖。",
        term_es = "GAN bayesiano",
        term_zh = "贝叶斯GAN",
        aliases_es = { "Bayesian GAN", "BGAN", "GAN bayesiana de Saatci y Wilson" },
        aliases_zh = { "Bayesian GAN", "BGAN", "Saatci Wilson贝叶斯GAN" },
    }
    
    data["bayesian hypernetwork"] = {
        short = "A neural network that outputs the weights of another network, trained so its outputs form an implicit variational posterior over the primary network's parameters; provides flexible, structured approximate posteriors for Bayesian deep learning.",
        article = nil,
        aliases = { "Bayesian hypernet", "BNN hypernetwork", "hypernet posterior", "BHN" },
        es = "Red neuronal que produce los pesos de otra red, entrenada de modo que sus salidas constituyan un posterior variacional implícito sobre los parámetros de la red principal; proporciona posteriores aproximados flexibles y estructurados para deep learning bayesiano.",
        zh = "一种神经网络,用于输出另一网络的权重,并通过训练使其输出构成对主网络参数的隐式变分后验;为贝叶斯深度学习提供灵活且结构化的近似后验。",
        term_es = "hiperred bayesiana",
        term_zh = "贝叶斯超网络",
        aliases_es = { "Bayesian hypernetwork", "hipernet bayesiana", "BHN" },
        aliases_zh = { "贝叶斯hypernetwork", "BHN", "贝叶斯超网" },
    }
    
    data["bayesian inference"] = {
        short = "Inference framework that uses Bayes' rule to update a prior distribution over hypotheses or parameters into a posterior distribution conditioned on observed data, quantifying uncertainty rather than returning point estimates.",
        article = nil,
        aliases = { "Bayesian reasoning", "posterior inference", "Bayesian estimation" },
        es = "Marco de inferencia que aplica la regla de Bayes para actualizar una distribución previa sobre hipótesis o parámetros hasta convertirla en una distribución posterior condicionada a los datos observados, cuantificando la incertidumbre en lugar de devolver estimaciones puntuales.",
        zh = "一种推断框架,利用贝叶斯法则将关于假设或参数的先验分布更新为以观测数据为条件的后验分布,从而量化不确定性而非给出点估计。",
        term_es = "inferencia bayesiana",
        term_zh = "贝叶斯推断",
        aliases_es = { "razonamiento bayesiano", "estimación bayesiana", "inferencia posterior" },
        aliases_zh = { "贝叶斯推理", "后验推断", "贝叶斯估计" },
    }
    
    data["bayesian maml"] = {
        short = "A probabilistic extension of model-agnostic meta-learning that places a distribution over the meta-initialization, enabling uncertainty estimation over the few-shot adapted parameters.",
        article = nil,
        aliases = { "Bayesian MAML", "BMAML", "probabilistic MAML" },
        es = "Extensión probabilística del meta-aprendizaje agnóstico al modelo que coloca una distribución sobre la metainicialización, permitiendo estimar incertidumbre sobre los parámetros adaptados en pocas muestras.",
        zh = "模型无关元学习的概率扩展,对元初始化引入分布,从而对少样本适配后的参数进行不确定性估计。",
        term_es = "MAML bayesiano",
        term_zh = "贝叶斯MAML",
        aliases_es = { "BMAML", "MAML probabilístico" },
        aliases_zh = { "BMAML", "概率MAML" },
    }
    
    data["bayesian meta-learning"] = {
        short = "A family of meta-learning approaches that treat task adaptation as Bayesian inference, learning a prior over models or parameters that yields posterior estimates given few-shot data from a new task.",
        article = nil,
        aliases = { "Bayesian meta learning", "probabilistic meta-learning" },
        es = "Familia de enfoques de meta-aprendizaje que tratan la adaptación a tareas como inferencia bayesiana, aprendiendo una distribución previa sobre modelos o parámetros que produce estimaciones posteriores dados pocos ejemplos de una tarea nueva.",
        zh = "将任务适配视为贝叶斯推断的元学习方法族,学习模型或参数的先验,并在新任务的少量样本下给出后验估计。",
        term_es = "meta-aprendizaje bayesiano",
        term_zh = "贝叶斯元学习",
        aliases_es = { "meta-aprendizaje probabilístico", "meta aprendizaje bayesiano" },
        aliases_zh = { "概率元学习", "贝叶斯式元学习" },
    }
    
    data["bayesian model averaging"] = {
        short = "Predictive technique that marginalizes over a set of candidate models weighted by their posterior probabilities, yielding predictions that account for model uncertainty rather than committing to a single model.",
        article = nil,
        aliases = { "BMA", "model averaging", "posterior model averaging" },
        es = "Técnica predictiva que marginaliza sobre un conjunto de modelos candidatos ponderados por sus probabilidades posteriores, produciendo predicciones que tienen en cuenta la incertidumbre del modelo en lugar de comprometerse con uno solo.",
        zh = "一种预测技术,按候选模型的后验概率对其进行加权并求边际,从而产生考虑模型不确定性的预测,而非固定选择单一模型。",
        term_es = "promedio bayesiano de modelos",
        term_zh = "贝叶斯模型平均",
        aliases_es = { "BMA", "promediado bayesiano de modelos", "Bayesian model averaging" },
        aliases_zh = { "BMA", "贝叶斯模型平均化", "模型平均" },
    }
    
    data["bayesian network"] = {
        short = "A directed acyclic graph in which nodes represent random variables and edges encode conditional dependence, with the joint distribution factorizing as a product of conditional distributions of each node given its parents.",
        article = nil,
        aliases = { "Bayes net", "Bayesian belief network", "BN", "belief network", "directed graphical model" },
        es = "Grafo acíclico dirigido en el que los nodos representan variables aleatorias y las aristas codifican dependencia condicional; la distribución conjunta se factoriza como el producto de las distribuciones condicionales de cada nodo dado sus padres.",
        zh = "一种有向无环图,节点表示随机变量、边编码条件依赖关系,联合分布因式分解为每个节点在其父节点条件下的条件分布之积。",
        term_es = "red bayesiana",
        term_zh = "贝叶斯网络",
        aliases_es = { "red de creencias bayesiana", "BN", "modelo gráfico dirigido" },
        aliases_zh = { "贝叶斯信念网络", "BN", "有向图模型" },
    }
    
    data["bayesian network classifier"] = {
        short = "A classifier whose joint distribution over features and class label is represented by a Bayesian network, with the predicted class given by the posterior over the label conditioned on the observed features.",
        article = nil,
        aliases = { "BNC", "Bayes net classifier", "Bayesian network-based classifier" },
        es = "Clasificador cuya distribución conjunta sobre las características y la etiqueta de clase se representa mediante una red bayesiana; la clase predicha es la posterior sobre la etiqueta condicionada a las características observadas.",
        zh = "一种基于贝叶斯网络表示特征与类别标签联合分布的分类器,预测类别为给定观测特征下标签的后验分布的最大值。",
        term_es = "clasificador de red bayesiana",
        term_zh = "贝叶斯网络分类器",
        aliases_es = { "BNC", "clasificador basado en red bayesiana" },
        aliases_zh = { "BNC", "基于贝叶斯网络的分类器" },
    }
    
    data["bayesian neural network"] = {
        short = "A neural network whose weights are treated as random variables with a prior distribution and inferred posterior, enabling principled uncertainty estimates over predictions through marginalization over weight samples.",
        article = nil,
        aliases = { "BNN", "Bayesian deep network", "stochastic neural network", "probabilistic neural network" },
        es = "Red neuronal cuyos pesos se tratan como variables aleatorias con distribución previa y posterior inferida, lo que permite obtener estimaciones rigurosas de incertidumbre sobre las predicciones marginalizando muestras de pesos.",
        zh = "一种神经网络,其权重被视为具有先验分布并推断后验的随机变量,通过对权重样本进行边缘化,可对预测给出有原则的不确定性估计。",
        term_es = "red neuronal bayesiana",
        term_zh = "贝叶斯神经网络",
        aliases_es = { "BNN", "red bayesiana profunda", "red neuronal probabilística" },
        aliases_zh = { "BNN", "贝叶斯深度网络", "概率神经网络" },
    }
    
    data["bayesian optimization"] = {
        short = "A sequential model-based optimization strategy that fits a probabilistic surrogate, often a Gaussian process, to past evaluations and uses an acquisition function to select the next configuration to evaluate.",
        article = nil,
        aliases = { "BO", "Bayesian hyperparameter optimization", "Bayesian model-based optimization" },
        es = "Estrategia de optimización secuencial basada en modelos que ajusta un sustituto probabilístico, frecuentemente un proceso gaussiano, a las evaluaciones previas y usa una función de adquisición para elegir la siguiente configuración a evaluar.",
        zh = "一种基于模型的顺序优化策略:用概率代理模型(常为高斯过程)拟合历史评估,并通过采集函数选择下一个评估配置。",
        term_es = "optimización bayesiana",
        term_zh = "贝叶斯优化",
        aliases_es = { "BO", "optimización bayesiana de hiperparámetros" },
        aliases_zh = { "BO", "Bayesian optimization", "贝叶斯优化方法" },
    }
    
    data["bayesian optimization for molecules"] = {
        short = "The application of Bayesian optimization—iteratively fitting a surrogate model and selecting candidates via an acquisition function—to molecular design problems where each evaluation (e.g., synthesis or simulation) is expensive.",
        article = nil,
        aliases = { "Bayesian optimization for molecules", "molecular Bayesian optimization", "BO for molecules" },
        es = "Aplicación de la optimización bayesiana—ajustando iterativamente un modelo sustituto y seleccionando candidatos mediante una función de adquisición—a problemas de diseño molecular donde cada evaluación (por ejemplo, síntesis o simulación) es costosa.",
        zh = "将贝叶斯优化(迭代拟合代理模型并通过采集函数选择候选)应用于每次评估(如合成或模拟)成本高昂的分子设计问题。",
        term_es = "optimización bayesiana para moléculas",
        term_zh = "面向分子的贝叶斯优化",
        aliases_es = { "optimización bayesiana molecular", "BO molecular" },
        aliases_zh = { "分子贝叶斯优化", "BO 分子优化" },
    }
    
    data["bayesian pruning"] = {
        short = "A family of methods that uses a Bayesian posterior over weights — typically the signal-to-noise ratio or posterior variance — to identify and remove parameters that contribute little, yielding compressed networks with calibrated uncertainty.",
        article = nil,
        aliases = { "Bayesian network pruning", "variational pruning", "posterior-based pruning" },
        es = "Familia de métodos que usa un posterior bayesiano sobre los pesos —típicamente la relación señal-ruido o la varianza posterior— para identificar y eliminar parámetros poco informativos, produciendo redes comprimidas con incertidumbre calibrada.",
        zh = "一类方法,利用关于权重的贝叶斯后验(通常是信噪比或后验方差)识别并剔除贡献甚微的参数,得到具有校准不确定性的压缩网络。",
        term_es = "poda bayesiana",
        term_zh = "贝叶斯剪枝",
        aliases_es = { "Bayesian pruning", "poda variacional", "poda basada en el posterior" },
        aliases_zh = { "贝叶斯网络剪枝", "变分剪枝", "基于后验的剪枝" },
    }
    
    data["bayesian recurrent neural network"] = {
        short = "A recurrent neural network whose recurrent and output weights are endowed with a prior and inferred posterior, providing sequence predictions with principled uncertainty estimates over time-varying inputs.",
        article = nil,
        aliases = { "Bayesian RNN", "BRNN", "stochastic RNN", "Bayesian LSTM" },
        es = "Red neuronal recurrente cuyos pesos recurrentes y de salida tienen un prior y un posterior inferido, ofreciendo predicciones secuenciales con estimaciones rigurosas de incertidumbre sobre entradas variables en el tiempo.",
        zh = "一种循环神经网络,其循环权重与输出权重被赋予先验并推断后验,从而对随时间变化的输入序列预测提供有原则的不确定性估计。",
        term_es = "red neuronal recurrente bayesiana",
        term_zh = "贝叶斯循环神经网络",
        aliases_es = { "RNN bayesiana", "BRNN", "RNN estocástica", "LSTM bayesiana" },
        aliases_zh = { "贝叶斯RNN", "BRNN", "随机RNN", "贝叶斯LSTM" },
    }
    
    data["bayesian rule list"] = {
        short = "An interpretable classifier learned via Bayesian inference that represents predictions as an ordered list of if-then rules, balancing accuracy and rule-set complexity.",
        article = nil,
        aliases = { "BRL", "Bayesian rule lists" },
        es = "Clasificador interpretable aprendido mediante inferencia bayesiana que representa las predicciones como una lista ordenada de reglas si-entonces, equilibrando precisión y complejidad del conjunto de reglas.",
        zh = "一种通过贝叶斯推断学习的可解释分类器,以有序的 if-then 规则列表表示预测,在准确性与规则集复杂度之间取得平衡。",
        term_es = "lista de reglas bayesiana",
        term_zh = "贝叶斯规则列表",
        aliases_es = { "BRL", "listas de reglas bayesianas" },
        aliases_zh = { "BRL", "贝叶斯规则列表 (BRL)" },
    }
    
    data["bayesian rule set"] = {
        short = "An interpretable classifier that models the target as an OR of conjunctive rules learned by Bayesian inference, trading off accuracy and rule-set size.",
        article = nil,
        aliases = { "BRS", "Bayesian rule sets" },
        es = "Clasificador interpretable que modela la salida como una disyunción (OR) de reglas conjuntivas aprendidas mediante inferencia bayesiana, equilibrando precisión y tamaño del conjunto de reglas.",
        zh = "一种可解释分类器,通过贝叶斯推断学习以合取规则的析取(OR)形式建模目标,在准确率与规则集规模之间取得权衡。",
        term_es = "conjunto de reglas bayesiano",
        term_zh = "贝叶斯规则集",
        aliases_es = { "BRS", "conjuntos de reglas bayesianos" },
        aliases_zh = { "BRS", "贝叶斯规则集 (BRS)" },
    }
    
    data["bayesian sparsification"] = {
        short = "A weight-sparsification approach in which sparsity-inducing priors (e.g. spike-and-slab, log-uniform) over network parameters lead the posterior to assign vanishing mass to many weights, removing them after training.",
        article = nil,
        aliases = { "variational sparsification", "Bayesian sparse learning", "sparse Bayesian deep learning" },
        es = "Enfoque de esparsificación de pesos en el que priors que inducen esparsidad (p. ej. spike-and-slab, log-uniforme) sobre los parámetros de la red llevan al posterior a asignar masa nula a muchos pesos, eliminándolos tras el entrenamiento.",
        zh = "一种权重稀疏化方法,对网络参数施加诱导稀疏的先验(如spike-and-slab、对数均匀先验),使后验对许多权重赋以接近零的质量,训练后将其移除。",
        term_es = "esparsificación bayesiana",
        term_zh = "贝叶斯稀疏化",
        aliases_es = { "esparsificación variacional", "aprendizaje bayesiano disperso", "Bayesian sparsification" },
        aliases_zh = { "变分稀疏化", "贝叶斯稀疏学习", "稀疏贝叶斯深度学习" },
    }
    
    data["bayesian transformer"] = {
        short = "A transformer architecture in which attention or projection weights are treated as random variables with a learned posterior, providing uncertainty estimates over predictions for sequence and language tasks.",
        article = nil,
        aliases = { "Bayesian attention network", "stochastic transformer", "probabilistic transformer" },
        es = "Arquitectura de tipo transformer en la que los pesos de atención o de proyección se tratan como variables aleatorias con un posterior aprendido, proporcionando estimaciones de incertidumbre sobre las predicciones en tareas de secuencia y lenguaje.",
        zh = "一种Transformer架构,其注意力或投影权重被视为具有学习得到的后验的随机变量,为序列和语言任务的预测提供不确定性估计。",
        term_es = "transformer bayesiano",
        term_zh = "贝叶斯Transformer",
        aliases_es = { "Bayesian transformer", "transformer estocástico", "transformer probabilístico" },
        aliases_zh = { "贝叶斯transformer", "随机Transformer", "概率Transformer" },
    }
    
    data["bayesian variational autoencoder"] = {
        short = "A variational autoencoder in which a prior is also placed over the decoder (and possibly encoder) weights and inferred via variational methods, yielding an end-to-end Bayesian latent-variable model with epistemic uncertainty over both latents and parameters.",
        article = nil,
        aliases = { "Bayesian VAE", "fully Bayesian VAE", "BVAE" },
        es = "Autoencoder variacional en el que se coloca también un prior sobre los pesos del decodificador (y eventualmente del codificador) y se infiere mediante métodos variacionales, produciendo un modelo bayesiano de variables latentes de extremo a extremo con incertidumbre epistémica sobre latentes y parámetros.",
        zh = "一种变分自编码器,对解码器(及可能的编码器)权重也施加先验并通过变分方法推断,从而得到端到端的贝叶斯潜变量模型,对潜变量和参数均给出认知不确定性。",
        term_es = "autoencoder variacional bayesiano",
        term_zh = "贝叶斯变分自编码器",
        aliases_es = { "VAE bayesiano", "BVAE", "autoencoder variacional totalmente bayesiano" },
        aliases_zh = { "贝叶斯VAE", "BVAE", "完全贝叶斯VAE" },
    }
    
    data["bbb permeability"] = {
        short = "The ability of a compound to cross the blood-brain barrier, a critical property for CNS drug discovery often predicted from molecular descriptors or measured by in vitro assays.",
        article = nil,
        aliases = { "BBB permeability", "blood-brain barrier permeability", "BBB penetration" },
        es = "La capacidad de un compuesto para atravesar la barrera hematoencefálica, una propiedad crítica para el descubrimiento de fármacos del SNC, a menudo predicha a partir de descriptores moleculares o medida mediante ensayos in vitro.",
        zh = "化合物穿过血脑屏障的能力,是中枢神经系统药物研发的关键性质,通常通过分子描述符进行预测或通过体外实验进行测定。",
        term_es = "permeabilidad de la barrera hematoencefálica",
        term_zh = "血脑屏障通透性",
        aliases_es = { "permeabilidad BHE", "penetración de la BHE" },
        aliases_zh = { "BBB 通透性", "血脑屏障渗透性", "血脑屏障穿透性" },
    }
    
    data["bbbp dataset"] = {
        short = "A MoleculeNet binary classification benchmark of about 2,050 compounds labeled for blood-brain barrier penetration, widely used to evaluate molecular property prediction models for CNS drug candidates.",
        article = nil,
        aliases = { "BBBP", "BBBP dataset", "Blood-Brain Barrier Penetration dataset" },
        es = "Un punto de referencia de clasificación binaria de MoleculeNet con cerca de 2.050 compuestos etiquetados para la penetración de la barrera hematoencefálica, ampliamente usado para evaluar modelos de predicción de propiedades moleculares para candidatos a fármacos del SNC.",
        zh = "MoleculeNet 中包含约 2,050 个化合物的二分类基准数据集,标注是否能穿过血脑屏障,广泛用于评估面向中枢神经系统候选药物的分子性质预测模型。",
        term_es = "conjunto de datos BBBP",
        term_zh = "BBBP 数据集",
        aliases_es = { "BBBP", "dataset BBBP" },
        aliases_zh = { "BBBP", "血脑屏障渗透数据集" },
    }
    
    data["bbh"] = {
        short = "BIG-Bench Hard: a 23-task subset of BIG-Bench on which prior language models scored below the average human rater, used as a challenging reasoning benchmark, especially with chain-of-thought prompting.",
        article = nil,
        aliases = { "BBH", "BIG-Bench Hard", "BIG Bench Hard" },
        es = "BIG-Bench Hard: subconjunto de 23 tareas de BIG-Bench en las que los modelos de lenguaje anteriores quedaron por debajo del evaluador humano promedio, utilizado como referencia de razonamiento difícil, especialmente con prompting de cadena de pensamiento.",
        zh = "BIG-Bench Hard:BIG-Bench 中由 23 个任务组成的子集,过去的语言模型在这些任务上低于普通人类评分者,常被用作具有挑战性的推理基准,尤其与思维链提示配合使用。",
        term_es = "BBH",
        term_zh = "BBH",
        aliases_es = { "BIG-Bench Hard" },
        aliases_zh = { "BIG-Bench Hard", "BIG Bench Hard" },
    }
    
    data["bbq benchmark"] = {
        short = "Bias Benchmark for QA, a dataset of question-answering items designed to measure social bias in language models across nine demographic categories (age, disability, gender, nationality, race, religion, sexual orientation, socioeconomic status, physical appearance).",
        article = nil,
        aliases = { "BBQ", "Bias Benchmark for QA", "BBQ dataset" },
        es = "Bias Benchmark for QA: conjunto de datos de preguntas y respuestas diseñado para medir el sesgo social en modelos de lenguaje a través de nueve categorías demográficas (edad, discapacidad, género, nacionalidad, raza, religión, orientación sexual, nivel socioeconómico, apariencia física).",
        zh = "BBQ(Bias Benchmark for QA)是一个问答数据集,用于测量语言模型在九个人口统计类别(年龄、残障、性别、国籍、种族、宗教、性取向、社会经济地位、外貌)上的社会偏见。",
        term_es = "BBQ",
        term_zh = "BBQ 基准",
        aliases_es = { "BBQ", "benchmark BBQ", "Bias Benchmark for QA" },
        aliases_zh = { "BBQ", "BBQ 数据集", "问答偏见基准" },
    }
    
    data["bbq calibration"] = {
        short = "A non-parametric Bayesian binning method that calibrates classifier scores by averaging over many possible binnings of the score range weighted by their marginal likelihoods, producing smoother and better-calibrated probability estimates than fixed binning.",
        article = nil,
        aliases = { "BBQ", "Bayesian binning into quantiles", "BBQ calibration" },
        es = "Método de calibración bayesiano no paramétrico que calibra las puntuaciones de un clasificador promediando sobre muchas posibles particiones en bins del rango de puntuaciones, ponderadas por sus verosimilitudes marginales, produciendo estimaciones de probabilidad más suaves y mejor calibradas que el binning fijo.",
        zh = "一种非参数贝叶斯分箱校准方法,通过对分类器得分范围的多种可能分箱按边缘似然加权求平均,得到比固定分箱更平滑、校准更好的概率估计。",
        term_es = "calibración BBQ",
        term_zh = "BBQ校准",
        aliases_es = { "BBQ", "Bayesian binning into quantiles", "binning bayesiano por cuantiles" },
        aliases_zh = { "BBQ", "Bayesian binning into quantiles", "贝叶斯分位数分箱校准" },
    }
    
    data["bcftools"] = {
        short = "An open-source command-line toolkit for manipulating variant call format (VCF) and binary call format (BCF) files, including filtering, merging, calling, and annotating genomic variants. Maintained alongside samtools as part of the htslib ecosystem.",
        article = nil,
        aliases = { "bcftools (htslib)", "bcftools call", "bcftools view" },
        es = "Conjunto de herramientas de línea de comandos de código abierto para manipular archivos en formato VCF y BCF, incluyendo filtrado, fusión, llamado y anotación de variantes genómicas. Se mantiene junto con samtools como parte del ecosistema htslib.",
        zh = "用于操作变异调用格式(VCF)和二进制调用格式(BCF)文件的开源命令行工具集,支持变异的过滤、合并、调用与注释,与 samtools 共同作为 htslib 生态系统的一部分维护。",
        term_es = "bcftools",
        term_zh = "bcftools",
        aliases_es = { "herramientas bcftools", "BCFtools" },
        aliases_zh = { "BCFtools 工具集" },
    }
    
    data["bcr repertoire"] = {
        short = "The collection of B-cell receptor sequences expressed by an individual's B-lymphocyte population, profiled by high-throughput sequencing of immunoglobulin heavy and light chain genes. Used to characterize adaptive immune responses, vaccine responses, and B-cell-mediated diseases.",
        article = nil,
        aliases = { "B-cell receptor repertoire", "BCR-seq", "immunoglobulin repertoire", "Ig repertoire", "antibody repertoire" },
        es = "Conjunto de secuencias del receptor de células B expresadas por la población de linfocitos B de un individuo, perfilado mediante secuenciación de alto rendimiento de los genes de las cadenas pesada y ligera de inmunoglobulinas. Se utiliza para caracterizar respuestas inmunitarias adaptativas, respuestas a vacunas y enfermedades mediadas por células B.",
        zh = "通过对免疫球蛋白重链和轻链基因进行高通量测序,描绘个体 B 淋巴细胞群所表达的 B 细胞受体序列集合,用于刻画适应性免疫反应、疫苗反应及 B 细胞介导的疾病。",
        term_es = "repertorio de BCR",
        term_zh = "BCR 库",
        aliases_es = { "repertorio del receptor de células B", "repertorio inmunoglobulínico", "repertorio de anticuerpos" },
        aliases_zh = { "B 细胞受体库", "免疫球蛋白库", "抗体库", "BCR 谱系" },
    }
    
    data["bdeu score"] = {
        short = "The Bayesian Dirichlet equivalent uniform score, a special case of the BD score that places equivalent priors on Markov-equivalent structures using a single equivalent sample size hyperparameter.",
        article = nil,
        aliases = { "BDeu", "BDeu score", "Bayesian Dirichlet equivalent uniform", "BDeu metric" },
        es = "Puntuación bayesiana de Dirichlet equivalente uniforme; caso particular del BD que asigna priores equivalentes a estructuras Markov-equivalentes mediante un único hiperparámetro de tamaño muestral equivalente.",
        zh = "贝叶斯-Dirichlet 等价均匀评分,BD 评分的一种特例,通过单一等价样本量超参数对 Markov 等价结构赋予等价先验。",
        term_es = "puntuación BDeu",
        term_zh = "BDeu 评分",
        aliases_es = { "BDeu", "Dirichlet equivalente uniforme" },
        aliases_zh = { "BDeu", "贝叶斯-狄利克雷等价均匀评分" },
    }
    
    data["bds score"] = {
        short = "The Bayesian Dirichlet sparse score, a variant of the BD score for Bayesian network structure learning that uses Dirichlet hyperparameters tuned to favor sparser conditional probability tables.",
        article = nil,
        aliases = { "BDs", "BDs score", "Bayesian Dirichlet sparse" },
        es = "Puntuación bayesiana de Dirichlet dispersa; variante del BD para aprender la estructura de redes bayesianas que usa hiperparámetros de Dirichlet ajustados para favorecer tablas de probabilidad condicional más dispersas.",
        zh = "贝叶斯-Dirichlet 稀疏评分,BD 评分的一种变体,使用调整后的 Dirichlet 超参数以倾向于产生更稀疏的条件概率表。",
        term_es = "puntuación BDs",
        term_zh = "BDs 评分",
        aliases_es = { "BDs", "Dirichlet dispersa" },
        aliases_zh = { "BDs", "贝叶斯-狄利克雷稀疏评分" },
    }
    
    data["beam search"] = {
        short = "A heuristic decoding algorithm that maintains the top-k highest-probability partial sequences (the beam) at each step and expands them, returning the highest-scoring completed sequence. Trades exhaustive search for tractability.",
        article = nil,
        aliases = { "Beam Search", "beam-search", "beam decoding", "beam search decoding" },
        es = "Algoritmo de decodificación heurístico que mantiene en cada paso las k secuencias parciales de mayor probabilidad (la haz) y las expande, devolviendo la secuencia completa con mayor puntuación. Sacrifica la búsqueda exhaustiva por tratabilidad.",
        zh = "一种启发式解码算法,在每一步保留概率最高的前 k 条部分序列(束),并对其进行扩展,最后返回得分最高的完整序列。它以放弃穷举搜索换取可行的计算开销。",
        term_es = "búsqueda por haz",
        term_zh = "束搜索",
        aliases_es = { "beam search", "búsqueda en haz", "decodificación por haz", "búsqueda por haz" },
        aliases_zh = { "beam search", "集束搜索", "柱搜索", "束解码" },
    }
    
    data["beam search decoding"] = {
        short = "A heuristic decoding algorithm for sequence models that maintains the top-k highest-scoring partial hypotheses at each step, balancing search breadth and computational cost. Widely used in machine translation, ASR, and TTS.",
        article = nil,
        aliases = { "beam search", "beam-search decoding", "beam decoding", "k-beam search" },
        es = "Algoritmo heurístico de decodificación para modelos secuenciales que mantiene las k hipótesis parciales con mayor puntuación en cada paso, equilibrando la amplitud de búsqueda y el coste computacional. Es ampliamente utilizado en traducción automática, ASR y TTS.",
        zh = "一种用于序列模型的启发式解码算法,在每一步保留得分最高的前 k 个部分假设,在搜索广度与计算成本之间取得平衡。广泛用于机器翻译、语音识别和语音合成。",
        term_es = "decodificación por búsqueda en haz",
        term_zh = "束搜索解码",
        aliases_es = { "búsqueda en haz", "beam search", "decodificación beam search" },
        aliases_zh = { "束搜索", "beam search 解码", "集束搜索解码" },
    }
    
    data["beast phylogenetics"] = {
        short = "BEAST (Bayesian Evolutionary Analysis Sampling Trees) is a Bayesian Markov chain Monte Carlo framework for inferring time-calibrated phylogenies, divergence times, and population dynamics from molecular sequence data. Widely used in molecular epidemiology and viral evolution studies.",
        article = nil,
        aliases = { "BEAST", "BEAST2", "Bayesian Evolutionary Analysis Sampling Trees", "BEAST software" },
        es = "BEAST (Bayesian Evolutionary Analysis Sampling Trees) es un marco bayesiano basado en cadenas de Markov Monte Carlo para inferir filogenias calibradas en el tiempo, tiempos de divergencia y dinámica poblacional a partir de datos de secuencias moleculares. Se utiliza ampliamente en epidemiología molecular y estudios de evolución viral.",
        zh = "BEAST(Bayesian Evolutionary Analysis Sampling Trees)是一种基于贝叶斯马尔可夫链蒙特卡洛的框架,用于从分子序列数据推断时间校准的系统发生树、分化时间和种群动态,广泛应用于分子流行病学和病毒进化研究。",
        term_es = "BEAST (filogenética)",
        term_zh = "BEAST 系统发生分析",
        aliases_es = { "filogenética con BEAST", "BEAST2" },
        aliases_zh = { "BEAST 软件", "BEAST 贝叶斯系统发生", "BEAST2" },
    }
    
    data["beat tracking"] = {
        short = "The task of estimating the temporal positions of beats in a music recording, typically by combining onset detection with tempo estimation. A core MIR task underlying tempo analysis and rhythm-aware applications.",
        article = nil,
        aliases = { "beat detection", "beat estimation", "musical beat tracking", "beat-tracking" },
        es = "Tarea de estimar las posiciones temporales de los pulsos en una grabación musical, típicamente combinando detección de inicios con estimación de tempo. Es una tarea central de MIR que sustenta el análisis de tempo y las aplicaciones sensibles al ritmo.",
        zh = "估计音乐录音中节拍时间位置的任务,通常通过结合起始检测与节奏估计实现,是音乐信息检索的核心任务,支撑节奏分析及节奏感知的应用。",
        term_es = "seguimiento de pulsos",
        term_zh = "节拍跟踪",
        aliases_es = { "detección de pulsos", "estimación de pulsos", "seguimiento del beat" },
        aliases_zh = { "节拍检测", "节拍估计", "音乐节拍跟踪" },
    }
    
    data["beats"] = {
        short = "BEATs (Bidirectional Encoder representation from Audio Transformers) is a self-supervised audio representation model from Microsoft that pretrains an audio Transformer with an iteratively refined acoustic tokenizer, achieving strong results on AudioSet and downstream audio classification.",
        article = nil,
        aliases = { "BEATs", "BEATs model", "Bidirectional Encoder representation from Audio Transformers" },
        es = "BEATs (Bidirectional Encoder representation from Audio Transformers) es un modelo de representación autosupervisada de audio de Microsoft que preentrena un Transformer de audio con un tokenizador acústico refinado iterativamente, logrando resultados sólidos en AudioSet y en tareas posteriores de clasificación de audio.",
        zh = "BEATs(音频 Transformer 的双向编码器表示)是微软提出的自监督音频表示模型,使用迭代精炼的声学分词器对音频 Transformer 进行预训练,在 AudioSet 及下游音频分类任务上取得出色表现。",
        term_es = "BEATs",
        term_zh = "BEATs",
        aliases_es = { "modelo BEATs" },
        aliases_zh = { "BEATs 模型", "音频Transformer双向编码器表示" },
    }
    
    data["bed format"] = {
        short = "A tab-delimited text format for genomic intervals, where each line specifies at minimum chromosome, start, and end coordinates (zero-based, half-open). Optional columns encode name, score, strand, and feature-specific attributes such as exon blocks.",
        article = nil,
        aliases = { "BED", "BED file", ".bed", "Browser Extensible Data", "BED6", "BED12" },
        es = "Formato de texto delimitado por tabuladores para intervalos genómicos, donde cada línea especifica al menos cromosoma, coordenada inicial y final (basadas en cero, semiabiertas). Las columnas opcionales codifican nombre, puntuación, hebra y atributos específicos como bloques de exones.",
        zh = "用于表示基因组区间的制表符分隔文本格式,每行至少包含染色体、起始和终止坐标(零基、左闭右开)。可选列编码名称、得分、链方向以及外显子块等特征属性。",
        term_es = "formato BED",
        term_zh = "BED 格式",
        aliases_es = { "archivo BED", "BED", "fichero .bed" },
        aliases_zh = { "BED 文件", ".bed 文件", "BED6", "BED12" },
    }
    
    data["bedtools"] = {
        short = "A widely used command-line suite for performing genome arithmetic on interval files in BED, VCF, GFF, and BAM formats, supporting intersect, merge, subtract, coverage, and shuffle operations. Developed by the Quinlan laboratory.",
        article = nil,
        aliases = { "BEDTools", "bedtools intersect", "bedtools suite" },
        es = "Conjunto de herramientas de línea de comandos ampliamente utilizado para realizar aritmética genómica sobre archivos de intervalos en formatos BED, VCF, GFF y BAM, con operaciones de intersección, fusión, resta, cobertura y mezcla. Desarrollado por el laboratorio Quinlan.",
        zh = "广泛使用的命令行套件,用于在 BED、VCF、GFF 和 BAM 等区间文件上执行基因组算术运算,支持 intersect、merge、subtract、coverage 和 shuffle 等操作,由 Quinlan 实验室开发。",
        term_es = "bedtools",
        term_zh = "bedtools",
        aliases_es = { "BEDTools", "suite bedtools" },
        aliases_zh = { "BEDTools 套件", "bedtools 工具集" },
    }
    
    data["behavior policy"] = {
        short = "In off-policy evaluation and reinforcement learning, the policy that actually generated the logged data; estimators of a target policy's value reweight or correct for the discrepancy between behavior and target policies.",
        article = nil,
        aliases = { "behaviour policy", "logging policy", "data-generating policy", "sampling policy" },
        es = "En evaluación fuera de política y aprendizaje por refuerzo, la política que generó realmente los datos registrados; los estimadores del valor de una política objetivo reponderan o corrigen la discrepancia entre la política de comportamiento y la objetivo.",
        zh = "在离策略评估与强化学习中,实际生成日志数据的策略;目标策略价值的估计器通过重加权或修正来校正行为策略与目标策略之间的差异。",
        term_es = "política de comportamiento",
        term_zh = "行为策略",
        aliases_es = { "política de muestreo", "política de logging", "behavior policy" },
        aliases_zh = { "采样策略", "日志策略", "行为政策" },
    }
    
    data["behavioral cloning"] = {
        short = "The simplest form of imitation learning: train a policy by supervised learning to predict the expert's action given each observed state from a dataset of demonstrations.",
        article = nil,
        aliases = { "BC", "behavioural cloning", "behavior cloning" },
        es = "La forma más simple de aprendizaje por imitación: entrenar una política mediante aprendizaje supervisado para predecir la acción del experto dada cada observación del conjunto de demostraciones.",
        zh = "模仿学习最简单的形式:通过监督学习训练策略,根据示范数据集中观测到的每个状态预测专家的动作。",
        term_es = "clonación conductual",
        term_zh = "行为克隆",
        aliases_es = { "clonación de comportamiento", "BC" },
        aliases_zh = { "行为复制", "BC", "behavioral cloning" },
    }
    
    data["behavioral testing"] = {
        short = "Black-box evaluation of NLP or ML models using targeted test cases that probe specific capabilities or failure modes, popularized by the CheckList framework.",
        article = nil,
        aliases = { "behavioural testing", "CheckList testing" },
        es = "Evaluación de modelos de PLN o ML como caja negra mediante casos de prueba dirigidos que examinan capacidades o modos de fallo específicos, popularizada por el marco CheckList.",
        zh = "对 NLP 或机器学习模型进行的黑盒评估,使用针对特定能力或失败模式的定向测试用例,因 CheckList 框架而广泛流行。",
        term_es = "pruebas de comportamiento",
        term_zh = "行为测试",
        aliases_es = { "testing de comportamiento", "evaluación conductual" },
        aliases_zh = { "行为测试 (CheckList)", "行为化测试" },
    }
    
    data["beit-3"] = {
        short = "A general-purpose multimodal foundation model from Microsoft that treats images as a foreign language and uses a single Multiway Transformer with masked-data modeling to achieve state-of-the-art results on vision, vision-language, and language tasks.",
        article = nil,
        aliases = { "BEiT-3", "BEiT v3", "BEIT-3" },
        es = "Modelo fundacional multimodal de propósito general de Microsoft que trata las imágenes como un idioma extranjero y emplea un único Multiway Transformer con modelado de datos enmascarados para alcanzar resultados de vanguardia en tareas de visión, visión-lenguaje y lenguaje.",
        zh = "微软提出的通用多模态基础模型,将图像视为一种\"外语\",使用单一的Multiway Transformer结合掩码数据建模,在视觉、视觉-语言和语言任务上取得领先效果。",
        term_es = "BEiT-3",
        term_zh = "BEiT-3",
        aliases_es = { "BEiT v3" },
        aliases_zh = { "BEiT-3", "BEiT v3" },
    }
    
    data["belief propagation"] = {
        short = "A message-passing inference algorithm on factor graphs (or pairwise Markov networks) that computes exact marginal distributions on trees and approximates them on graphs with cycles via the loopy variant.",
        article = nil,
        aliases = { "BP", "sum-product algorithm", "loopy belief propagation", "LBP", "message passing" },
        es = "Algoritmo de inferencia por paso de mensajes sobre grafos de factores (o redes de Markov por pares) que calcula marginales exactas en árboles y las aproxima en grafos con ciclos mediante su variante \"loopy\".",
        zh = "一种在因子图(或成对马尔可夫网络)上进行消息传递的推断算法,在树结构上计算精确边缘分布,在含环图上通过其 loopy 变体进行近似。",
        term_es = "propagación de creencias",
        term_zh = "信念传播",
        aliases_es = { "BP", "algoritmo suma-producto", "propagación de creencias loopy", "LBP" },
        aliases_zh = { "BP", "和积算法", "环路信念传播", "LBP", "消息传递" },
    }
    
    data["bellman equation"] = {
        short = "A recursive equation relating the value of a state (or state-action pair) under a policy to the expected immediate reward plus the discounted value of the successor state. Foundational to dynamic programming, value iteration, Q-learning, and most RL algorithms.",
        article = nil,
        aliases = { "Bellman equation", "Bellman equations", "Bellman recursion" },
        es = "Ecuación recursiva que relaciona el valor de un estado (o par estado-acción) bajo una política con la recompensa inmediata esperada más el valor descontado del estado sucesor. Es fundamental en programación dinámica, iteración de valor, Q-learning y la mayoría de los algoritmos de aprendizaje por refuerzo.",
        zh = "一个递归方程,将某策略下状态(或状态-动作对)的价值与期望即时奖励加上后继状态的折扣价值联系起来。它是动态规划、价值迭代、Q-learning 以及大多数强化学习算法的基础。",
        term_es = "ecuación de Bellman",
        term_zh = "贝尔曼方程",
        aliases_es = { "ecuaciones de Bellman", "recursión de Bellman" },
        aliases_zh = { "Bellman方程", "贝尔曼递归" },
    }
    
    data["bellman optimality equation"] = {
        short = "A recursive equation in reinforcement learning that characterizes the optimal value function as the maximum expected return achievable by selecting the best action and then acting optimally thereafter.",
        article = nil,
        aliases = { "Bellman optimality equation", "Bellman equation", "Bellman's equation", "optimality equation" },
        es = "Ecuación recursiva en aprendizaje por refuerzo que caracteriza la función de valor óptima como el retorno esperado máximo alcanzable seleccionando la mejor acción y actuando óptimamente a partir de ahí.",
        zh = "强化学习中的递推方程,将最优值函数表征为通过选择最优动作并随后始终最优行动所能获得的最大期望回报。",
        term_es = "ecuación de optimalidad de Bellman",
        term_zh = "贝尔曼最优方程",
        aliases_es = { "ecuación de Bellman", "ecuación de optimalidad" },
        aliases_zh = { "贝尔曼方程", "Bellman 最优方程", "Bellman 方程" },
    }
    
    data["benchmark bias"] = {
        short = "Systematic distortion in model evaluation arising when a benchmark over- or under-represents certain populations, tasks, or distributions, causing reported metrics to misrepresent real-world performance.",
        article = nil,
        aliases = { "evaluation bias", "benchmark selection bias" },
        es = "Distorsión sistemática en la evaluación de modelos que surge cuando un benchmark sobre- o subrepresenta ciertas poblaciones, tareas o distribuciones, haciendo que las métricas reportadas no reflejen el rendimiento real.",
        zh = "在模型评估中产生的系统性偏差,源于基准对某些人群、任务或分布的过度或不足代表,导致报告的指标无法准确反映真实场景下的性能。",
        term_es = "sesgo del benchmark",
        term_zh = "基准偏差",
        aliases_es = { "sesgo de evaluación", "sesgo en benchmarks" },
        aliases_zh = { "评估偏差", "基准选择偏差" },
    }
    
    data["berkson paradox"] = {
        short = "A statistical phenomenon in which two independent variables become negatively correlated within a sample selected on the basis of either variable; in fairness work it explains spurious associations introduced by selection on outcomes.",
        article = nil,
        aliases = { "Berkson's paradox", "Berkson's bias", "Berksonian bias", "collider bias" },
        es = "Fenómeno estadístico en el que dos variables independientes se correlacionan negativamente dentro de una muestra seleccionada por cualquiera de ellas; en estudios de equidad explica asociaciones espurias introducidas por selección sobre resultados.",
        zh = "一种统计现象:两个相互独立的变量在依据其中任一变量进行选择后的样本中呈现负相关;在公平性研究中可解释由结果选择引入的虚假关联。",
        term_es = "paradoja de Berkson",
        term_zh = "伯克森悖论",
        aliases_es = { "paradoja de Berkson", "sesgo de Berkson", "sesgo de colisionador" },
        aliases_zh = { "Berkson 悖论", "伯克森偏差", "对撞偏差" },
    }
    
    data["berkson's bias"] = {
        short = "Selection bias arising when conditioning on a common effect of two otherwise independent variables induces a spurious association between them; classically observed in hospital-based case-control studies. A type of collider bias.",
        article = nil,
        aliases = { "Berkson's bias", "Berkson bias", "Berksonian bias", "Berkson's paradox", "Berkson's fallacy" },
        es = "Sesgo de selección que surge al condicionar sobre un efecto común de dos variables por lo demás independientes, induciendo una asociación espuria entre ellas; observado clásicamente en estudios de casos y controles hospitalarios. Es un tipo de sesgo de colisionador.",
        zh = "对两个本独立变量的共同效应进行条件化时产生的选择偏差,会导致这两个变量之间出现虚假关联;经典地见于以医院为基础的病例对照研究,属于碰撞节点偏差的一种。",
        term_es = "sesgo de Berkson",
        term_zh = "Berkson 偏差",
        aliases_es = { "paradoja de Berkson", "falacia de Berkson" },
        aliases_zh = { "Berkson 悖论", "Berkson 谬误", "Berkson 选择偏差" },
    }
    
    data["bernoulli distribution"] = {
        short = "The discrete probability distribution of a binary random variable that takes value 1 with probability p and 0 with probability 1−p. It is the single-trial special case of the binomial distribution.",
        article = nil,
        aliases = { "Bernoulli", "Bernoulli random variable", "Bern(p)", "binary distribution" },
        es = "Distribución de probabilidad discreta de una variable aleatoria binaria que toma el valor 1 con probabilidad p y 0 con probabilidad 1−p. Es el caso de un solo ensayo de la distribución binomial.",
        zh = "二值随机变量的离散概率分布,以概率 p 取值 1,以概率 1−p 取值 0。它是二项分布在单次试验情形下的特例。",
        term_es = "distribución de Bernoulli",
        term_zh = "Bernoulli 分布",
        aliases_es = { "Bernoulli", "Bern(p)", "variable de Bernoulli" },
        aliases_zh = { "伯努利分布", "Bern(p)", "两点分布", "0-1 分布" },
    }
    
    data["bert"] = {
        short = "A transformer encoder pretrained with masked language modeling and next-sentence prediction on large text corpora, designed to produce bidirectional contextual representations that fine-tune effectively for many NLP tasks.",
        article = nil,
        aliases = { "BERT", "Bidirectional Encoder Representations from Transformers", "bidirectional encoder representations from transformers" },
        es = "Codificador transformer preentrenado mediante modelado de lenguaje enmascarado y predicción de la siguiente oración sobre grandes corpus de texto, diseñado para producir representaciones contextuales bidireccionales que se ajustan eficazmente a muchas tareas de PLN.",
        zh = "在大规模文本语料上以掩码语言建模和下一句预测进行预训练的 Transformer 编码器,旨在生成双向上下文表示,可有效微调用于多种自然语言处理任务。",
        term_es = "BERT",
        term_zh = "BERT",
        aliases_es = { "BERT", "representaciones de codificador bidireccional a partir de transformers" },
        aliases_zh = { "BERT", "双向 Transformer 编码器表示", "基于 Transformer 的双向编码器表示" },
    }
    
    data["bert-vits"] = {
        short = "A family of open-source TTS models that augment the VITS end-to-end speech synthesis architecture with BERT-based text encoders, improving prosody and pronunciation, particularly for Chinese and Japanese.",
        article = nil,
        aliases = { "Bert-VITS", "BERT-VITS2", "Bert-VITS2", "BERT VITS", "VITS with BERT" },
        es = "Familia de modelos de TTS de código abierto que amplían la arquitectura de síntesis de habla extremo a extremo VITS con codificadores de texto basados en BERT, mejorando la prosodia y la pronunciación, especialmente en chino y japonés.",
        zh = "一系列开源 TTS 模型,在端到端语音合成架构 VITS 上引入基于 BERT 的文本编码器,改善韵律和发音,尤其在中文和日文上效果显著。",
        term_es = "Bert-VITS",
        term_zh = "Bert-VITS",
        aliases_es = { "BERT-VITS2", "Bert-VITS2", "VITS con BERT" },
        aliases_zh = { "BERT-VITS2", "Bert-VITS2", "带BERT的VITS" },
    }
    
    data["bertscore"] = {
        short = "An evaluation metric for text generation that computes token similarity between candidate and reference using contextual embeddings from BERT, then aggregates greedy cosine matches into precision, recall, and F1 scores.",
        article = nil,
        aliases = { "BERTScore", "BERT score", "BERT-Score" },
        es = "Métrica de evaluación de generación de texto que calcula la similitud entre tokens del candidato y la referencia mediante embeddings contextuales de BERT, agregando emparejamientos por coseno en precisión, recall y F1.",
        zh = "一种文本生成评价指标,利用 BERT 的上下文嵌入计算候选文本与参考文本之间的词元相似度,并将贪心余弦匹配聚合为精确率、召回率与 F1。",
        term_es = "BERTScore",
        term_zh = "BERTScore",
        aliases_es = { "BERTScore", "puntuación BERT" },
        aliases_zh = { "BERTScore", "BERT 分数" },
    }
    
    data["bertviz"] = {
        short = "An open-source Python tool for visualizing attention in transformer models such as BERT and GPT, offering head, model, and neuron views.",
        article = nil,
        aliases = { "BertViz" },
        es = "Herramienta de código abierto en Python para visualizar la atención en modelos transformer como BERT y GPT, con vistas por head, por modelo y por neurona.",
        zh = "一个开源的 Python 工具,用于可视化 BERT、GPT 等 Transformer 模型的注意力,提供注意力头、模型和神经元等多种视图。",
        term_es = "BertViz",
        term_zh = "BertViz",
        aliases_es = { "BertViz" },
        aliases_zh = { "BertViz", "bertviz 工具" },
    }
    
    data["best-of-n sampling"] = {
        short = "A decoding strategy that draws N independent samples from a generator and returns the one scoring highest under a reward model or verifier; used for inference-time alignment and reasoning improvements.",
        article = nil,
        aliases = { "BoN", "BoN sampling", "best of N", "best-of-N" },
        es = "Estrategia de decodificación que extrae N muestras independientes de un generador y devuelve la que obtiene la mayor puntuación según un modelo de recompensa o verificador; se usa para alineamiento en inferencia y para mejorar el razonamiento.",
        zh = "一种解码策略:从生成模型中独立采样 N 个候选,然后返回奖励模型或验证器评分最高的那一个;常用于推理阶段的对齐和提升推理能力。",
        term_es = "muestreo best-of-N",
        term_zh = "Best-of-N 采样",
        aliases_es = { "BoN", "muestreo BoN", "mejor de N" },
        aliases_zh = { "BoN", "BoN 采样", "N 选 1 采样" },
    }
    
    data["best-rq"] = {
        short = "BERT-based Speech pre-Training with Random-projection Quantizer, a self-supervised speech representation method from Google that masks input frames and predicts indices produced by a fixed random-projection quantizer, avoiding learned codebooks.",
        article = nil,
        aliases = { "BEST-RQ", "Best-RQ", "BERT-based Speech pre-Training with Random-projection Quantizer", "random projection quantizer pretraining" },
        es = "BERT-based Speech pre-Training with Random-projection Quantizer, un método autosupervisado de representación del habla de Google que enmascara cuadros de entrada y predice índices producidos por un cuantizador de proyección aleatoria fijo, evitando libros de códigos aprendidos.",
        zh = "BERT-based Speech pre-Training with Random-projection Quantizer,是谷歌提出的自监督语音表示方法,对输入帧进行掩蔽并预测由固定随机投影量化器生成的索引,避免使用可学习的码本。",
        term_es = "BEST-RQ",
        term_zh = "BEST-RQ",
        aliases_es = { "Best-RQ", "preentrenamiento con cuantizador de proyección aleatoria" },
        aliases_zh = { "Best-RQ", "随机投影量化器预训练" },
    }
    
    data["beta distribution"] = {
        short = "A continuous distribution on the interval [0,1] with density p(x) ∝ x^(α−1) (1−x)^(β−1), parameterized by positive shape parameters α and β. It is the conjugate prior of the Bernoulli and binomial distributions.",
        article = nil,
        aliases = { "Beta", "Beta(α,β)", "Beta distribution" },
        es = "Distribución continua en el intervalo [0,1] con densidad p(x) ∝ x^(α−1) (1−x)^(β−1), parametrizada por parámetros de forma positivos α y β. Es la prior conjugada de las distribuciones de Bernoulli y binomial.",
        zh = "定义在区间 [0,1] 上的连续分布,密度为 p(x) ∝ x^(α−1) (1−x)^(β−1),由正的形状参数 α 与 β 参数化。它是 Bernoulli 和二项分布的共轭先验。",
        term_es = "distribución Beta",
        term_zh = "Beta 分布",
        aliases_es = { "Beta", "Beta(α,β)" },
        aliases_zh = { "贝塔分布", "Beta", "Beta(α,β)" },
    }
    
    data["beta process"] = {
        short = "A completely random measure used as a nonparametric Bayesian prior over infinite collections of binary features, generating a countably infinite set of atoms with associated Bernoulli probabilities.",
        article = nil,
        aliases = { "BP", "Beta process", "beta-Bernoulli process" },
        es = "Medida completamente aleatoria utilizada como prior bayesiano no paramétrico sobre colecciones infinitas de características binarias; genera un conjunto numerable infinito de átomos con probabilidades de Bernoulli asociadas.",
        zh = "一种完全随机测度,作为对无限二元特征集合的非参数贝叶斯先验,生成具有相应伯努利概率的可数无限原子集合。",
        term_es = "proceso beta",
        term_zh = "Beta 过程",
        aliases_es = { "proceso de Beta", "proceso beta-Bernoulli" },
        aliases_zh = { "贝塔过程", "Beta-伯努利过程" },
    }
    
    data["beta shapley"] = {
        short = "A generalization of data Shapley that reweights marginal contributions using a Beta distribution over coalition sizes, yielding more sample-efficient and noise-robust data valuations.",
        article = nil,
        aliases = { "Beta-Shapley", "Beta Shapley values" },
        es = "Generalización de data Shapley que repondera las contribuciones marginales mediante una distribución Beta sobre los tamaños de coalición, produciendo valoraciones de datos más eficientes en muestreo y robustas al ruido.",
        zh = "对 data Shapley 的推广,使用 Beta 分布对联盟规模重新加权边际贡献,从而获得样本效率更高、对噪声更稳健的数据估值。",
        term_es = "Beta Shapley",
        term_zh = "Beta Shapley",
        aliases_es = { "Beta-Shapley", "valores de Beta Shapley" },
        aliases_zh = { "Beta-Shapley", "Beta Shapley 值" },
    }
    
    data["beta-elbo"] = {
        short = "A modified ELBO that weights the KL divergence term by a hyperparameter β, used in β-VAE to encourage disentangled latent representations when β > 1 or sharper reconstructions when β < 1.",
        article = nil,
        aliases = { "β-ELBO", "beta ELBO", "weighted ELBO", "β-VAE objective", "beta-VAE objective" },
        es = "ELBO modificado que pondera el término de divergencia KL mediante un hiperparámetro β, utilizado en β-VAE para fomentar representaciones latentes desenredadas cuando β > 1 o reconstrucciones más nítidas cuando β < 1.",
        zh = "经修改的 ELBO,通过超参数 β 对 KL 散度项加权,用于 β-VAE:当 β > 1 时促进解耦的潜在表示,当 β < 1 时获得更清晰的重建。",
        term_es = "β-ELBO",
        term_zh = "β-ELBO",
        aliases_es = { "ELBO beta", "ELBO ponderado", "objetivo β-VAE" },
        aliases_zh = { "beta-ELBO", "加权 ELBO", "β-VAE 目标" },
    }
    
    data["beta-vae"] = {
        short = "A variational autoencoder variant (Higgins et al., 2017) that multiplies the KL divergence term in the ELBO by a hyperparameter β>1, encouraging the learned latent factors to be more disentangled at the cost of reconstruction fidelity.",
        article = nil,
        aliases = { "β-VAE", "beta VAE", "BetaVAE", "Beta-VAE" },
        es = "Variante del autocodificador variacional (Higgins et al., 2017) que multiplica el término de divergencia KL del ELBO por un hiperparámetro β>1, fomentando que los factores latentes aprendidos estén más desenmarañados a costa de la fidelidad de reconstrucción.",
        zh = "Higgins 等人于 2017 年提出的 VAE 变体:在 ELBO 的 KL 散度项前乘以超参数 β>1,以牺牲重构保真度为代价,鼓励学习到的潜变量因子更具解耦性。",
        term_es = "β-VAE",
        term_zh = "β-VAE",
        aliases_es = { "VAE beta", "Beta-VAE" },
        aliases_zh = { "Beta-VAE", "β 变分自编码器" },
    }
    
    data["bethe approximation"] = {
        short = "A variational approximation of the partition function of a Markov random field that assumes the joint distribution factorizes over edges using node and edge marginals; equivalent to the fixed points of loopy belief propagation.",
        article = nil,
        aliases = { "Bethe approximation", "Bethe ansatz", "Bethe-Peierls approximation" },
        es = "Aproximación variacional de la función de partición de un campo aleatorio de Markov que supone que la distribución conjunta se factoriza por aristas usando marginales de nodos y aristas; equivalente a los puntos fijos de la propagación de creencias loopy.",
        zh = "一种对马尔可夫随机场配分函数的变分近似,假设联合分布通过节点边缘和边边缘按边因式分解,与 loopy 信念传播的不动点等价。",
        term_es = "aproximación de Bethe",
        term_zh = "Bethe 近似",
        aliases_es = { "ansatz de Bethe", "aproximación de Bethe-Peierls" },
        aliases_zh = { "贝特近似", "Bethe-Peierls 近似" },
    }
    
    data["bethe free energy"] = {
        short = "The variational free energy associated with the Bethe approximation; minimizing it is equivalent to running loopy belief propagation, and its value approximates the negative log-partition function.",
        article = nil,
        aliases = { "Bethe free energy", "Bethe-Peierls free energy" },
        es = "Energía libre variacional asociada a la aproximación de Bethe; minimizarla equivale a ejecutar propagación de creencias loopy, y su valor aproxima el logaritmo negativo de la función de partición.",
        zh = "与 Bethe 近似相关的变分自由能;其极小化等价于执行 loopy 信念传播,其值近似负对数配分函数。",
        term_es = "energía libre de Bethe",
        term_zh = "Bethe 自由能",
        aliases_es = { "energía libre de Bethe-Peierls" },
        aliases_zh = { "贝特自由能" },
    }
    
    data["bf16"] = {
        short = "Brain floating-point format with 1 sign bit, 8 exponent bits and 7 mantissa bits — the same exponent range as FP32 but lower precision. Originating at Google for TPUs, it eliminates the loss-scaling step needed by FP16 for training.",
        article = nil,
        aliases = { "BF16", "bfloat16", "Brain Float 16", "Brain Floating Point" },
        es = "Formato Brain Floating Point con 1 bit de signo, 8 de exponente y 7 de mantisa: el mismo rango de exponente que FP32 pero menor precisión. Originado en Google para las TPU, elimina la necesidad de escalado de pérdidas que sí requiere FP16 durante el entrenamiento.",
        zh = "脑浮点(Brain Float)格式:1 位符号、8 位指数、7 位尾数,指数范围与 FP32 相同但精度较低。源自 Google TPU,可避免 FP16 训练所需的损失缩放步骤。",
        term_es = "bfloat16",
        term_zh = "bfloat16",
        aliases_es = { "BF16", "brain float 16" },
        aliases_zh = { "BF16", "脑浮点", "脑浮点 16" },
    }
    
    data["bfd database"] = {
        short = "The Big Fantastic Database, a clustered collection of over two billion protein sequences combining UniProt, metagenomic, and metatranscriptomic data, used as the deep multiple-sequence-alignment input for AlphaFold and related structure-prediction systems.",
        article = nil,
        aliases = { "BFD", "Big Fantastic Database", "bfd" },
        es = "Big Fantastic Database, una colección agrupada de más de dos mil millones de secuencias de proteínas que combina UniProt y datos metagenómicos y metatranscriptómicos, utilizada como entrada de alineamientos múltiples profundos para AlphaFold y sistemas de predicción de estructura relacionados.",
        zh = "Big Fantastic Database,一个聚合了 UniProt、宏基因组和宏转录组数据、收录超过 20 亿条蛋白序列的聚类数据库,作为 AlphaFold 等结构预测系统所需的深度多序列比对输入。",
        term_es = "base de datos BFD",
        term_zh = "BFD 数据库",
        aliases_es = { "BFD", "Big Fantastic Database" },
        aliases_zh = { "BFD", "Big Fantastic Database" },
    }
    
    data["bfgs"] = {
        short = "A quasi-Newton optimization algorithm that approximates the inverse Hessian using rank-two updates derived from successive gradient and parameter differences.",
        article = nil,
        aliases = { "BFGS", "Broyden-Fletcher-Goldfarb-Shanno", "Broyden–Fletcher–Goldfarb–Shanno algorithm" },
        es = "Algoritmo de optimización cuasi-Newton que aproxima la Hessiana inversa mediante actualizaciones de rango dos calculadas a partir de diferencias sucesivas de gradientes y de parámetros.",
        zh = "一种拟牛顿优化算法,使用基于相邻梯度差和参数差的秩二更新来近似逆海森矩阵。",
        term_es = "BFGS",
        term_zh = "BFGS",
        aliases_es = { "Broyden-Fletcher-Goldfarb-Shanno", "algoritmo BFGS" },
        aliases_zh = { "BFGS算法", "Broyden-Fletcher-Goldfarb-Shanno" },
    }
    
    data["bfv scheme"] = {
        short = "A leveled fully homomorphic encryption scheme by Brakerski-Fan-Vercauteren that supports modular arithmetic on encrypted integers, used in federated learning to encrypt client updates so the server can aggregate without seeing plaintext.",
        article = nil,
        aliases = { "BFV", "Brakerski-Fan-Vercauteren scheme", "Fan-Vercauteren scheme", "BFV homomorphic encryption" },
        es = "Esquema de cifrado totalmente homomórfico por niveles de Brakerski-Fan-Vercauteren que admite aritmética modular sobre enteros cifrados; en aprendizaje federado se usa para cifrar las actualizaciones de los clientes de modo que el servidor pueda agregarlas sin ver el texto plano.",
        zh = "Brakerski-Fan-Vercauteren 提出的分层全同态加密方案,支持密文整数的模运算;在联邦学习中用于加密客户端更新,使服务器能够在不接触明文的情况下进行聚合。",
        term_es = "esquema BFV",
        term_zh = "BFV 方案",
        aliases_es = { "BFV", "esquema Brakerski-Fan-Vercauteren", "cifrado homomórfico BFV" },
        aliases_zh = { "BFV", "Brakerski-Fan-Vercauteren 方案", "BFV 同态加密" },
    }
    
    data["bge score"] = {
        short = "The Bayesian Gaussian equivalent score, a marginal-likelihood structure score for Bayesian networks with linear-Gaussian conditional distributions and a normal-Wishart prior, scoring Markov-equivalent DAGs identically.",
        article = nil,
        aliases = { "BGe", "BGe score", "Bayesian Gaussian equivalent" },
        es = "Puntuación bayesiana gaussiana equivalente; puntuación de verosimilitud marginal para redes bayesianas con distribuciones condicionales lineales-gaussianas y un prior normal-Wishart que asigna la misma puntuación a DAG Markov-equivalentes.",
        zh = "贝叶斯高斯等价评分,针对具有线性-高斯条件分布与正态-Wishart 先验的贝叶斯网络的边缘似然结构评分,对 Markov 等价的有向无环图给出相同分数。",
        term_es = "puntuación BGe",
        term_zh = "BGe 评分",
        aliases_es = { "BGe", "gaussiana equivalente" },
        aliases_zh = { "BGe", "贝叶斯高斯等价评分" },
    }
    
    data["bge-large"] = {
        short = "A large-size variant of the BAAI General Embedding family, a transformer encoder fine-tuned for dense retrieval and semantic similarity in English and Chinese.",
        article = nil,
        aliases = { "BGE-Large", "bge-large-en", "bge-large-zh", "BAAI general embedding large" },
        es = "Variante de tamaño large de la familia BAAI General Embedding, un codificador transformer ajustado para recuperación densa y similitud semántica en inglés y chino.",
        zh = "BAAI General Embedding(BGE)家族的 large 规模版本,一种针对稠密检索与语义相似度任务微调的 Transformer 编码器,支持中英文。",
        term_es = "BGE-Large",
        term_zh = "BGE-Large",
        aliases_es = { "bge-large-en", "bge-large-zh" },
        aliases_zh = { "bge-large-en", "bge-large-zh", "智源 BGE Large" },
    }
    
    data["bgv scheme"] = {
        short = "A leveled fully homomorphic encryption scheme by Brakerski-Gentry-Vaikuntanathan that supports SIMD-style arithmetic on encrypted integer vectors and underlies many privacy-preserving aggregation protocols in federated learning.",
        article = nil,
        aliases = { "BGV", "Brakerski-Gentry-Vaikuntanathan scheme", "BGV homomorphic encryption" },
        es = "Esquema de cifrado totalmente homomórfico por niveles de Brakerski-Gentry-Vaikuntanathan que admite aritmética estilo SIMD sobre vectores enteros cifrados y sustenta numerosos protocolos de agregación que preservan la privacidad en aprendizaje federado.",
        zh = "Brakerski-Gentry-Vaikuntanathan 提出的分层全同态加密方案,支持对加密整数向量进行 SIMD 式运算,是联邦学习中许多隐私保护聚合协议的基础。",
        term_es = "esquema BGV",
        term_zh = "BGV 方案",
        aliases_es = { "BGV", "esquema Brakerski-Gentry-Vaikuntanathan", "cifrado homomórfico BGV" },
        aliases_zh = { "BGV", "Brakerski-Gentry-Vaikuntanathan 方案", "BGV 同态加密" },
    }
    
    data["bi-encoder"] = {
        short = "A neural retrieval architecture in which the query and the document are encoded independently into vectors and scored by a similarity function such as dot product or cosine, enabling document embeddings to be precomputed and indexed.",
        article = nil,
        aliases = { "Bi-Encoder", "bi encoder", "biencoder", "two-tower model", "dual encoder", "siamese encoder" },
        es = "Arquitectura neuronal de recuperación en la que la consulta y el documento se codifican de forma independiente en vectores y se puntúan con una función de similitud como producto punto o coseno, permitiendo precomputar e indexar los embeddings de documentos.",
        zh = "一种神经检索架构,将查询和文档分别独立编码为向量,并通过点积或余弦等相似度函数打分,因而文档嵌入可以预先计算并建立索引。",
        term_es = "bi-encoder",
        term_zh = "bi-encoder",
        aliases_es = { "bi encoder", "biencoder", "modelo de doble torre", "codificador dual", "codificador siamés" },
        aliases_zh = { "bi encoder", "双塔模型", "双编码器", "双塔检索模型", "孪生编码器" },
    }
    
    data["bias"] = {
        short = "In statistics, the systematic deviation of an estimator's expected value from the true parameter it estimates; in machine learning the term also refers to the constant offset added before activation in a neuron and to systematic error from model assumptions.",
        article = nil,
        aliases = { "statistical bias", "estimator bias", "bias term", "model bias" },
        es = "En estadística, la desviación sistemática del valor esperado de un estimador respecto al parámetro verdadero que estima; en aprendizaje automático el término también se refiere al desplazamiento constante añadido antes de la activación en una neurona y al error sistemático debido a los supuestos del modelo.",
        zh = "在统计学中指估计量的期望值相对于其所估计真实参数的系统性偏离;在机器学习中也指神经元在激活前加入的常数偏置项以及由模型假设造成的系统性误差。",
        term_es = "sesgo",
        term_zh = "偏差",
        aliases_es = { "sesgo estadístico", "sesgo del estimador", "término de sesgo", "sesgo del modelo" },
        aliases_zh = { "偏置", "偏倚", "估计偏差", "偏置项" },
    }
    
    data["bias amplification"] = {
        short = "The phenomenon in which a learned model exhibits stronger correlations between sensitive attributes and outcomes than were present in its training data, magnifying existing societal biases.",
        article = nil,
        aliases = { "bias magnification", "stereotype amplification" },
        es = "Fenómeno por el cual un modelo aprendido exhibe correlaciones más fuertes entre atributos sensibles y resultados que las presentes en sus datos de entrenamiento, magnificando los sesgos sociales existentes.",
        zh = "学习得到的模型在敏感属性与结果之间表现出比训练数据中更强的相关性,从而放大已有社会偏见的现象。",
        term_es = "amplificación de sesgo",
        term_zh = "偏差放大",
        aliases_es = { "amplificación del sesgo", "magnificación de sesgo" },
        aliases_zh = { "偏见放大", "刻板印象放大" },
    }
    
    data["bias amplification mitigation"] = {
        short = "Techniques aimed at preventing or reducing bias amplification, including constrained optimization, calibrated training objectives, posterior regularization, and decoding-time corrections in generative models.",
        article = nil,
        aliases = { "amplification mitigation", "debiasing for amplification" },
        es = "Técnicas destinadas a prevenir o reducir la amplificación de sesgo, incluyendo optimización con restricciones, objetivos de entrenamiento calibrados, regularización posterior y correcciones en tiempo de decodificación en modelos generativos.",
        zh = "用于防止或减少偏差放大的技术,包括带约束的优化、经过校准的训练目标、后验正则化以及生成模型解码时的修正。",
        term_es = "mitigación de la amplificación de sesgo",
        term_zh = "偏差放大缓解",
        aliases_es = { "mitigación de amplificación de sesgo" },
        aliases_zh = { "偏见放大缓解", "放大缓解" },
    }
    
    data["bias audit"] = {
        short = "A structured assessment, often by an internal or third-party reviewer, that examines an algorithmic system for disparate impact, disparate treatment, or other harms across protected groups, producing documented findings.",
        article = nil,
        aliases = { "algorithmic bias audit", "fairness audit" },
        es = "Evaluación estructurada, frecuentemente realizada por un revisor interno o externo, que examina un sistema algorítmico en busca de impacto dispar, trato desigual u otros daños entre grupos protegidos, produciendo hallazgos documentados.",
        zh = "对算法系统进行的结构化评估,通常由内部或第三方审查者执行,检查在受保护群体之间的差别影响、差别对待或其他危害,并形成有据可查的结论。",
        term_es = "auditoría de sesgo",
        term_zh = "偏差审计",
        aliases_es = { "auditoría algorítmica de sesgo", "auditoría de equidad" },
        aliases_zh = { "公平性审计", "算法偏差审计" },
    }
    
    data["bias benchmark"] = {
        short = "A standardized dataset and protocol for measuring social or demographic biases exhibited by a model; examples include BBQ, StereoSet, CrowS-Pairs, and WinoBias.",
        article = nil,
        aliases = { "fairness benchmark", "bias evaluation benchmark" },
        es = "Conjunto de datos y protocolo estandarizados para medir los sesgos sociales o demográficos exhibidos por un modelo; ejemplos incluyen BBQ, StereoSet, CrowS-Pairs y WinoBias.",
        zh = "用于衡量模型所表现出的社会或人口偏见的标准化数据集与评估协议;示例包括 BBQ、StereoSet、CrowS-Pairs 和 WinoBias。",
        term_es = "benchmark de sesgo",
        term_zh = "偏差基准",
        aliases_es = { "benchmark de equidad", "punto de referencia de sesgo" },
        aliases_zh = { "偏见基准", "公平性基准" },
    }
    
    data["bias bounty"] = {
        short = "A program, modeled on bug bounties, that pays external researchers or members of the public to identify and report harmful biases or representational harms in deployed AI systems.",
        article = nil,
        aliases = { "algorithmic bias bounty", "AI bias bounty" },
        es = "Programa, modelado en los bug bounties, que remunera a investigadores externos o miembros del público por identificar y reportar sesgos dañinos o daños de representación en sistemas de IA desplegados.",
        zh = "一种类似漏洞赏金的项目,向外部研究人员或公众支付报酬,以发现并报告已部署 AI 系统中的有害偏见或表征性伤害。",
        term_es = "recompensa por sesgos",
        term_zh = "偏差赏金",
        aliases_es = { "bias bounty", "programa de recompensas por sesgo" },
        aliases_zh = { "偏见赏金计划", "AI 偏见赏金" },
    }
    
    data["bias detection"] = {
        short = "The process of identifying systematic disparities in a dataset, model, or pipeline with respect to protected attributes, using statistical tests, fairness metrics, probing, or red-teaming.",
        article = nil,
        aliases = { "fairness detection", "bias identification" },
        es = "Proceso de identificar disparidades sistemáticas en un conjunto de datos, modelo o pipeline respecto a atributos protegidos, usando pruebas estadísticas, métricas de equidad, sondeos o red-teaming.",
        zh = "识别数据集、模型或处理流程中相对于受保护属性的系统性差异的过程,可借助统计检验、公平性指标、探针或红队测试。",
        term_es = "detección de sesgo",
        term_zh = "偏差检测",
        aliases_es = { "identificación de sesgo", "detección de equidad" },
        aliases_zh = { "偏见检测", "偏差识别" },
    }
    
    data["bias evaluation framework"] = {
        short = "A coherent collection of metrics, datasets, and procedures used to measure multiple dimensions of bias in a model and report results in a comparable, reproducible way.",
        article = nil,
        aliases = { "fairness evaluation framework", "bias measurement framework" },
        es = "Colección coherente de métricas, datos y procedimientos utilizados para medir múltiples dimensiones del sesgo en un modelo y reportar los resultados de manera comparable y reproducible.",
        zh = "一组连贯的指标、数据集与流程,用于衡量模型多个维度的偏差,并以可比较、可复现的方式报告结果。",
        term_es = "marco de evaluación de sesgo",
        term_zh = "偏差评估框架",
        aliases_es = { "marco de evaluación de equidad", "framework de evaluación de sesgo" },
        aliases_zh = { "公平性评估框架", "偏见度量框架" },
    }
    
    data["bias in clinical decision support"] = {
        short = "Disparate model behavior in healthcare decision-support tools, where training-data underrepresentation, label proxies (e.g. cost as a proxy for need), or unequal access produce systematically worse recommendations for some patient groups.",
        article = nil,
        aliases = { "clinical decision support bias", "CDS bias", "healthcare algorithm bias" },
        es = "Comportamiento dispar de modelos en herramientas de apoyo a la decisión clínica, donde la subrepresentación en los datos de entrenamiento, etiquetas proxy (como el costo como proxy de necesidad) o el acceso desigual producen recomendaciones sistemáticamente peores para algunos grupos de pacientes.",
        zh = "临床决策支持工具中模型表现出的差异化行为,由训练数据代表性不足、代理标签(如以费用代替医疗需要)或就医机会不平等所致,导致对某些患者群体给出系统性更差的建议。",
        term_es = "sesgo en sistemas de apoyo a la decisión clínica",
        term_zh = "临床决策支持中的偏差",
        aliases_es = { "sesgo en CDS", "sesgo de algoritmos clínicos" },
        aliases_zh = { "CDS 偏差", "医疗算法偏差", "临床辅助决策偏差" },
    }
    
    data["bias in machine translation"] = {
        short = "Systematic errors in machine-translation output that reflect or amplify gender, racial, or cultural stereotypes, e.g. defaulting to masculine forms or misgendering professions.",
        article = nil,
        aliases = { "machine translation bias", "MT bias", "gender bias in MT" },
        es = "Errores sistemáticos en la salida de traducción automática que reflejan o amplifican estereotipos de género, raza o cultura, por ejemplo el uso por defecto de formas masculinas o la asignación incorrecta de género en profesiones.",
        zh = "机器翻译输出中反映或放大性别、种族或文化刻板印象的系统性错误,例如默认使用阳性形式或在职业名称上错误指定性别。",
        term_es = "sesgo en traducción automática",
        term_zh = "机器翻译中的偏差",
        aliases_es = { "sesgo en traducción automática", "sesgo de género en traducción automática" },
        aliases_zh = { "机器翻译偏差", "MT 偏差", "翻译中的性别偏差" },
    }
    
    data["bias in question answering"] = {
        short = "Tendency of QA systems to give answers shaped by stereotypes about the entities mentioned in the question or context; a target of benchmarks such as BBQ and UnQover.",
        article = nil,
        aliases = { "QA bias", "question answering bias" },
        es = "Tendencia de los sistemas de preguntas y respuestas a generar respuestas influidas por estereotipos sobre las entidades mencionadas en la pregunta o el contexto; objetivo de benchmarks como BBQ y UnQover.",
        zh = "问答系统倾向于根据问题或上下文中提到的实体所关联的刻板印象来生成答案;BBQ 和 UnQover 等基准即针对此问题。",
        term_es = "sesgo en sistemas de preguntas y respuestas",
        term_zh = "问答系统中的偏差",
        aliases_es = { "sesgo en QA", "sesgo en preguntas y respuestas" },
        aliases_zh = { "QA 偏差", "问答偏差" },
    }
    
    data["bias in summarization"] = {
        short = "Skewed coverage in machine-generated summaries that disproportionately omits, downplays, or stereotypes information about particular demographic groups, viewpoints, or entities.",
        article = nil,
        aliases = { "summarization bias", "summary bias" },
        es = "Cobertura sesgada en los resúmenes generados automáticamente que omite, minimiza o estereotipa de manera desproporcionada información sobre determinados grupos demográficos, puntos de vista o entidades.",
        zh = "机器生成摘要中的覆盖偏差,对特定人口群体、观点或实体的信息存在不成比例的省略、淡化或刻板化处理。",
        term_es = "sesgo en resumen automático",
        term_zh = "摘要生成中的偏差",
        aliases_es = { "sesgo de resumen", "sesgo en summarization" },
        aliases_zh = { "摘要偏差", "自动摘要偏差" },
    }
    
    data["bias mitigation"] = {
        short = "Techniques applied to data, training, or post-processing to reduce systematic disparities or unwanted biases in a model's predictions across groups or contexts.",
        article = nil,
        aliases = { "debiasing", "bias reduction", "fairness intervention", "bias correction" },
        es = "Técnicas aplicadas a los datos, al entrenamiento o al post-procesamiento para reducir las disparidades sistemáticas o los sesgos no deseados en las predicciones de un modelo entre grupos o contextos.",
        zh = "在数据、训练或后处理阶段应用的技术,用于减少模型预测在不同群体或情境下的系统性差异或不期望的偏差。",
        term_es = "mitigación de sesgos",
        term_zh = "偏差缓解",
        aliases_es = { "reducción de sesgos", "corrección de sesgos", "desesgo", "intervención de equidad" },
        aliases_zh = { "去偏", "偏见缓解", "偏差纠正", "公平性干预" },
    }
    
    data["bias-variance tradeoff"] = {
        short = "A decomposition of the expected prediction error of an estimator into bias squared, variance, and irreducible noise, capturing the tension that reducing one component (e.g. by using a more flexible model) typically increases the other.",
        article = nil,
        aliases = { "bias variance tradeoff", "bias-variance trade-off", "bias-variance decomposition", "bias/variance tradeoff" },
        es = "Descomposición del error de predicción esperado de un estimador en sesgo al cuadrado, varianza y ruido irreducible, que captura la tensión por la cual reducir un componente (por ejemplo, usando un modelo más flexible) típicamente aumenta el otro.",
        zh = "把估计量的期望预测误差分解为偏差平方、方差和不可约噪声三部分,揭示降低其中一项(例如使用更灵活的模型)通常会增加另一项的内在权衡。",
        term_es = "compromiso sesgo-varianza",
        term_zh = "偏差-方差权衡",
        aliases_es = { "tradeoff sesgo-varianza", "balance sesgo-varianza", "descomposición sesgo-varianza" },
        aliases_zh = { "偏置-方差权衡", "偏差方差分解", "bias-variance tradeoff" },
    }
    
    data["biasbios benchmark"] = {
        short = "Bias in Bios, a dataset of online biographies labeled with occupation and gender, used to study gender bias in occupation classification and representation learning.",
        article = nil,
        aliases = { "Bias in Bios", "BiasBios", "Bias-in-Bios", "Bios benchmark" },
        es = "Bias in Bios: conjunto de biografías en línea etiquetadas con ocupación y género, usado para estudiar el sesgo de género en la clasificación de ocupaciones y el aprendizaje de representaciones.",
        zh = "Bias in Bios(BiasBios)数据集:包含带有职业和性别标注的在线人物简介,用于研究职业分类与表示学习中的性别偏差。",
        term_es = "BiasBios",
        term_zh = "BiasBios 基准",
        aliases_es = { "Bias in Bios", "benchmark Bias in Bios" },
        aliases_zh = { "Bias in Bios", "BiasBios", "简介偏差基准" },
    }
    
    data["bidirectional compression"] = {
        short = "A communication-efficient federated learning technique that compresses both the client-to-server gradient updates (uplink) and the server-to-client model broadcast (downlink), reducing total bandwidth in both directions.",
        article = nil,
        aliases = { "bi-directional compression", "two-way compression", "uplink-downlink compression" },
        es = "Técnica de aprendizaje federado eficiente en comunicación que comprime tanto las actualizaciones de gradiente de cliente a servidor (enlace ascendente) como la difusión del modelo de servidor a cliente (enlace descendente), reduciendo el ancho de banda total en ambas direcciones.",
        zh = "一种通信高效的联邦学习技术:同时压缩客户端到服务器的梯度更新(上行)以及服务器到客户端的模型广播(下行),降低双向总带宽消耗。",
        term_es = "compresión bidireccional",
        term_zh = "双向压缩",
        aliases_es = { "compresión en ambas direcciones", "compresión uplink-downlink" },
        aliases_zh = { "双向梯度压缩", "上下行压缩" },
    }
    
    data["bidirectional rnn"] = {
        short = "A recurrent neural network that processes a sequence with two RNNs running in opposite directions, concatenating their hidden states so each position has access to both past and future context.",
        article = nil,
        aliases = { "BiRNN", "Bi-RNN", "bidirectional recurrent neural network", "bidirectional RNN", "bi-directional RNN" },
        es = "Red neuronal recurrente que procesa una secuencia con dos RNN en direcciones opuestas y concatena sus estados ocultos, de modo que cada posición dispone tanto de contexto pasado como futuro.",
        zh = "一种循环神经网络,使用两个方向相反的 RNN 处理同一序列并拼接其隐藏状态,使每个位置同时能访问过去与未来的上下文。",
        term_es = "RNN bidireccional",
        term_zh = "双向循环神经网络",
        aliases_es = { "BiRNN", "red recurrente bidireccional" },
        aliases_zh = { "双向 RNN", "BiRNN", "双向递归神经网络" },
    }
    
    data["big-bench"] = {
        short = "Beyond the Imitation Game Benchmark: a collaborative suite of more than 200 diverse tasks designed to probe the capabilities and limitations of large language models across reasoning, knowledge and linguistic skills.",
        article = nil,
        aliases = { "BIG-bench", "BIG-Bench", "Beyond the Imitation Game Benchmark", "BIG bench" },
        es = "Beyond the Imitation Game Benchmark: conjunto colaborativo de más de 200 tareas diversas diseñadas para evaluar las capacidades y limitaciones de los grandes modelos de lenguaje en razonamiento, conocimiento y habilidades lingüísticas.",
        zh = "Beyond the Imitation Game Benchmark:一个由社区共建、包含 200 多个多样化任务的基准套件,旨在考察大语言模型在推理、知识和语言能力等方面的表现与局限。",
        term_es = "BIG-Bench",
        term_zh = "BIG-Bench",
        aliases_es = { "BIG bench", "Beyond the Imitation Game Benchmark" },
        aliases_zh = { "BIG bench", "Beyond the Imitation Game Benchmark" },
    }
    
    data["big-bench hard"] = {
        short = "A 23-task subset of BIG-Bench, selected because earlier language models performed below the average human rater on them; widely used to evaluate reasoning under chain-of-thought prompting.",
        article = nil,
        aliases = { "BBH", "BIG-Bench Hard", "BIG Bench Hard" },
        es = "Subconjunto de 23 tareas de BIG-Bench seleccionadas porque los modelos de lenguaje anteriores rendían por debajo del evaluador humano promedio en ellas; muy usado para evaluar razonamiento con prompting de cadena de pensamiento.",
        zh = "BIG-Bench 中由 23 个任务组成的子集,被挑选出来是因为以往的语言模型在这些任务上低于普通人类评分者,常用于评估思维链提示下的推理能力。",
        term_es = "BIG-Bench Hard",
        term_zh = "BIG-Bench Hard",
        aliases_es = { "BBH" },
        aliases_zh = { "BBH", "BIG Bench Hard" },
    }
    
    data["bigbench"] = {
        short = "A collaborative benchmark of more than 200 diverse tasks (linguistics, reasoning, social bias, code, common sense) designed to probe and extrapolate the capabilities of large language models beyond saturating benchmarks.",
        article = nil,
        aliases = { "BIG-bench", "BIG-Bench", "BIG bench", "Beyond the Imitation Game Benchmark", "BBH", "BIG-Bench Hard" },
        es = "Benchmark colaborativo de más de 200 tareas diversas (lingüística, razonamiento, sesgo social, código, sentido común) diseñado para sondear y extrapolar las capacidades de modelos de lenguaje grandes más allá de benchmarks saturados.",
        zh = "一项由社区协作构建、包含 200 余项多样化任务(语言学、推理、社会偏见、代码、常识)的基准,旨在探测并外推大型语言模型超越已饱和基准的能力。",
        term_es = "BIG-bench",
        term_zh = "BIG-bench",
        aliases_es = { "BIG-bench", "BIG-Bench", "BBH" },
        aliases_zh = { "BIG-bench", "BIG-Bench", "BBH", "BIG-Bench Hard" },
    }
    
    data["bigcodebench"] = {
        short = "A benchmark for evaluating LLMs on practical code generation tasks that require composing calls across many libraries, with rigorous test-case execution and difficulty splits beyond simple function completion.",
        article = nil,
        aliases = { "BigCodeBench", "Big Code Bench" },
        es = "Banco de pruebas para evaluar LLMs en tareas prácticas de generación de código que requieren combinar llamadas de muchas bibliotecas, con ejecución rigurosa de casos de prueba y particiones de dificultad más allá de la simple finalización de funciones.",
        zh = "用于评估大语言模型在实际代码生成任务上的基准,强调跨多个库的调用组合,并通过严格的测试用例执行和不同难度划分,超越简单的函数补全评估。",
        term_es = "BigCodeBench",
        term_zh = "BigCodeBench",
        aliases_es = { "Big Code Bench" },
        aliases_zh = { "Big Code Bench" },
    }
    
    data["biggan"] = {
        short = "A class-conditional GAN (Brock et al., 2019) trained at large batch and parameter scale on ImageNet, using shared class embeddings, hierarchical latents and the truncation trick at sampling time to achieve high-fidelity 256×256 and 512×512 image synthesis.",
        article = nil,
        aliases = { "BigGAN", "BigGAN-deep" },
        es = "GAN condicional por clase (Brock et al., 2019) entrenada con tamaños de lote y de parámetros muy grandes sobre ImageNet, que utiliza embeddings de clase compartidos, latentes jerárquicos y el truco de truncamiento en muestreo para lograr síntesis de imagen de alta fidelidad a 256×256 y 512×512.",
        zh = "Brock 等人于 2019 年提出的类别条件 GAN:在 ImageNet 上以极大的批量和参数规模训练,使用共享类别嵌入、层次潜变量和采样时的截断技巧,实现 256×256 与 512×512 高保真图像合成。",
        term_es = "BigGAN",
        term_zh = "BigGAN",
        aliases_es = { "BigGAN-deep" },
        aliases_zh = { "BigGAN-deep" },
    }
    
    data["bignas"] = {
        short = "A single-stage neural architecture search method that trains one large supernet so that any sub-network can be extracted at deployment without retraining or fine-tuning.",
        article = nil,
        aliases = { "BigNAS", "Big NAS" },
        es = "Método de búsqueda de arquitecturas neuronales en una sola etapa que entrena un gran supernet de modo que cualquier subred pueda extraerse en despliegue sin reentrenamiento ni ajuste fino.",
        zh = "一种单阶段神经架构搜索方法,训练一个大型超网络,使任意子网络在部署时无需再训练或微调即可直接提取。",
        term_es = "BigNAS",
        term_zh = "BigNAS",
        aliases_es = { "Big NAS" },
        aliases_zh = { "Big NAS" },
    }
    
    data["bigvgan"] = {
        short = "A universal neural vocoder from NVIDIA based on a GAN architecture with periodic activation functions and large receptive fields, designed to generate high-fidelity waveforms from mel spectrograms across diverse speakers, languages, and audio domains.",
        article = nil,
        aliases = { "BigVGAN", "Big-VGAN", "BigVGAN vocoder", "NVIDIA BigVGAN" },
        es = "Vocoder neuronal universal de NVIDIA basado en una arquitectura GAN con funciones de activación periódicas y campos receptivos amplios, diseñado para generar formas de onda de alta fidelidad a partir de espectrogramas mel para diversos hablantes, idiomas y dominios de audio.",
        zh = "由 NVIDIA 提出的通用神经声码器,基于 GAN 架构,采用周期性激活函数和大感受野,能够针对多样的说话人、语言和音频领域,从梅尔频谱图生成高保真波形。",
        term_es = "BigVGAN",
        term_zh = "BigVGAN",
        aliases_es = { "vocoder BigVGAN", "BigVGAN de NVIDIA" },
        aliases_zh = { "BigVGAN 声码器", "NVIDIA BigVGAN" },
    }
    
    data["bigwig"] = {
        short = "An indexed binary format for storing dense, continuous genome-wide signal tracks such as read coverage, conservation scores, or ChIP-seq enrichment, designed for efficient random access by genome browsers. Companion of the bedGraph and wig text formats.",
        article = nil,
        aliases = { "bigWig", "BigWig", ".bw", ".bigwig", "bw track" },
        es = "Formato binario indexado para almacenar pistas continuas y densas de señales en todo el genoma, como cobertura de lecturas, puntuaciones de conservación o enriquecimiento de ChIP-seq, diseñado para el acceso aleatorio eficiente desde los navegadores de genomas. Complementa los formatos de texto bedGraph y wig.",
        zh = "一种带索引的二进制格式,用于存储密集且连续的全基因组信号轨道,如读取覆盖度、保守性得分或 ChIP-seq 富集,针对基因组浏览器的高效随机访问而设计,是 bedGraph 与 wig 文本格式的二进制对应物。",
        term_es = "bigWig",
        term_zh = "bigWig",
        aliases_es = { "BigWig", "archivo .bw", "pista bigWig" },
        aliases_zh = { "BigWig 文件", ".bw 文件", "bigWig 轨道" },
    }
    
    data["bilevel architecture search"] = {
        short = "A formulation of neural architecture search as a bilevel optimization problem, where architecture parameters are optimized on validation data while network weights are optimized on training data.",
        article = nil,
        aliases = { "bi-level architecture search", "bilevel NAS", "bi-level NAS" },
        es = "Formulación de la búsqueda de arquitecturas neuronales como un problema de optimización bi-nivel, en el que los parámetros de arquitectura se optimizan sobre datos de validación mientras los pesos de la red se optimizan sobre datos de entrenamiento.",
        zh = "将神经架构搜索表述为双层优化问题:架构参数在验证集上优化,而网络权重在训练集上优化。",
        term_es = "búsqueda de arquitectura bi-nivel",
        term_zh = "双层架构搜索",
        aliases_es = { "NAS bi-nivel", "búsqueda bi-nivel de arquitectura" },
        aliases_zh = { "双层NAS", "双层神经架构搜索" },
    }
    
    data["bilevel optimization"] = {
        short = "An optimization problem in which one set of variables is optimized subject to the constraint that another set is itself the solution of an inner optimization problem; common in meta-learning, NAS, and hyperparameter tuning.",
        article = nil,
        aliases = { "bi-level optimization", "nested optimization", "two-level optimization" },
        es = "Problema de optimización en el que un conjunto de variables se optimiza sujeto a que otro conjunto sea a su vez la solución de un problema interno; aparece en meta-aprendizaje, NAS y ajuste de hiperparámetros.",
        zh = "一类优化问题,其中一组变量在另一组变量本身是内层优化问题的解的约束下被优化;常见于元学习、NAS和超参数调优。",
        term_es = "optimización bi-nivel",
        term_zh = "双层优化",
        aliases_es = { "optimización bi nivel", "optimización anidada", "optimización de dos niveles" },
        aliases_zh = { "双层优化问题", "嵌套优化", "二层优化" },
    }
    
    data["binary cross-entropy"] = {
        short = "Cross-entropy loss for binary classification, equal to the negative log-likelihood of Bernoulli targets under predicted probabilities. Equivalent to logistic loss.",
        article = nil,
        aliases = { "binary cross entropy", "BCE", "sigmoid cross-entropy", "log-loss" },
        es = "Pérdida de entropía cruzada para clasificación binaria, igual a la log-verosimilitud negativa de objetivos Bernoulli dadas las probabilidades predichas. Equivalente a la pérdida logística.",
        zh = "用于二分类的交叉熵损失,等价于在预测概率下伯努利目标的负对数似然,与逻辑损失等价。",
        term_es = "entropía cruzada binaria",
        term_zh = "二元交叉熵",
        aliases_es = { "BCE", "entropía cruzada sigmoide" },
        aliases_zh = { "BCE", "sigmoid 交叉熵" },
    }
    
    data["binary rbm"] = {
        short = "A restricted Boltzmann machine in which both the visible and hidden units are binary (Bernoulli) variables; the simplest and historically most-studied form of RBM.",
        article = nil,
        aliases = { "binary RBM", "Bernoulli-Bernoulli RBM", "BB-RBM", "binary restricted Boltzmann machine" },
        es = "Máquina de Boltzmann restringida en la que tanto las unidades visibles como las ocultas son variables binarias (Bernoulli); la forma más simple y más estudiada históricamente de RBM.",
        zh = "可见单元和隐藏单元均为二值(伯努利)变量的受限玻尔兹曼机,是 RBM 中最简单且历史上研究最多的形式。",
        term_es = "RBM binaria",
        term_zh = "二值 RBM",
        aliases_es = { "RBM Bernoulli-Bernoulli", "máquina de Boltzmann restringida binaria" },
        aliases_zh = { "Bernoulli-Bernoulli RBM", "二值受限玻尔兹曼机" },
    }
    
    data["binder design"] = {
        short = "The computational design of molecules—typically miniproteins or peptides—that bind a specified target with high affinity and specificity, often using diffusion models such as RFdiffusion.",
        article = nil,
        aliases = { "Binder design", "de novo binder design", "protein binder design" },
        es = "Diseño computacional de moléculas—típicamente miniproteínas o péptidos—que se unen a un objetivo especificado con alta afinidad y especificidad, a menudo usando modelos de difusión como RFdiffusion.",
        zh = "对能够以高亲和力和高特异性结合指定靶点的分子(通常是小蛋白或多肽)进行计算设计,常使用 RFdiffusion 等扩散模型。",
        term_es = "diseño de unidores",
        term_zh = "结合蛋白设计",
        aliases_es = { "diseño de novo de unidores", "diseño de binders", "diseño de unidores proteicos" },
        aliases_zh = { "binder 设计", "蛋白质结合剂设计", "从头结合蛋白设计" },
    }
    
    data["binding affinity prediction"] = {
        short = "The task of predicting the strength of interaction between a ligand and a target protein, typically expressed as Kd, Ki, IC50, or pKi, using docking, free-energy methods, or machine-learning models.",
        article = nil,
        aliases = { "Binding affinity prediction", "affinity prediction", "protein-ligand affinity prediction" },
        es = "Tarea de predecir la fuerza de la interacción entre un ligando y una proteína objetivo, típicamente expresada como Kd, Ki, IC50 o pKi, utilizando acoplamiento, métodos de energía libre o modelos de aprendizaje automático.",
        zh = "预测配体与靶蛋白之间相互作用强度的任务,通常以 Kd、Ki、IC50 或 pKi 表示,使用对接、自由能方法或机器学习模型。",
        term_es = "predicción de afinidad de unión",
        term_zh = "结合亲和力预测",
        aliases_es = { "predicción de afinidad", "predicción de afinidad proteína-ligando" },
        aliases_zh = { "亲和力预测", "蛋白—配体亲和力预测" },
    }
    
    data["binding mode"] = {
        short = "The orientation, conformation, and set of contacts a ligand adopts within a protein binding site, determining which residues drive recognition and informing structure-based drug optimization.",
        article = nil,
        aliases = { "Binding mode", "ligand binding mode" },
        es = "La orientación, conformación y conjunto de contactos que adopta un ligando dentro de un sitio de unión proteico, determinando qué residuos impulsan el reconocimiento e informando la optimización de fármacos basada en la estructura.",
        zh = "配体在蛋白质结合位点中所采取的取向、构象以及一组相互作用接触,决定哪些残基驱动识别,并指导基于结构的药物优化。",
        term_es = "modo de unión",
        term_zh = "结合模式",
        aliases_es = { "modo de unión del ligando" },
        aliases_zh = { "结合模式", "配体结合模式" },
    }
    
    data["binding pocket"] = {
        short = "A cavity or cleft on a protein surface where a ligand binds, typically formed by side chains that provide complementary shape, electrostatics, and hydrogen-bonding partners to the bound molecule.",
        article = nil,
        aliases = { "Binding pocket", "binding cavity", "ligand binding pocket" },
        es = "Una cavidad o hendidura en la superficie de una proteína donde se une un ligando, típicamente formada por cadenas laterales que proporcionan forma complementaria, electrostática y socios de enlaces de hidrógeno a la molécula unida.",
        zh = "蛋白质表面上配体结合的腔体或凹槽,通常由侧链构成,为结合分子提供互补的形状、静电性质和氢键作用伙伴。",
        term_es = "bolsillo de unión",
        term_zh = "结合口袋",
        aliases_es = { "cavidad de unión", "bolsillo del ligando" },
        aliases_zh = { "结合口袋", "结合腔", "配体结合口袋" },
    }
    
    data["binding pose prediction"] = {
        short = "The task of predicting the three-dimensional orientation and conformation of a ligand within a known protein binding site, typically tackled by molecular docking or deep-learning pose predictors such as DiffDock.",
        article = nil,
        aliases = { "Binding pose prediction", "pose prediction", "ligand pose prediction" },
        es = "Tarea de predecir la orientación y conformación tridimensional de un ligando dentro de un sitio de unión proteico conocido, típicamente abordada mediante acoplamiento molecular o predictores de pose basados en aprendizaje profundo como DiffDock.",
        zh = "预测配体在已知蛋白质结合位点内的三维取向和构象的任务,通常通过分子对接或 DiffDock 等基于深度学习的姿态预测器来解决。",
        term_es = "predicción de pose de unión",
        term_zh = "结合姿态预测",
        aliases_es = { "predicción de pose", "predicción de pose del ligando" },
        aliases_zh = { "姿态预测", "结合构象预测", "配体姿态预测" },
    }
    
    data["binding site prediction"] = {
        short = "The task of identifying regions on a protein structure or sequence likely to bind small molecules or other macromolecules, often using geometric pocket detection or learned models such as P2Rank.",
        article = nil,
        aliases = { "Binding site prediction", "pocket prediction", "ligand binding site prediction" },
        es = "Tarea de identificar regiones en una estructura o secuencia proteica que probablemente se unan a pequeñas moléculas u otras macromoléculas, a menudo utilizando detección geométrica de bolsillos o modelos aprendidos como P2Rank.",
        zh = "在蛋白质结构或序列中识别可能结合小分子或其他大分子的区域的任务,通常使用几何口袋检测或 P2Rank 等学习模型。",
        term_es = "predicción de sitios de unión",
        term_zh = "结合位点预测",
        aliases_es = { "predicción de bolsillos", "predicción de sitios de unión de ligandos" },
        aliases_zh = { "口袋预测", "配体结合位点预测" },
    }
    
    data["bindingdb"] = {
        short = "A public, web-accessible database of measured binding affinities (Ki, Kd, IC50, EC50) between drug-like small molecules and protein targets, widely used to train and benchmark structure-activity models.",
        article = nil,
        aliases = { "BindingDB", "Binding Database", "Binding DB" },
        es = "Base de datos pública en la web de afinidades de unión medidas (Ki, Kd, IC50, EC50) entre moléculas pequeñas tipo fármaco y dianas proteicas, ampliamente usada para entrenar y evaluar modelos de actividad-estructura.",
        zh = "一个公开的网络可访问的结合亲和力数据库,收录了类药小分子与蛋白质靶点之间测得的 Ki、Kd、IC50、EC50 等数据,广泛用于训练和评估构效模型。",
        term_es = "BindingDB",
        term_zh = "BindingDB",
        aliases_es = { "Binding Database", "Binding DB" },
        aliases_zh = { "BindingDB 数据库", "结合数据库" },
    }
    
    data["biobert"] = {
        short = "A BERT language model pretrained on PubMed abstracts and PubMed Central full-text articles in addition to the original English Wikipedia and BookCorpus, designed to improve performance on biomedical natural language processing tasks such as named entity recognition and relation extraction.",
        article = nil,
        aliases = { "BioBERT", "Bio-BERT", "biomedical BERT" },
        es = "Modelo de lenguaje BERT preentrenado con resúmenes de PubMed y artículos completos de PubMed Central, además de Wikipedia en inglés y BookCorpus originales, diseñado para mejorar el desempeño en tareas de procesamiento de lenguaje natural biomédico como el reconocimiento de entidades nombradas y la extracción de relaciones.",
        zh = "在 PubMed 摘要和 PubMed Central 全文文献以及原始英文维基百科和 BookCorpus 上预训练的 BERT 语言模型,旨在提升生物医学自然语言处理任务(如命名实体识别和关系抽取)的性能。",
        term_es = "BioBERT",
        term_zh = "BioBERT",
        aliases_es = { "BioBERT", "BERT biomédico" },
        aliases_zh = { "BioBERT", "生物医学 BERT" },
    }
    
    data["biochemical assay prediction"] = {
        short = "The task of predicting the numerical or categorical outcome of a biochemical assay (binding, inhibition, activation) from a molecular structure, typically formulated as regression or classification on assay endpoints.",
        article = nil,
        aliases = { "bioassay prediction", "assay outcome prediction", "biochemical activity prediction" },
        es = "Tarea de predecir el resultado numérico o categórico de un ensayo bioquímico (unión, inhibición, activación) a partir de la estructura molecular, formulada generalmente como regresión o clasificación sobre los puntos finales del ensayo.",
        zh = "根据分子结构预测生化实验(结合、抑制、激活)的数值或分类结果的任务,通常形式化为对实验终点的回归或分类。",
        term_es = "predicción de ensayos bioquímicos",
        term_zh = "生化实验预测",
        aliases_es = { "predicción de bioensayos", "predicción de actividad bioquímica" },
        aliases_zh = { "生物测定预测", "生化测定预测" },
    }
    
    data["bioconductor"] = {
        short = "An open-source software project providing R packages for the analysis of high-throughput genomic, transcriptomic, and proteomic data, with shared core data structures (e.g. SummarizedExperiment, GenomicRanges) and a coordinated semiannual release cycle.",
        article = nil,
        aliases = { "Bioconductor", "Bioconductor project" },
        es = "Proyecto de software de código abierto que proporciona paquetes de R para el análisis de datos genómicos, transcriptómicos y proteómicos de alto rendimiento, con estructuras de datos compartidas (por ejemplo SummarizedExperiment, GenomicRanges) y un ciclo de publicación coordinado dos veces al año.",
        zh = "一个开源软件项目,提供用于高通量基因组、转录组和蛋白组数据分析的 R 包,具有共享的核心数据结构(如 SummarizedExperiment、GenomicRanges)以及协调的半年度发布周期。",
        term_es = "Bioconductor",
        term_zh = "Bioconductor",
        aliases_es = { "proyecto Bioconductor", "Bioconductor para R" },
        aliases_zh = { "Bioconductor 项目", "R Bioconductor" },
    }
    
    data["biogpt"] = {
        short = "A generative Transformer language model pretrained on PubMed abstracts, designed for biomedical text generation, question answering, and relation extraction. Released by Microsoft Research, with weights publicly available on the Hugging Face Hub.",
        article = nil,
        aliases = { "BioGPT", "Bio-GPT", "biomedical GPT" },
        es = "Modelo de lenguaje generativo basado en Transformer, preentrenado con resúmenes de PubMed y diseñado para generación de texto biomédico, respuesta a preguntas y extracción de relaciones. Publicado por Microsoft Research, con pesos disponibles públicamente en Hugging Face.",
        zh = "在 PubMed 摘要上预训练的生成式 Transformer 语言模型,用于生物医学文本生成、问答和关系抽取,由 Microsoft Research 发布,权重公开于 Hugging Face Hub。",
        term_es = "BioGPT",
        term_zh = "BioGPT",
        aliases_es = { "BioGPT", "GPT biomédico" },
        aliases_zh = { "BioGPT", "生物医学 GPT" },
    }
    
    data["biogrid"] = {
        short = "BioGRID is a curated public database of protein-protein, genetic, and chemical interactions compiled from the primary biomedical literature for major model organisms and humans. Widely used as a reference resource for interactome analysis and network biology.",
        article = nil,
        aliases = { "BioGRID", "BioGRID database", "Biological General Repository for Interaction Datasets" },
        es = "BioGRID es una base de datos pública curada de interacciones proteína-proteína, genéticas y químicas, compilada a partir de la literatura biomédica primaria para los principales organismos modelo y para humanos. Se utiliza como recurso de referencia en análisis de interactomas y biología de redes.",
        zh = "BioGRID 是一个经人工校审的公开数据库,从主要模式生物和人类的原始生物医学文献中整理蛋白-蛋白、遗传和化学相互作用,广泛用于互作组分析和网络生物学的参考资源。",
        term_es = "BioGRID",
        term_zh = "BioGRID",
        aliases_es = { "base de datos BioGRID" },
        aliases_zh = { "BioGRID 数据库", "BioGRID 互作数据库" },
    }
    
    data["bioisostere"] = {
        short = "A chemical group, atom, or substructure that produces similar biological activity when substituted for another, due to comparable physicochemical properties such as size, polarity, or electronic profile.",
        article = nil,
        aliases = { "bioisosteres", "bio-isostere", "isostere" },
        es = "Grupo químico, átomo o subestructura que, al sustituir a otro, produce una actividad biológica similar gracias a propiedades fisicoquímicas comparables como tamaño, polaridad o perfil electrónico.",
        zh = "在替代另一个基团、原子或子结构时,因具有相似的物理化学性质(如尺寸、极性或电子分布)而产生相似生物活性的化学单元。",
        term_es = "bioisóstero",
        term_zh = "生物电子等排体",
        aliases_es = { "bioisósteros", "isóstero" },
        aliases_zh = { "生物等排体", "生物电子等排基团" },
    }
    
    data["bioisosterism"] = {
        short = "A medicinal-chemistry strategy in which one functional group is replaced by a bioisostere to modulate potency, selectivity, metabolic stability, or physicochemical properties while preserving biological activity.",
        article = nil,
        aliases = { "bioisosteric replacement", "bio-isosterism", "isosterism" },
        es = "Estrategia de química medicinal en la que un grupo funcional se reemplaza por un bioisóstero para modular potencia, selectividad, estabilidad metabólica o propiedades fisicoquímicas conservando la actividad biológica.",
        zh = "药物化学中的一种策略,通过用生物电子等排体替换某个官能团,在保持生物活性的同时调节效力、选择性、代谢稳定性或理化性质。",
        term_es = "bioisosterismo",
        term_zh = "生物电子等排原理",
        aliases_es = { "reemplazo bioisostérico", "isosterismo" },
        aliases_zh = { "生物等排原理", "电子等排替换" },
    }
    
    data["biological age prediction"] = {
        short = "The estimation of an individual's biological (as opposed to chronological) age from molecular measurements such as DNA methylation, transcriptomic, or proteomic data. Biological-age clocks aim to capture cumulative physiological aging and predict morbidity and mortality risk.",
        article = nil,
        aliases = { "biological age estimation", "epigenetic clock", "aging clock", "DNA methylation age", "Horvath clock", "biological age clock" },
        es = "Estimación de la edad biológica (en contraposición a la cronológica) de un individuo a partir de mediciones moleculares como datos de metilación del ADN, transcriptómicos o proteómicos. Los relojes de edad biológica buscan capturar el envejecimiento fisiológico acumulado y predecir el riesgo de morbilidad y mortalidad.",
        zh = "通过 DNA 甲基化、转录组或蛋白组等分子测量来估计个体的生物学年龄(区别于实际年龄)。生物学年龄时钟旨在刻画累积的生理衰老并预测发病与死亡风险。",
        term_es = "predicción de edad biológica",
        term_zh = "生物学年龄预测",
        aliases_es = { "estimación de edad biológica", "reloj epigenético", "reloj de envejecimiento", "edad por metilación del ADN", "reloj de Horvath" },
        aliases_zh = { "生物年龄预测", "表观遗传时钟", "衰老时钟", "DNA 甲基化年龄", "Horvath 时钟" },
    }
    
    data["biomedclip"] = {
        short = "A CLIP-style vision-language model from Microsoft pretrained on 15 million biomedical figure-caption pairs from PubMed Central, designed for zero-shot classification and retrieval over medical images and biomedical text.",
        article = nil,
        aliases = { "BiomedCLIP", "Biomed-CLIP", "BioMedCLIP" },
        es = "Modelo de visión-lenguaje al estilo CLIP de Microsoft, preentrenado con 15 millones de pares figura–pie de figura biomédicos de PubMed Central, diseñado para clasificación y recuperación en cero disparos sobre imágenes médicas y texto biomédico.",
        zh = "微软提出的CLIP风格视觉-语言模型,在来自PubMed Central的1500万对生物医学图像-标题对上预训练,专为医学图像和生物医学文本的零样本分类与检索而设计。",
        term_es = "BiomedCLIP",
        term_zh = "BiomedCLIP",
        aliases_es = { "BiomedCLIP" },
        aliases_zh = { "BiomedCLIP", "生物医学CLIP" },
    }
    
    data["biopython"] = {
        short = "An open-source Python library providing modules for parsing biological file formats (FASTA, GenBank, PDB), running and parsing BLAST results, manipulating sequences and alignments, and accessing online bioinformatics resources. Maintained by the Open Bioinformatics Foundation.",
        article = nil,
        aliases = { "Biopython", "Bio.Python", "Bio.* (Python)" },
        es = "Biblioteca de Python de código abierto que ofrece módulos para analizar formatos de archivos biológicos (FASTA, GenBank, PDB), ejecutar e interpretar resultados de BLAST, manipular secuencias y alineamientos, y acceder a recursos bioinformáticos en línea. Mantenida por la Open Bioinformatics Foundation.",
        zh = "开源 Python 库,提供模块来解析生物学文件格式(FASTA、GenBank、PDB)、运行并解析 BLAST 结果、操作序列与比对,以及访问在线生物信息学资源,由 Open Bioinformatics Foundation 维护。",
        term_es = "Biopython",
        term_zh = "Biopython",
        aliases_es = { "Biopython", "biblioteca Biopython" },
        aliases_zh = { "Biopython", "Biopython 库" },
    }
    
    data["bisulfite sequencing"] = {
        short = "A sequencing method in which genomic DNA is treated with sodium bisulfite to convert unmethylated cytosines to uracil while leaving methylated cytosines unchanged, enabling base-resolution mapping of DNA methylation. Variants include whole-genome bisulfite sequencing (WGBS) and reduced-representation bisulfite sequencing (RRBS).",
        article = nil,
        aliases = { "BS-seq", "BS sequencing", "WGBS", "whole-genome bisulfite sequencing", "RRBS", "reduced-representation bisulfite sequencing", "methylC-seq" },
        es = "Método de secuenciación en el que el ADN genómico se trata con bisulfito de sodio para convertir las citosinas no metiladas en uracilo mientras las citosinas metiladas permanecen inalteradas, permitiendo cartografiar la metilación del ADN con resolución de base. Sus variantes incluyen la secuenciación de bisulfito de genoma completo (WGBS) y la de representación reducida (RRBS).",
        zh = "一种测序方法,先用亚硫酸氢钠处理基因组 DNA,将未甲基化的胞嘧啶转变为尿嘧啶而保留甲基化胞嘧啶不变,从而以单碱基分辨率绘制 DNA 甲基化图谱。常见变体包括全基因组亚硫酸氢盐测序(WGBS)和简化代表性亚硫酸氢盐测序(RRBS)。",
        term_es = "secuenciación con bisulfito",
        term_zh = "亚硫酸氢盐测序",
        aliases_es = { "BS-seq", "secuenciación por bisulfito", "WGBS", "secuenciación de bisulfito de genoma completo", "RRBS" },
        aliases_zh = { "BS-seq", "重亚硫酸盐测序", "WGBS", "全基因组亚硫酸氢盐测序", "RRBS" },
    }
    
    data["bitfit"] = {
        short = "A parameter-efficient fine-tuning method that updates only the bias terms of a pretrained transformer while keeping all weight matrices frozen, achieving competitive performance with a tiny fraction of trainable parameters.",
        article = nil,
        aliases = { "BitFit", "bias-only fine-tuning", "bias fine-tuning" },
        es = "Método de ajuste fino eficiente en parámetros que actualiza únicamente los términos de sesgo de un transformador preentrenado mientras mantiene congeladas todas las matrices de pesos, alcanzando un rendimiento competitivo con una fracción mínima de parámetros entrenables.",
        zh = "一种参数高效微调方法,仅更新预训练 Transformer 的偏置项,保持所有权重矩阵冻结,以极少量可训练参数实现具有竞争力的性能。",
        term_es = "BitFit",
        term_zh = "BitFit",
        aliases_es = { "BitFit", "ajuste fino solo de sesgos", "ajuste de sesgos" },
        aliases_zh = { "BitFit", "仅偏置微调", "偏置微调" },
    }
    
    data["bits per character"] = {
        short = "A length-normalized language-model loss equal to the cross-entropy in base-2 per character: BPC = −(1/N) Σ log_2 p(c_i | context). A standard metric for character-level models.",
        article = nil,
        aliases = { "BPC", "bits-per-character", "bits per char", "bpc", "bits per byte", "BPB" },
        es = "Pérdida de modelo de lenguaje normalizada por longitud, igual a la entropía cruzada en base 2 por carácter: BPC = −(1/N) Σ log_2 p(c_i | contexto). Es una métrica estándar para modelos a nivel de caracteres.",
        zh = "按长度归一化的语言模型损失,等于以 2 为底的每字符交叉熵:BPC = −(1/N) Σ log_2 p(c_i | 上下文)。是字符级模型的标准评估指标。",
        term_es = "bits por carácter",
        term_zh = "每字符比特数",
        aliases_es = { "BPC", "bits/carácter", "bits por byte" },
        aliases_zh = { "BPC", "比特/字符", "每字节比特数 BPB" },
    }
    
    data["bitsandbytes"] = {
        short = "An open-source CUDA library by Tim Dettmers that provides 8-bit optimizers and 8-/4-bit (LLM.int8(), NF4, FP4) quantized linear layers, widely used by Hugging Face Transformers and PEFT for low-precision LLM training and inference.",
        article = nil,
        aliases = { "BitsAndBytes", "bnb", "bitsandbytes-cuda", "LLM.int8()" },
        es = "Biblioteca CUDA de código abierto de Tim Dettmers que proporciona optimizadores de 8 bits y capas lineales cuantizadas a 8 y 4 bits (LLM.int8(), NF4, FP4); es muy utilizada por Hugging Face Transformers y PEFT para entrenamiento e inferencia de LLM en baja precisión.",
        zh = "Tim Dettmers 开发的开源 CUDA 库,提供 8 位优化器以及 8/4 位(LLM.int8()、NF4、FP4)量化线性层,被 Hugging Face Transformers 和 PEFT 广泛用于 LLM 的低精度训练与推理。",
        term_es = "bitsandbytes",
        term_zh = "bitsandbytes",
        aliases_es = { "bnb", "BitsAndBytes" },
        aliases_zh = { "bnb", "BitsAndBytes" },
    }
    
    data["black-box audit"] = {
        short = "An evaluation of an algorithmic system carried out without access to its source code, training data, or internal weights, relying solely on observable inputs and outputs to test for bias or other harms.",
        article = nil,
        aliases = { "black box audit", "blackbox audit", "external audit" },
        es = "Evaluación de un sistema algorítmico realizada sin acceso a su código fuente, datos de entrenamiento o pesos internos, basándose únicamente en entradas y salidas observables para detectar sesgos u otros daños.",
        zh = "在无法访问算法系统的源代码、训练数据或内部权重的情况下,仅依赖可观察的输入和输出来测试偏差或其他危害的评估。",
        term_es = "auditoría de caja negra",
        term_zh = "黑盒审计",
        aliases_es = { "auditoría caja negra", "auditoría externa" },
        aliases_zh = { "黑箱审计", "外部审计" },
    }
    
    data["black-box model"] = {
        short = "A model whose internal mechanisms are opaque to the user, examined only through input-output behavior; contrasted with white-box (transparent) models.",
        article = nil,
        aliases = { "black box model", "blackbox model", "black-box" },
        es = "Modelo cuyo funcionamiento interno es opaco para el usuario y solo se examina a través de su comportamiento entrada-salida; contrasta con los modelos de caja blanca (transparentes).",
        zh = "对用户而言内部机制不透明、只能通过输入输出行为进行考察的模型,与白盒(透明)模型相对。",
        term_es = "modelo de caja negra",
        term_zh = "黑盒模型",
        aliases_es = { "modelo caja negra", "caja negra" },
        aliases_zh = { "黑箱模型", "黑盒" },
    }
    
    data["black-box variational inference"] = {
        short = "A variational inference framework that fits an approximating distribution by stochastic gradient ascent on the ELBO using only Monte Carlo gradient estimates, requiring no model-specific derivations.",
        article = nil,
        aliases = { "BBVI", "black box variational inference", "blackbox variational inference" },
        es = "Marco de inferencia variacional que ajusta una distribución aproximante mediante ascenso de gradiente estocástico sobre el ELBO usando solo estimadores Monte Carlo del gradiente, sin requerir derivaciones específicas del modelo.",
        zh = "一种变分推断框架,仅使用蒙特卡洛梯度估计对 ELBO 进行随机梯度上升以拟合近似分布,无需针对具体模型进行解析推导。",
        term_es = "inferencia variacional de caja negra",
        term_zh = "黑盒变分推断",
        aliases_es = { "BBVI", "VI de caja negra" },
        aliases_zh = { "BBVI", "黑箱变分推断" },
    }
    
    data["blast"] = {
        short = "Basic Local Alignment Search Tool, a heuristic algorithm and software suite for finding regions of local similarity between a query biological sequence and a sequence database, returning ranked hits with E-values. Developed by Altschul et al. and maintained at the NCBI.",
        article = nil,
        aliases = { "BLAST", "Basic Local Alignment Search Tool", "NCBI BLAST", "BLAST search" },
        es = "Basic Local Alignment Search Tool, algoritmo heurístico y conjunto de programas para encontrar regiones de similitud local entre una secuencia biológica de consulta y una base de datos de secuencias, devolviendo coincidencias ordenadas con valores E. Desarrollado por Altschul y colaboradores y mantenido por el NCBI.",
        zh = "Basic Local Alignment Search Tool,一种用于在查询生物序列与序列数据库之间寻找局部相似区域的启发式算法及软件套件,返回按 E 值排序的命中结果。由 Altschul 等人开发并由 NCBI 维护。",
        term_es = "BLAST",
        term_zh = "BLAST",
        aliases_es = { "Basic Local Alignment Search Tool", "BLAST de NCBI", "búsqueda BLAST" },
        aliases_zh = { "BLAST 搜索", "NCBI BLAST", "基本局部比对搜索工具" },
    }
    
    data["blastp"] = {
        short = "The protein-protein variant of BLAST, which compares an amino-acid query sequence against a protein sequence database using substitution matrices such as BLOSUM62 to score local alignments. Used for homology search and functional annotation.",
        article = nil,
        aliases = { "BLASTP", "blastp", "protein BLAST", "BLAST protein-protein" },
        es = "Variante proteína-proteína de BLAST, que compara una secuencia de aminoácidos consulta contra una base de datos de proteínas usando matrices de sustitución como BLOSUM62 para puntuar alineamientos locales. Se utiliza para búsquedas de homología y anotación funcional.",
        zh = "BLAST 的蛋白-蛋白变体,使用 BLOSUM62 等替换矩阵将氨基酸查询序列与蛋白序列数据库进行比对并对局部比对打分,常用于同源搜索和功能注释。",
        term_es = "BLASTP",
        term_zh = "BLASTP",
        aliases_es = { "blastp", "BLAST proteína-proteína", "BLAST de proteínas" },
        aliases_zh = { "blastp", "蛋白 BLAST", "蛋白质 BLAST" },
    }
    
    data["bleu"] = {
        short = "Bilingual Evaluation Understudy: a corpus-level machine-translation metric that combines modified n-gram precision (typically up to 4-grams) with a brevity penalty for short hypotheses. Ranges 0–1 (or 0–100) and remains the de facto baseline despite known weaknesses.",
        article = nil,
        aliases = { "BLEU", "BLEU score", "Bilingual Evaluation Understudy", "BLEU-4" },
        es = "Bilingual Evaluation Understudy: métrica de traducción automática a nivel de corpus que combina precisión de n-gramas modificada (típicamente hasta 4-gramas) con una penalización por brevedad para hipótesis cortas. Toma valores de 0 a 1 (o de 0 a 100) y, pese a sus limitaciones conocidas, sigue siendo el referente por defecto.",
        zh = "Bilingual Evaluation Understudy:在语料级别评估机器翻译质量的指标,结合改进的 n-gram 精确率(通常至 4-gram)与对过短译文的简短惩罚。取值范围 0–1(或 0–100),尽管存在已知缺陷,仍是事实上的基线指标。",
        term_es = "BLEU",
        term_zh = "BLEU",
        aliases_es = { "BLEU", "puntuación BLEU", "BLEU-4" },
        aliases_zh = { "BLEU", "BLEU 分数", "BLEU-4", "双语评估替补" },
    }
    
    data["blind source separation"] = {
        short = "The task of recovering a set of underlying source signals from observed mixtures without prior knowledge of the mixing process or the sources themselves, often tackled with ICA or deep neural networks.",
        article = nil,
        aliases = { "BSS", "blind signal separation", "unsupervised source separation", "blind source separation BSS" },
        es = "Tarea de recuperar un conjunto de señales fuente subyacentes a partir de mezclas observadas sin conocimiento previo del proceso de mezcla ni de las fuentes mismas, abordada habitualmente con ICA o redes neuronales profundas.",
        zh = "在不了解混合过程或源信号本身的先验信息的情况下,从观测到的混合信号中恢复一组底层源信号的任务,通常使用独立成分分析(ICA)或深度神经网络来解决。",
        term_es = "separación ciega de fuentes",
        term_zh = "盲源分离",
        aliases_es = { "BSS", "separación ciega de señales", "separación de fuentes no supervisada" },
        aliases_zh = { "BSS", "盲信号分离", "无监督源分离" },
    }
    
    data["blink benchmark"] = {
        short = "A benchmark for evaluating multimodal large language models on core visual perception abilities such as relative depth, spatial reasoning, visual correspondence, and forensics, using tasks that humans solve in a glance.",
        article = nil,
        aliases = { "BLINK", "BLINK benchmark" },
        es = "Banco de pruebas para evaluar modelos multimodales grandes en habilidades centrales de percepción visual como profundidad relativa, razonamiento espacial, correspondencia visual y análisis forense, mediante tareas que los humanos resuelven \"en un parpadeo\".",
        zh = "用于评估多模态大语言模型核心视觉感知能力的基准测试,包括相对深度、空间推理、视觉对应和取证等任务——这些任务人类\"一眼\"即可解决。",
        term_es = "BLINK",
        term_zh = "BLINK",
        aliases_es = { "banco de pruebas BLINK" },
        aliases_zh = { "BLINK基准" },
    }
    
    data["blink entity linker"] = {
        short = "A two-stage neural entity linker by Facebook AI that combines a bi-encoder for fast candidate retrieval with a cross-encoder for re-ranking, mapping mentions in text to Wikipedia entities at large scale.",
        article = nil,
        aliases = { "BLINK", "BLINK entity linking", "BLINK linker" },
        es = "Un enlazador de entidades neuronal de dos etapas, desarrollado por Facebook AI, que combina un bi-codificador para la recuperación rápida de candidatos con un cross-encoder para reordenarlos, asignando menciones en texto a entidades de Wikipedia a gran escala.",
        zh = "Facebook AI 提出的两阶段神经实体链接器,结合双编码器进行快速候选检索与交叉编码器进行重排,将文本中的提及大规模映射到维基百科实体。",
        term_es = "BLINK",
        term_zh = "BLINK",
        aliases_es = { "BLINK", "enlazador BLINK", "BLINK entity linker" },
        aliases_zh = { "BLINK", "BLINK 实体链接器", "BLINK 链接器" },
    }
    
    data["blip"] = {
        short = "Bootstrapping Language-Image Pre-training, a vision-language model from Salesforce that unifies understanding and generation tasks via a multimodal mixture-of-encoder-decoder and bootstraps captions through a captioner-filter scheme.",
        article = nil,
        aliases = { "BLIP", "Bootstrapping Language-Image Pretraining", "Bootstrapping Language-Image Pre-training" },
        es = "Bootstrapping Language-Image Pre-training, un modelo de visión-lenguaje de Salesforce que unifica tareas de comprensión y generación mediante una mezcla multimodal de codificadores-decodificadores y mejora los subtítulos mediante un esquema de captioner-filter.",
        zh = "Bootstrapping Language-Image Pre-training,由Salesforce提出的视觉-语言模型,通过多模态编码器-解码器混合体统一理解与生成任务,并以\"captioner-filter\"方案自举生成更优的图文标注。",
        term_es = "BLIP",
        term_zh = "BLIP",
        aliases_es = { "BLIP" },
        aliases_zh = { "BLIP" },
    }
    
    data["blip-2"] = {
        short = "A vision-language model from Salesforce that bridges a frozen pretrained image encoder and a frozen large language model with a lightweight Querying Transformer (Q-Former), enabling efficient image captioning, VQA, and instructed image-to-text generation.",
        article = nil,
        aliases = { "BLIP-2", "BLIP2" },
        es = "Modelo de visión-lenguaje de Salesforce que conecta un codificador de imágenes preentrenado congelado y un LLM congelado mediante un Querying Transformer (Q-Former) ligero, permitiendo subtitulado de imágenes, VQA y generación instruida de imagen a texto de forma eficiente.",
        zh = "Salesforce提出的视觉-语言模型,使用轻量级Querying Transformer(Q-Former)连接冻结的预训练图像编码器与冻结的大型语言模型,从而高效完成图像描述、视觉问答和指令式图文生成。",
        term_es = "BLIP-2",
        term_zh = "BLIP-2",
        aliases_es = { "BLIP2" },
        aliases_zh = { "BLIP2" },
    }
    
    data["blip-3"] = {
        short = "The third generation of the BLIP family from Salesforce (also released as xGen-MM), a series of open multimodal large language models trained on large-scale interleaved image-text data with stronger instruction-following and visual reasoning.",
        article = nil,
        aliases = { "BLIP-3", "BLIP3", "xGen-MM", "xgen-mm" },
        es = "Tercera generación de la familia BLIP de Salesforce (también publicada como xGen-MM), una serie de modelos multimodales grandes y abiertos entrenados con datos a gran escala de imagen-texto intercalado, con mejor seguimiento de instrucciones y razonamiento visual.",
        zh = "Salesforce推出的BLIP系列第三代(也以xGen-MM名义发布),一组在大规模图文交错数据上训练的开源多模态大语言模型,具备更强的指令遵循与视觉推理能力。",
        term_es = "BLIP-3",
        term_zh = "BLIP-3",
        aliases_es = { "BLIP3", "xGen-MM" },
        aliases_zh = { "BLIP3", "xGen-MM" },
    }
    
    data["blizzard challenge"] = {
        short = "An annual international evaluation campaign for text-to-speech systems in which participants synthesize speech from a common training corpus and submissions are scored by listeners on naturalness and intelligibility.",
        article = nil,
        aliases = { "Blizzard Challenge", "Blizzard TTS Challenge", "Blizzard speech synthesis challenge" },
        es = "Campaña internacional de evaluación anual para sistemas de texto a voz en la que los participantes sintetizan habla a partir de un corpus de entrenamiento común y las propuestas son puntuadas por oyentes en cuanto a naturalidad e inteligibilidad.",
        zh = "一项面向文本到语音系统的年度国际评测活动,参赛者使用共同的训练语料合成语音,并由听众就自然度和可懂度对提交结果打分。",
        term_es = "Blizzard Challenge",
        term_zh = "Blizzard 挑战赛",
        aliases_es = { "desafío Blizzard", "Blizzard Challenge de TTS" },
        aliases_zh = { "Blizzard Challenge", "Blizzard 语音合成挑战赛" },
    }
    
    data["block gibbs sampling"] = {
        short = "A Gibbs sampling variant that updates groups (blocks) of variables jointly from their conditional distribution rather than one variable at a time, often improving mixing when block variables are strongly correlated.",
        article = nil,
        aliases = { "blocked Gibbs sampling", "block Gibbs sampler", "blocked Gibbs sampler" },
        es = "Variante del muestreo de Gibbs que actualiza grupos (bloques) de variables conjuntamente a partir de su distribución condicional en lugar de una variable a la vez, mejorando a menudo la mezcla cuando las variables del bloque están fuertemente correlacionadas.",
        zh = "Gibbs 采样的一种变体,每次按组(块)从其条件分布中联合更新多个变量,而非逐个变量更新;当块内变量高度相关时通常能改善混合。",
        term_es = "muestreo de Gibbs por bloques",
        term_zh = "块 Gibbs 采样",
        aliases_es = { "Gibbs por bloques", "muestreador de Gibbs por bloques" },
        aliases_zh = { "分块 Gibbs 采样", "块化 Gibbs 抽样" },
    }
    
    data["block matrix"] = {
        short = "A matrix that is partitioned into rectangular submatrices (blocks), allowing structured operations such as block-wise multiplication and inversion. Block structure often reflects the structure of the underlying problem (e.g. coupled subsystems).",
        article = nil,
        aliases = { "partitioned matrix", "block-partitioned matrix", "block matrices" },
        es = "Matriz particionada en submatrices rectangulares (bloques), lo que permite operaciones estructuradas como multiplicación e inversión por bloques. La estructura de bloques suele reflejar la estructura del problema subyacente.",
        zh = "被划分为若干矩形子矩阵(块)的矩阵,可进行分块乘法、分块求逆等结构化运算。分块结构通常反映底层问题的结构。",
        term_es = "matriz por bloques",
        term_zh = "分块矩阵",
        aliases_es = { "matriz particionada", "matriz en bloques" },
        aliases_zh = { "块矩阵", "分块矩阵" },
    }
    
    data["block-diagonal attention"] = {
        short = "An attention pattern in which the attention matrix is restricted to block-diagonal form, so each token only attends to others within its own block; used to pack independent sequences in the same batch or to enforce structured locality.",
        article = nil,
        aliases = { "block diagonal attention", "blockwise diagonal attention" },
        es = "Patrón de atención en el que la matriz de atención se restringe a forma diagonal por bloques, de modo que cada token solo atiende a los demás dentro de su propio bloque; se usa para empaquetar secuencias independientes en un mismo batch o para imponer localidad estructurada.",
        zh = "一种注意力模式,将注意力矩阵限制为块对角形式,使每个 token 只关注同一块内的其它 token;常用于在同一批次中打包多个独立序列,或施加结构化的局部性。",
        term_es = "atención diagonal por bloques",
        term_zh = "块对角注意力",
        aliases_es = { "block-diagonal attention" },
        aliases_zh = { "分块对角注意力", "块对角化注意力" },
    }
    
    data["block-diagonal kfac"] = {
        short = "A variant of the K-FAC second-order optimizer in which the Fisher information matrix is approximated by a block-diagonal matrix with one block per layer, each itself approximated as a Kronecker product of small per-layer factors.",
        article = nil,
        aliases = { "block-diagonal K-FAC", "block-diagonal Kronecker-factored approximation", "BD-KFAC" },
        es = "Variante del optimizador de segundo orden K-FAC en la que la matriz de información de Fisher se aproxima mediante una matriz bloque-diagonal con un bloque por capa, cada uno a su vez aproximado como producto de Kronecker de factores pequeños específicos de la capa.",
        zh = "K-FAC二阶优化器的一种变体,将Fisher信息矩阵近似为块对角矩阵,每层一个块,并将每个块近似为各层小因子的Kronecker积。",
        term_es = "K-FAC bloque-diagonal",
        term_zh = "块对角K-FAC",
        aliases_es = { "K-FAC bloque diagonal", "BD-KFAC", "aproximación de Kronecker bloque-diagonal" },
        aliases_zh = { "块对角KFAC", "BD-KFAC", "块对角Kronecker分解近似" },
    }
    
    data["block-wise nas"] = {
        short = "A neural architecture search strategy that decomposes the search problem block by block, optimizing each network block independently before composing the final architecture, often using teacher supervision.",
        article = nil,
        aliases = { "blockwise NAS", "block-wise neural architecture search", "block wise NAS" },
        es = "Estrategia de búsqueda de arquitecturas neuronales que descompone el problema bloque por bloque, optimizando cada bloque de la red de forma independiente antes de componer la arquitectura final, a menudo con supervisión de un profesor.",
        zh = "一种神经架构搜索策略,将搜索问题按块分解,独立优化每个网络块后再拼装最终架构,常借助教师网络提供监督。",
        term_es = "NAS por bloques",
        term_zh = "分块NAS",
        aliases_es = { "búsqueda de arquitecturas por bloques", "NAS bloque a bloque" },
        aliases_zh = { "逐块NAS", "块级神经架构搜索" },
    }
    
    data["blocked path"] = {
        short = "In a causal DAG, a path is blocked relative to a conditioning set Z if it contains a non-collider in Z, or a collider that is not in Z and has no descendant in Z. Blocked paths transmit no statistical association.",
        article = nil,
        aliases = { "blocked pathway", "d-separated path", "closed path" },
        es = "En un DAG causal, una trayectoria está bloqueada respecto a un conjunto de condicionamiento Z si contiene un no-colisionador en Z, o un colisionador que no está en Z y no tiene descendientes en Z. Las trayectorias bloqueadas no transmiten asociación estadística.",
        zh = "在因果有向无环图中,若路径上存在某个非碰撞节点位于条件集 Z 中,或存在某个碰撞节点既不在 Z 中且其后代也不在 Z 中,则该路径相对于 Z 被阻断;被阻断的路径不传递统计关联。",
        term_es = "trayectoria bloqueada",
        term_zh = "被阻断路径",
        aliases_es = { "camino bloqueado", "trayectoria d-separada" },
        aliases_zh = { "阻断路径", "d-分离路径", "封闭路径" },
    }
    
    data["blocking"] = {
        short = "Closing a path in a causal graph by conditioning on (or refraining from conditioning on) appropriate nodes so that no statistical association flows along it; central to the backdoor adjustment and d-separation.",
        article = nil,
        aliases = { "path blocking", "blocking a path", "d-separation blocking" },
        es = "Cerrar una trayectoria en un grafo causal mediante el condicionamiento (o la abstención de condicionar) sobre los nodos apropiados, de modo que no fluya asociación estadística a lo largo de ella; central para el ajuste por puerta trasera y la d-separación.",
        zh = "通过对适当节点进行条件化(或不进行条件化)来关闭因果图中的某条路径,使得统计关联无法沿其传递;是后门调整和 d-分离的核心概念。",
        term_es = "bloqueo de trayectorias",
        term_zh = "路径阻断",
        aliases_es = { "bloqueo de caminos", "bloqueo en grafos causales" },
        aliases_zh = { "阻断", "d-分离阻断" },
    }
    
    data["blockswap"] = {
        short = "A model compression technique that automatically replaces expensive blocks of a trained network with cheaper alternatives while preserving accuracy under a target inference budget.",
        article = nil,
        aliases = { "BlockSwap", "block swap" },
        es = "Técnica de compresión de modelos que sustituye automáticamente bloques costosos de una red entrenada por alternativas más baratas, preservando la precisión bajo un presupuesto de inferencia objetivo.",
        zh = "一种模型压缩技术,在保持精度的前提下,于目标推理预算下自动将训练好的网络中的高成本块替换为更廉价的替代块。",
        term_es = "BlockSwap",
        term_zh = "BlockSwap",
        aliases_es = { "block swap" },
        aliases_zh = { "block swap" },
    }
    
    data["blockwise attention"] = {
        short = "An attention scheme that partitions the sequence into contiguous blocks and computes attention block by block, often combined with sparsity or memory-saving recomputation to reduce the quadratic cost of full self-attention.",
        article = nil,
        aliases = { "block-wise attention", "block attention" },
        es = "Esquema de atención que divide la secuencia en bloques contiguos y calcula la atención bloque a bloque, a menudo combinado con dispersión o recomputación para reducir el costo cuadrático de la autoatención completa.",
        zh = "一种注意力方案,将序列划分为连续的块并按块计算注意力,通常结合稀疏化或重计算等技术,以降低完整自注意力的二次方复杂度。",
        term_es = "atención por bloques",
        term_zh = "分块注意力",
        aliases_es = { "blockwise attention" },
        aliases_zh = { "块状注意力", "blockwise attention" },
    }
    
    data["blog language"] = {
        short = "Bayesian Logic, a probabilistic programming language for representing first-order generative models with unknown numbers of objects, supporting open-universe probability inference.",
        article = nil,
        aliases = { "BLOG", "Bayesian Logic", "BLOG language" },
        es = "Bayesian Logic; lenguaje de programación probabilística para representar modelos generativos de primer orden con un número desconocido de objetos, que admite inferencia probabilística de universo abierto.",
        zh = "Bayesian Logic,一种用于表示对象数目未知的一阶生成模型的概率编程语言,支持开放宇宙概率推断。",
        term_es = "lenguaje BLOG",
        term_zh = "BLOG 语言",
        aliases_es = { "BLOG", "lenguaje Bayesian Logic" },
        aliases_zh = { "BLOG", "贝叶斯逻辑语言" },
    }
    
    data["blood-brain barrier prediction"] = {
        short = "Computational prediction of whether a compound can cross the blood-brain barrier, typically formulated as a binary classification (BBB+/BBB−) or regression on logBB, used in CNS drug discovery and ADMET screening.",
        article = nil,
        aliases = { "BBB prediction", "BBB permeability prediction", "blood brain barrier permeability prediction" },
        es = "Predicción computacional de si un compuesto puede atravesar la barrera hematoencefálica, formulada típicamente como clasificación binaria (BHE+/BHE−) o regresión sobre logBB, usada en descubrimiento de fármacos del SNC y cribado ADMET.",
        zh = "通过计算预测化合物能否穿过血脑屏障的任务,通常形式化为二分类(BBB+/BBB−)或对 logBB 的回归,用于中枢神经系统药物研发与 ADMET 筛查。",
        term_es = "predicción de la barrera hematoencefálica",
        term_zh = "血脑屏障预测",
        aliases_es = { "predicción de permeabilidad de la BHE", "predicción BHE" },
        aliases_zh = { "BBB 预测", "血脑屏障通透性预测" },
    }
    
    data["bloom"] = {
        short = "A 176B-parameter open-access multilingual large language model trained by the BigScience workshop on the ROOTS corpus covering 46 natural and 13 programming languages.",
        article = nil,
        aliases = { "BLOOM", "BigScience BLOOM" },
        es = "Modelo de lenguaje grande, multilingüe y de acceso abierto de 176 mil millones de parámetros, entrenado por el taller BigScience sobre el corpus ROOTS, que cubre 46 lenguas naturales y 13 lenguajes de programación.",
        zh = "由 BigScience 工作坊训练的 1760 亿参数开源多语言大语言模型,使用涵盖 46 种自然语言和 13 种编程语言的 ROOTS 语料库。",
        term_es = "BLOOM",
        term_zh = "BLOOM",
        aliases_es = { "BigScience BLOOM" },
        aliases_zh = { "BigScience BLOOM" },
    }
    
    data["blosum matrix"] = {
        short = "BLOcks SUbstitution Matrix, a family of amino-acid substitution matrices derived from observed substitution frequencies in conserved local protein blocks at varying levels of sequence identity. BLOSUM62 is the default scoring matrix for many BLAST searches.",
        article = nil,
        aliases = { "BLOSUM", "BLOSUM matrix", "BLOSUM62", "BLOSUM45", "BLOSUM80", "BLOcks SUbstitution Matrix" },
        es = "BLOcks SUbstitution Matrix, familia de matrices de sustitución de aminoácidos derivadas de las frecuencias de sustitución observadas en bloques locales conservados de proteínas con distintos niveles de identidad. BLOSUM62 es la matriz de puntuación predeterminada en muchas búsquedas BLAST.",
        zh = "BLOcks SUbstitution Matrix,一类源自不同序列同一性水平下蛋白质保守局部块中观察到的替换频率的氨基酸替换矩阵。BLOSUM62 是许多 BLAST 搜索的默认打分矩阵。",
        term_es = "matriz BLOSUM",
        term_zh = "BLOSUM 矩阵",
        aliases_es = { "BLOSUM", "BLOSUM62", "BLOSUM45", "BLOSUM80", "matriz de sustitución BLOSUM" },
        aliases_zh = { "BLOSUM", "BLOSUM62", "BLOSUM45", "BLOSUM80", "BLOcks 替换矩阵" },
    }
    
    data["bm25"] = {
        short = "A bag-of-words ranking function that scores documents against a query using term frequency, inverse document frequency, and a saturation-and-length-normalization formula derived from probabilistic relevance theory.",
        article = nil,
        aliases = { "BM25", "Okapi BM25", "best matching 25" },
        es = "Función de ranking basada en bolsa de palabras que puntúa documentos frente a una consulta usando frecuencia de términos, frecuencia inversa de documentos y una fórmula de saturación y normalización por longitud derivada de la teoría probabilística de relevancia.",
        zh = "一种词袋排名函数,基于词频、逆文档频率以及源自概率相关性理论的饱和与长度归一化公式,对文档相对查询进行打分。",
        term_es = "BM25",
        term_zh = "BM25",
        aliases_es = { "BM25", "Okapi BM25" },
        aliases_zh = { "BM25", "Okapi BM25", "最佳匹配 25" },
    }
    
    data["body-head split federated"] = {
        short = "A split federated learning architecture in which a shared feature-extraction body is trained collaboratively while client-specific heads are kept local, balancing personalization with global representation learning.",
        article = nil,
        aliases = { "body-head split FL", "shared body local head FL", "body-head federated learning" },
        es = "Arquitectura de aprendizaje federado dividido en la que un cuerpo compartido de extracción de características se entrena de forma colaborativa mientras que las cabezas específicas de cada cliente se mantienen locales, equilibrando personalización y aprendizaje de representaciones globales.",
        zh = "一种分割式联邦学习架构:共享的特征提取主干(body)协同训练,而每个客户端的头部(head)保留在本地,在个性化与全局表示学习之间取得平衡。",
        term_es = "federado con división cuerpo-cabeza",
        term_zh = "主干-头部分离联邦学习",
        aliases_es = { "FL con body-head split", "aprendizaje federado con cuerpo compartido y cabeza local" },
        aliases_zh = { "body-head split FL", "共享主干本地头部联邦学习" },
    }
    
    data["boerlage92 network"] = {
        short = "A small Bayesian network for medical diagnosis introduced by Boerlage in 1992, frequently used as a benchmark example for inference and learning algorithms.",
        article = nil,
        aliases = { "Boerlage92", "Boerlage 92 network", "Boerlage network" },
        es = "Pequeña red bayesiana para diagnóstico médico introducida por Boerlage en 1992, utilizada con frecuencia como ejemplo de referencia para algoritmos de inferencia y aprendizaje.",
        zh = "由 Boerlage 于 1992 年提出的小型医学诊断贝叶斯网络,常被用作推断与学习算法的基准示例。",
        term_es = "red Boerlage92",
        term_zh = "Boerlage92 网络",
        aliases_es = { "Boerlage92", "red de Boerlage" },
        aliases_zh = { "Boerlage92", "Boerlage 网络" },
    }
    
    data["bohb"] = {
        short = "A hyperparameter optimization method that combines TPE-based Bayesian optimization with the adaptive resource allocation of Hyperband, replacing Hyperband's random sampling by Bayesian-guided sampling.",
        article = nil,
        aliases = { "BOHB", "Bayesian Optimization HyperBand", "Bayesian Optimization and Hyperband", "BO-HB" },
        es = "Método de optimización de hiperparámetros que combina la optimización bayesiana basada en TPE con la asignación adaptativa de recursos de Hyperband, sustituyendo el muestreo aleatorio de Hyperband por un muestreo guiado bayesianamente.",
        zh = "一种超参数优化方法,将基于TPE的贝叶斯优化与Hyperband的自适应资源分配相结合,用贝叶斯引导的采样替代Hyperband的随机采样。",
        term_es = "BOHB",
        term_zh = "BOHB",
        aliases_es = { "Bayesian Optimization HyperBand", "BO-HB" },
        aliases_zh = { "Bayesian Optimization HyperBand", "贝叶斯优化Hyperband" },
    }
    
    data["boltz-1"] = {
        short = "An open-source deep-learning model for biomolecular complex structure prediction released by MIT in 2024, achieving accuracy comparable to AlphaFold3 on proteins, nucleic acids, and ligands.",
        article = nil,
        aliases = { "Boltz-1", "Boltz1", "Boltz" },
        es = "Modelo de aprendizaje profundo de código abierto para la predicción de estructuras de complejos biomoleculares publicado por el MIT en 2024, con precisión comparable a AlphaFold3 sobre proteínas, ácidos nucleicos y ligandos.",
        zh = "由麻省理工学院于 2024 年发布的开源深度学习模型,用于预测生物分子复合物结构,在蛋白质、核酸和配体上的精度可与 AlphaFold3 媲美。",
        term_es = "Boltz-1",
        term_zh = "Boltz-1",
        aliases_es = { "Boltz1", "Boltz" },
        aliases_zh = { "Boltz1", "Boltz 模型" },
    }
    
    data["boltzmann distribution"] = {
        short = "A probability distribution over states proportional to exp(-E(x)/T), where E is an energy function and T a temperature; the canonical form of an exponential-family distribution underlying Boltzmann machines and statistical physics.",
        article = nil,
        aliases = { "Boltzmann distribution", "Gibbs distribution", "Gibbs-Boltzmann distribution", "canonical distribution" },
        es = "Distribución de probabilidad sobre estados proporcional a exp(-E(x)/T), donde E es una función de energía y T una temperatura; forma canónica de una distribución de la familia exponencial subyacente a las máquinas de Boltzmann y a la física estadística.",
        zh = "一种状态上的概率分布,与 exp(-E(x)/T) 成正比,其中 E 为能量函数、T 为温度;是玻尔兹曼机与统计物理中指数族分布的典型形式。",
        term_es = "distribución de Boltzmann",
        term_zh = "玻尔兹曼分布",
        aliases_es = { "distribución de Gibbs", "distribución de Gibbs-Boltzmann", "distribución canónica" },
        aliases_zh = { "玻尔兹曼-吉布斯分布", "Gibbs 分布", "正则分布" },
    }
    
    data["boltzmann machine"] = {
        short = "A stochastic recurrent neural network of binary units with symmetric connections that defines a probability distribution over states via an energy function and learns by sampling.",
        article = nil,
        aliases = { "Boltzmann machine", "Boltzmann Machine", "BM", "Boltzmann machines" },
        es = "Red neuronal recurrente estocástica de unidades binarias con conexiones simétricas que define una distribución de probabilidad sobre los estados mediante una función de energía y aprende por muestreo.",
        zh = "一种由二值单元和对称连接组成的随机循环神经网络,通过能量函数在状态上定义概率分布,并通过采样进行学习。",
        term_es = "máquina de Boltzmann",
        term_zh = "玻尔兹曼机",
        aliases_es = { "máquinas de Boltzmann", "BM" },
        aliases_zh = { "Boltzmann 机", "BM", "波尔兹曼机" },
    }
    
    data["boltzmann-weighted conformer"] = {
        short = "A molecular conformer whose contribution to an ensemble property is weighted by its Boltzmann factor exp(−E/kT), so that lower-energy conformations dominate the predicted observable.",
        article = nil,
        aliases = { "Boltzmann weighted conformer", "Boltzmann-weighted conformation", "Boltzmann conformer ensemble" },
        es = "Confórmero molecular cuya contribución a una propiedad del conjunto se pondera por su factor de Boltzmann exp(−E/kT), de modo que las conformaciones de menor energía dominan el observable predicho.",
        zh = "在构象系综中,其对预测可观测量的贡献按玻尔兹曼因子 exp(−E/kT) 加权的分子构象,能量较低的构象占主导。",
        term_es = "confórmero ponderado por Boltzmann",
        term_zh = "玻尔兹曼加权构象",
        aliases_es = { "conformación ponderada por Boltzmann", "ensamble de confórmeros Boltzmann" },
        aliases_zh = { "玻尔兹曼加权构象异构体", "Boltzmann 加权构象" },
    }
    
    data["bonas"] = {
        short = "A neural architecture search method that combines Bayesian optimization with a graph neural network surrogate over the architecture space, predicting validation accuracy from architectural graphs.",
        article = nil,
        aliases = { "BONAS", "Bayesian Optimization NAS", "Bayesian Optimized NAS" },
        es = "Método de búsqueda de arquitecturas neuronales que combina optimización bayesiana con un subrogado basado en una red neuronal de grafos sobre el espacio de arquitecturas, prediciendo la precisión de validación a partir de los grafos arquitectónicos.",
        zh = "一种神经架构搜索方法,将贝叶斯优化与基于图神经网络的代理模型结合,在架构空间上由架构图预测验证精度。",
        term_es = "BONAS",
        term_zh = "BONAS",
        aliases_es = { "NAS por optimización bayesiana" },
        aliases_zh = { "贝叶斯优化NAS" },
    }
    
    data["bond features"] = {
        short = "Edge attributes attached to bonds in a molecular graph, typically including bond type (single/double/triple/aromatic), conjugation, stereochemistry, and ring membership, used as input to graph neural networks.",
        article = nil,
        aliases = { "edge features", "bond descriptors", "bond-level features" },
        es = "Atributos de arista asociados a los enlaces en un grafo molecular, que incluyen típicamente tipo de enlace (simple/doble/triple/aromático), conjugación, estereoquímica y pertenencia a anillo, usados como entrada a redes neuronales de grafos.",
        zh = "分子图中赋予化学键的边特征,通常包括键类型(单/双/三/芳香键)、共轭性、立体化学以及是否在环中等信息,作为图神经网络的输入。",
        term_es = "características de enlace",
        term_zh = "化学键特征",
        aliases_es = { "atributos de enlace", "descriptores de enlace" },
        aliases_zh = { "键特征", "边特征", "化学键描述符" },
    }
    
    data["bongard problems"] = {
        short = "A class of visual reasoning puzzles introduced by Mikhail Bongard in which a learner must infer the abstract concept that distinguishes a small set of positive example images from a small set of negative ones.",
        article = nil,
        aliases = { "Bongard problem", "Bongard puzzle", "Bongard-style reasoning" },
        es = "Una clase de acertijos de razonamiento visual introducidos por Mijaíl Bongard en los que un aprendiz debe inferir el concepto abstracto que distingue un conjunto pequeño de imágenes positivas de uno pequeño de imágenes negativas.",
        zh = "由 Mikhail Bongard 提出的一类视觉推理谜题,学习者需要推断出区分一小组正例图像与一小组反例图像的抽象概念。",
        term_es = "problemas de Bongard",
        term_zh = "Bongard 问题",
        aliases_es = { "problema de Bongard", "acertijo de Bongard" },
        aliases_zh = { "Bongard 难题", "Bongard 谜题" },
    }
    
    data["bongard-logo"] = {
        short = "A large-scale benchmark of Bongard-style few-shot concept learning problems built from procedurally generated abstract LOGO line drawings, designed to evaluate compositional and abstract visual reasoning.",
        article = nil,
        aliases = { "Bongard-LOGO", "Bongard LOGO", "Bongard-LOGO benchmark" },
        es = "Un benchmark a gran escala de problemas de aprendizaje conceptual al estilo Bongard, construido con dibujos abstractos generados proceduralmente con LOGO, diseñado para evaluar el razonamiento visual composicional y abstracto.",
        zh = "一个大规模的 Bongard 风格少样本概念学习基准,基于程序生成的抽象 LOGO 线条图构建,用于评估组合式与抽象视觉推理能力。",
        term_es = "Bongard-LOGO",
        term_zh = "Bongard-LOGO",
        aliases_es = { "Bongard-LOGO", "benchmark Bongard-LOGO" },
        aliases_zh = { "Bongard-LOGO", "Bongard-LOGO 基准" },
    }
    
    data["bonito basecaller"] = {
        short = "An open-source neural-network basecaller developed by Oxford Nanopore Technologies that translates raw electrical signal traces from nanopore sequencers into nucleotide sequences using convolutional and recurrent layers. Successor to Guppy as the reference research basecaller.",
        article = nil,
        aliases = { "Bonito", "ONT Bonito", "Bonito (Oxford Nanopore)" },
        es = "Llamador de bases de red neuronal de código abierto desarrollado por Oxford Nanopore Technologies, que convierte trazas eléctricas crudas de secuenciadores de nanoporos en secuencias de nucleótidos mediante capas convolucionales y recurrentes. Sucesor de Guppy como llamador de bases de referencia para investigación.",
        zh = "由 Oxford Nanopore Technologies 开发的开源神经网络碱基识别器,使用卷积和循环层将纳米孔测序仪产生的原始电信号轨迹转换为核苷酸序列,是 Guppy 之后的研究级参考碱基识别器。",
        term_es = "basecaller Bonito",
        term_zh = "Bonito 碱基识别器",
        aliases_es = { "Bonito", "Bonito de Oxford Nanopore" },
        aliases_zh = { "Bonito", "ONT Bonito", "Bonito basecaller" },
    }
    
    data["bootstrap ensemble"] = {
        short = "An ensemble formed by training multiple models on bootstrap resamples of the training set; the spread among the resulting predictors provides a frequentist proxy for predictive uncertainty.",
        article = nil,
        aliases = { "bagging ensemble", "bootstrap aggregating", "bagged ensemble" },
        es = "Conjunto formado entrenando varios modelos sobre remuestreos bootstrap del conjunto de entrenamiento; la dispersión entre los predictores resultantes proporciona una aproximación frecuentista a la incertidumbre predictiva.",
        zh = "通过在训练集的自助重采样上训练多个模型而构成的集成;所得预测器之间的差异为预测不确定性提供了频率派代理。",
        term_es = "ensamblaje bootstrap",
        term_zh = "自助集成",
        aliases_es = { "ensamble bootstrap", "bagging", "bootstrap aggregating", "ensamble por bagging" },
        aliases_zh = { "Bagging集成", "Bootstrap聚合", "自助法集成" },
    }
    
    data["bootstrap particle filter"] = {
        short = "The simplest sequential Monte Carlo filter, which propagates particles through the prior transition model and resamples them with weights proportional to the observation likelihood; also called the SIR particle filter.",
        article = nil,
        aliases = { "SIR filter", "sampling importance resampling filter", "bootstrap filter", "BPF" },
        es = "El filtro Monte Carlo secuencial más simple: propaga partículas mediante el modelo de transición previo y las remuestra con pesos proporcionales a la verosimilitud de la observación; también llamado filtro de partículas SIR.",
        zh = "最简单的序贯蒙特卡洛滤波器,根据先验转移模型传播粒子,并以与观测似然成比例的权重对其进行重采样;也称 SIR 粒子滤波器。",
        term_es = "filtro de partículas bootstrap",
        term_zh = "自助粒子滤波器",
        aliases_es = { "filtro SIR", "filtro bootstrap", "filtro de muestreo-importancia-remuestreo" },
        aliases_zh = { "SIR 粒子滤波器", "自举粒子滤波器", "采样-重要性-重采样滤波器" },
    }
    
    data["bootstrapping"] = {
        short = "In reinforcement learning, the technique of updating an estimate of a value function using other estimated values rather than purely sampled returns, as in temporal-difference and dynamic programming methods.",
        article = nil,
        aliases = { "bootstrap", "bootstrap update", "bootstrapped estimate" },
        es = "En aprendizaje por refuerzo, técnica de actualizar una estimación de la función de valor usando otros valores estimados en lugar de retornos puramente muestreados, como en los métodos de diferencias temporales y de programación dinámica.",
        zh = "在强化学习中,使用其他估计值而非纯采样回报来更新价值函数估计的技术,如时序差分方法和动态规划方法所采用的那样。",
        term_es = "bootstrapping",
        term_zh = "自举",
        aliases_es = { "autoarranque", "actualización por bootstrapping" },
        aliases_zh = { "bootstrapping", "自助法" },
    }
    
    data["borzoi"] = {
        short = "A deep convolutional neural network from the Calico Labs that predicts RNA-seq coverage and other functional genomics tracks across the human genome from one-megabase DNA windows. A successor to Enformer with extended sequence context and richer output heads.",
        article = nil,
        aliases = { "Borzoi", "Borzoi model", "Calico Borzoi" },
        es = "Red neuronal convolucional profunda de Calico Labs que predice la cobertura de RNA-seq y otras pistas de genómica funcional en todo el genoma humano a partir de ventanas de un megabase de ADN. Sucesora de Enformer, con un contexto de secuencia ampliado y cabezas de salida más ricas.",
        zh = "Calico Labs 提出的深度卷积神经网络,从一兆碱基的 DNA 窗口预测人类全基因组的 RNA-seq 覆盖度及其他功能基因组学轨道,是 Enformer 的后继模型,具有更长的序列上下文和更丰富的输出头。",
        term_es = "Borzoi",
        term_zh = "Borzoi",
        aliases_es = { "modelo Borzoi", "Borzoi de Calico" },
        aliases_zh = { "Borzoi 模型", "Calico Borzoi" },
    }
    
    data["bos token"] = {
        short = "A beginning-of-sequence token prepended to inputs to mark the start of generation in autoregressive language models, often used to seed unconditional sampling.",
        article = nil,
        aliases = { "<bos>", "BOS", "BOS token", "beginning of sequence", "beginning-of-sequence", "<s>" },
        es = "Token de inicio de secuencia que se antepone a las entradas para marcar el comienzo de la generación en modelos de lenguaje autorregresivos, a menudo utilizado para iniciar el muestreo no condicionado.",
        zh = "序列起始 token,在自回归语言模型中加在输入开头以标记生成的起点,常用作无条件采样的起始信号。",
        term_es = "token BOS",
        term_zh = "BOS token",
        aliases_es = { "<bos>", "BOS", "token de inicio de secuencia", "<s>" },
        aliases_zh = { "<bos>", "BOS", "起始标记", "序列起始标记", "<s>" },
    }
    
    data["bossnas"] = {
        short = "A block-wise self-supervised neural architecture search method that searches each block independently using a self-supervised proxy objective, removing the need for labeled training during search.",
        article = nil,
        aliases = { "BossNAS", "Block-wise Self-supervised NAS" },
        es = "Método de búsqueda de arquitecturas neuronales por bloques con autosupervisión que busca cada bloque de forma independiente mediante un objetivo proxy autosupervisado, eliminando la necesidad de etiquetas durante la búsqueda.",
        zh = "一种分块自监督神经架构搜索方法,使用自监督代理目标对每个块独立搜索,无需在搜索过程中使用有标签数据。",
        term_es = "BossNAS",
        term_zh = "BossNAS",
        aliases_es = { "NAS auto-supervisado por bloques" },
        aliases_zh = { "分块自监督NAS" },
    }
    
    data["bounded gradient assumption"] = {
        short = "A common analytical assumption in optimization theory that the norm of stochastic gradients is uniformly upper-bounded by a constant. Frequently used in convergence proofs for SGD and federated algorithms.",
        article = nil,
        aliases = { "bounded gradients", "gradient boundedness assumption", "uniform gradient bound" },
        es = "Supuesto analítico común en la teoría de optimización que establece que la norma de los gradientes estocásticos está uniformemente acotada por una constante. Se utiliza con frecuencia en demostraciones de convergencia para SGD y algoritmos federados.",
        zh = "优化理论中常见的分析性假设:随机梯度的范数被某常数一致上界所控制;常用于 SGD 与联邦学习算法的收敛性证明。",
        term_es = "supuesto de gradiente acotado",
        term_zh = "梯度有界假设",
        aliases_es = { "gradientes acotados", "supuesto de acotación del gradiente" },
        aliases_zh = { "有界梯度假设", "梯度一致有界假设" },
    }
    
    data["bowtie2"] = {
        short = "An open-source short-read aligner that uses a Burrows-Wheeler-transform FM-index of the reference genome to perform fast, gapped, end-to-end or local alignment of DNA sequencing reads. Widely used in ChIP-seq and resequencing pipelines.",
        article = nil,
        aliases = { "Bowtie 2", "Bowtie2", "bowtie 2" },
        es = "Alineador de lecturas cortas de código abierto que utiliza un índice FM basado en la transformada de Burrows-Wheeler del genoma de referencia para realizar alineamientos rápidos con huecos, de extremo a extremo o locales, de lecturas de secuenciación de ADN. Muy usado en pipelines de ChIP-seq y resecuenciación.",
        zh = "开源的短读比对器,利用参考基因组的 Burrows-Wheeler 变换 FM 索引,对 DNA 测序读段进行快速的、允许缺口的端到端或局部比对,广泛应用于 ChIP-seq 和重测序流程。",
        term_es = "Bowtie 2",
        term_zh = "Bowtie 2",
        aliases_es = { "Bowtie2", "Bowtie 2", "alineador Bowtie 2" },
        aliases_zh = { "Bowtie2", "Bowtie 2 比对器" },
    }
    
    data["box embedding"] = {
        short = "A representation in which entities are embedded as axis-aligned hyperrectangles (boxes) rather than points or vectors, enabling explicit modeling of asymmetric relations like containment, hierarchy, and conditional probability.",
        article = nil,
        aliases = { "box embeddings", "box lattice embedding", "box representation", "hyperrectangle embedding" },
        es = "Una representación en la que las entidades se incrustan como hiperrectángulos alineados con los ejes (cajas) en lugar de puntos o vectores, permitiendo modelar explícitamente relaciones asimétricas como contención, jerarquía y probabilidad condicional.",
        zh = "一种将实体嵌入为轴对齐超矩形(盒子)而非点或向量的表示方法,可以显式建模包含、层次和条件概率等非对称关系。",
        term_es = "embedding de caja",
        term_zh = "盒嵌入",
        aliases_es = { "box embedding", "incrustación en cajas", "representación en cajas" },
        aliases_zh = { "box embedding", "盒子嵌入", "超矩形嵌入" },
    }
    
    data["boxe"] = {
        short = "A knowledge graph embedding model that represents entities as points and relations as boxes (or pairs of boxes for head and tail positions), capturing relational properties such as symmetry, inversion, and composition.",
        article = nil,
        aliases = { "BoxE", "BoxE model", "BoxE embedding" },
        es = "Un modelo de embedding de grafos de conocimiento que representa las entidades como puntos y las relaciones como cajas (o pares de cajas para las posiciones de cabeza y cola), capturando propiedades relacionales como simetría, inversión y composición.",
        zh = "一种知识图谱嵌入模型,将实体表示为点,将关系表示为盒子(或头尾位置各一对盒子),可捕捉对称、反演和组合等关系性质。",
        term_es = "BoxE",
        term_zh = "BoxE",
        aliases_es = { "BoxE", "modelo BoxE" },
        aliases_zh = { "BoxE", "BoxE 模型" },
    }
    
    data["bradley-terry model"] = {
        short = "A probabilistic model for paired comparisons in which the probability that item i beats item j is the logistic of the difference between their latent strengths; widely used to fit reward models from preference data in RLHF.",
        article = nil,
        aliases = { "Bradley-Terry model", "Bradley-Terry-Luce model", "BT model" },
        es = "Modelo probabilístico para comparaciones por pares en el que la probabilidad de que el ítem i gane al ítem j es la función logística de la diferencia entre sus fuerzas latentes; muy utilizado para ajustar modelos de recompensa a partir de datos de preferencia en RLHF.",
        zh = "一种用于成对比较的概率模型,物品 i 战胜物品 j 的概率是两者潜在强度之差的逻辑斯蒂函数;在 RLHF 中常用于基于偏好数据拟合奖励模型。",
        term_es = "modelo de Bradley-Terry",
        term_zh = "Bradley-Terry 模型",
        aliases_es = { "modelo Bradley-Terry-Luce", "modelo BT" },
        aliases_zh = { "Bradley-Terry-Luce 模型", "BT 模型", "布拉德利-特里模型" },
    }
    
    data["branch and bound"] = {
        short = "An exact algorithmic paradigm for solving combinatorial and integer optimization problems that systematically enumerates candidate solutions via a search tree while pruning subtrees whose bound proves they cannot contain the optimum.",
        article = nil,
        aliases = { "branch-and-bound", "B&B", "branch & bound", "BnB" },
        es = "Un paradigma algorítmico exacto para resolver problemas de optimización combinatoria y entera que enumera sistemáticamente las soluciones candidatas mediante un árbol de búsqueda, podando los subárboles cuya cota demuestra que no pueden contener el óptimo.",
        zh = "一种用于求解组合优化和整数规划问题的精确算法范式,通过搜索树系统地枚举候选解,并根据界限剪除无法包含最优解的子树。",
        term_es = "ramificación y acotamiento",
        term_zh = "分支定界",
        aliases_es = { "branch and bound", "ramificación y poda", "B&B" },
        aliases_zh = { "分支定界法", "分支限界", "B&B" },
    }
    
    data["branch and bound inference"] = {
        short = "An inference strategy for graphical models that searches over assignments while pruning subtrees whose upper bound on the objective cannot exceed the best solution found so far; commonly used for MAP inference.",
        article = nil,
        aliases = { "branch-and-bound inference", "B&B inference", "branch and bound search" },
        es = "Estrategia de inferencia para modelos gráficos que explora asignaciones podando subárboles cuya cota superior del objetivo no puede superar la mejor solución encontrada; se usa habitualmente para inferencia MAP.",
        zh = "一种图模型推断策略,在搜索变量赋值时剪除目标上界无法超过当前最优解的子树;常用于 MAP 推断。",
        term_es = "inferencia por ramificación y poda",
        term_zh = "分支定界推断",
        aliases_es = { "ramificación y acotación", "B&B", "branch and bound" },
        aliases_zh = { "分支限界推断", "B&B 推断" },
    }
    
    data["branch length"] = {
        short = "In a phylogenetic tree, the length of an edge connecting two nodes, typically representing either time elapsed or expected number of substitutions per site between an ancestor and a descendant. Estimated by maximum likelihood or Bayesian inference under a substitution model.",
        article = nil,
        aliases = { "branch lengths", "phylogenetic branch length", "edge length (phylogenetics)" },
        es = "En un árbol filogenético, la longitud de una arista que conecta dos nodos, que suele representar el tiempo transcurrido o el número esperado de sustituciones por sitio entre un ancestro y un descendiente. Se estima por máxima verosimilitud o inferencia bayesiana bajo un modelo de sustitución.",
        zh = "在系统发生树中,连接两个节点的边的长度,通常表示祖先与后代之间经过的时间或每位点期望替换数,常在替换模型下通过极大似然或贝叶斯推断估计。",
        term_es = "longitud de rama",
        term_zh = "分支长度",
        aliases_es = { "longitudes de rama", "longitud de rama filogenética" },
        aliases_zh = { "枝长", "进化树分支长度", "系统发生分支长度" },
    }
    
    data["branchformer"] = {
        short = "An ASR encoder architecture that processes each layer through two parallel branches—one capturing local context with convolutions and another capturing global context with self-attention—and merges them, offering an alternative to the Conformer.",
        article = nil,
        aliases = { "Branchformer", "Branchformer encoder", "parallel-branch transformer for ASR" },
        es = "Arquitectura de codificador para ASR que procesa cada capa mediante dos ramas paralelas —una que captura contexto local con convoluciones y otra que captura contexto global con autoatención— y las fusiona, ofreciendo una alternativa al Conformer.",
        zh = "一种用于语音识别的编码器架构,每一层通过两条并行分支处理——一条使用卷积捕获局部上下文,另一条使用自注意力捕获全局上下文——再将其融合,是 Conformer 的一种替代方案。",
        term_es = "Branchformer",
        term_zh = "Branchformer",
        aliases_es = { "codificador Branchformer", "transformador de ramas paralelas para ASR" },
        aliases_zh = { "Branchformer 编码器", "用于ASR的并行分支Transformer" },
    }
    
    data["brenk filter"] = {
        short = "A set of 105 structural alerts compiled by Brenk et al. (2008) used to flag substructures in screening libraries that are toxic, chemically reactive, metabolically unstable, or otherwise undesirable.",
        article = nil,
        aliases = { "Brenk filter", "Brenk alerts", "Brenk structural alerts" },
        es = "Conjunto de 105 alertas estructurales compiladas por Brenk et al. (2008) usadas para señalar subestructuras en bibliotecas de cribado que son tóxicas, químicamente reactivas, metabólicamente inestables o por otros motivos indeseables.",
        zh = "由 Brenk 等人(2008)整理的 105 条结构警示,用于在筛选库中标记有毒、化学活性过强、代谢不稳定或其他不良的子结构。",
        term_es = "filtro de Brenk",
        term_zh = "Brenk 过滤器",
        aliases_es = { "alertas de Brenk", "alertas estructurales de Brenk" },
        aliases_zh = { "Brenk 警示", "Brenk 结构警示" },
    }
    
    data["bridge module multimodal"] = {
        short = "A small trainable module placed between a frozen vision encoder and a frozen language model in a multimodal LLM, projecting visual features into the language model's input space; examples include linear projectors, MLPs, and Q-Formers.",
        article = nil,
        aliases = { "bridge module", "vision-language bridge", "modality bridge", "vision-language connector" },
        es = "Pequeño módulo entrenable colocado entre un codificador visual congelado y un modelo de lenguaje congelado en un LLM multimodal, que proyecta las características visuales al espacio de entrada del modelo de lenguaje; ejemplos incluyen proyectores lineales, MLP y Q-Formers.",
        zh = "在多模态大语言模型中插入于冻结视觉编码器与冻结语言模型之间的小型可训练模块,将视觉特征投射到语言模型的输入空间;常见实现包括线性投影器、MLP和Q-Former。",
        term_es = "módulo puente multimodal",
        term_zh = "多模态桥接模块",
        aliases_es = { "puente visión-lenguaje", "conector multimodal", "módulo de puente" },
        aliases_zh = { "视觉-语言桥接模块", "模态桥接器", "视觉-语言连接器" },
    }
    
    data["bridge sampling"] = {
        short = "A Monte Carlo technique that estimates the ratio of two normalizing constants by introducing an intermediate bridge density and computing expectations of importance-weight-like ratios under both distributions; widely used to estimate marginal likelihoods.",
        article = nil,
        aliases = { "Meng-Wong bridge sampling", "bridge estimator" },
        es = "Técnica Monte Carlo que estima el cociente de dos constantes de normalización introduciendo una densidad puente intermedia y calculando esperanzas de razones tipo peso de importancia bajo ambas distribuciones; muy usada para estimar verosimilitudes marginales.",
        zh = "一种蒙特卡洛技术,通过引入中间桥接密度并在两个分布下计算类似重要性权重的比值的期望,来估计两个归一化常数之比;广泛用于估计边缘似然。",
        term_es = "muestreo puente",
        term_zh = "桥接采样",
        aliases_es = { "bridge sampling", "estimador puente", "muestreo de puente" },
        aliases_zh = { "桥采样", "Meng-Wong桥采样", "桥接估计" },
    }
    
    data["bridge tower"] = {
        short = "A vision-language model that introduces multiple cross-modal bridge layers between the upper layers of pretrained unimodal vision and language encoders, enabling rich fine-grained interaction without retraining the encoders from scratch.",
        article = nil,
        aliases = { "BridgeTower", "Bridge-Tower", "BridgeTower model" },
        es = "Modelo de visión-lenguaje que introduce varias capas puente intermodales entre las capas superiores de codificadores unimodales preentrenados de visión y lenguaje, permitiendo una interacción fina y rica sin reentrenar los codificadores desde cero.",
        zh = "一种视觉-语言模型,在预训练的单模态视觉与语言编码器的高层之间插入多层跨模态桥接层,无需从头重训编码器即可实现丰富的细粒度交互。",
        term_es = "BridgeTower",
        term_zh = "BridgeTower",
        aliases_es = { "Bridge-Tower" },
        aliases_zh = { "BridgeTower", "Bridge-Tower" },
    }
    
    data["brier score"] = {
        short = "Mean squared error between predicted probabilities and one-hot labels, BS = (1/N)Σ Σ_c (p_c − y_c)². A proper scoring rule that simultaneously rewards calibration and sharpness for probabilistic classifiers.",
        article = nil,
        aliases = { "Brier score", "Brier loss", "quadratic scoring rule" },
        es = "Error cuadrático medio entre las probabilidades predichas y las etiquetas one-hot, BS = (1/N)Σ Σ_c (p_c − y_c)². Es una regla de puntuación propia que premia simultáneamente la calibración y la nitidez en clasificadores probabilísticos.",
        zh = "预测概率与 one-hot 标签之间的均方误差,BS = (1/N)Σ Σ_c (p_c − y_c)²。它是一种正当评分规则,同时奖励概率分类器的校准性与锐度。",
        term_es = "puntuación de Brier",
        term_zh = "Brier 分数",
        aliases_es = { "puntaje de Brier", "Brier", "regla de puntuación cuadrática" },
        aliases_zh = { "Brier score", "布里尔分数", "Brier 得分" },
    }
    
    data["broadcast operation"] = {
        short = "A collective communication primitive in which one node sends the same message to all others. In federated and distributed training, used to send a global model or aggregated parameters to all workers.",
        article = nil,
        aliases = { "broadcast", "collective broadcast", "broadcast collective" },
        es = "Primitiva de comunicación colectiva en la que un nodo envía el mismo mensaje a todos los demás. En entrenamiento federado y distribuido se usa para enviar un modelo global o parámetros agregados a todos los trabajadores.",
        zh = "一种集合通信原语:由单个节点向其他所有节点发送相同消息;在联邦与分布式训练中用于将全局模型或聚合后的参数发送给所有工作节点。",
        term_es = "operación broadcast",
        term_zh = "广播操作",
        aliases_es = { "broadcast", "operación de difusión", "difusión colectiva" },
        aliases_zh = { "广播", "广播通信", "集合广播" },
    }
    
    data["broadcasting"] = {
        short = "A convention used in array libraries (NumPy, PyTorch, JAX) that virtually expands tensors of mismatched but compatible shapes to a common shape so that elementwise operations can be applied without explicit replication.",
        article = nil,
        aliases = { "array broadcasting", "NumPy broadcasting", "shape broadcasting" },
        es = "Convención utilizada en bibliotecas de arreglos (NumPy, PyTorch, JAX) que expande virtualmente tensores con formas no coincidentes pero compatibles a una forma común, de modo que las operaciones elemento a elemento puedan aplicarse sin réplica explícita.",
        zh = "NumPy、PyTorch、JAX 等数组库采用的约定,将形状不同但兼容的张量虚拟地扩展为共同形状,使按元素运算可以直接进行而无需显式复制。",
        term_es = "broadcasting",
        term_zh = "广播",
        aliases_es = { "difusión de formas", "broadcasting de NumPy" },
        aliases_zh = { "广播机制", "broadcasting" },
    }
    
    data["broader impact statement"] = {
        short = "A required section in some venues (notably NeurIPS 2020) where authors describe potential positive and negative societal consequences of their research, including risks related to fairness, misuse, and concentration of power.",
        article = nil,
        aliases = { "broader impacts statement", "impact statement", "societal impact statement" },
        es = "Sección obligatoria en algunos congresos (notablemente NeurIPS 2020) en la que los autores describen las posibles consecuencias sociales positivas y negativas de su investigación, incluidos los riesgos relacionados con la equidad, el uso indebido y la concentración de poder.",
        zh = "部分会议(尤其是 NeurIPS 2020)要求作者撰写的章节,用于阐述研究可能带来的正面与负面社会影响,包括公平性、滥用和权力集中等相关风险。",
        term_es = "declaración de impacto más amplio",
        term_zh = "更广泛影响声明",
        aliases_es = { "declaración de impactos sociales", "declaración de impacto social" },
        aliases_zh = { "广泛影响声明", "社会影响声明" },
    }
    
    data["broden dataset"] = {
        short = "Broadly and Densely labeled dataset combining ADE20K, Pascal-Context, OpenSurfaces, and others to provide pixel-level annotations of objects, parts, materials, scenes, and textures for network dissection.",
        article = nil,
        aliases = { "Broden", "Broadly and Densely Labeled dataset" },
        es = "Conjunto de datos Broden (Broadly and Densely Labeled) que combina ADE20K, Pascal-Context, OpenSurfaces y otros para proporcionar anotaciones a nivel de píxel de objetos, partes, materiales, escenas y texturas, usado en network dissection.",
        zh = "Broden(Broadly and Densely Labeled)数据集,整合 ADE20K、Pascal-Context、OpenSurfaces 等,提供物体、部件、材质、场景、纹理的像素级标注,常用于 network dissection。",
        term_es = "conjunto de datos Broden",
        term_zh = "Broden 数据集",
        aliases_es = { "Broden", "dataset Broden" },
        aliases_zh = { "Broden", "Broden 数据" },
    }
    
    data["browser agent"] = {
        short = "An LLM-based agent that controls a real or headless web browser to autonomously navigate pages, read content, fill forms and complete multi-step web tasks given a natural language goal.",
        article = nil,
        aliases = { "web browsing agent", "browser-using agent", "web agent" },
        es = "Agente basado en LLM que controla un navegador web real o headless para navegar páginas, leer contenido, rellenar formularios y completar tareas web de varios pasos a partir de un objetivo en lenguaje natural.",
        zh = "基于大语言模型的智能体,控制真实或无头浏览器,根据自然语言目标自主浏览网页、阅读内容、填写表单并完成多步网络任务。",
        term_es = "agente de navegador",
        term_zh = "浏览器智能体",
        aliases_es = { "agente web", "agente de navegación web" },
        aliases_zh = { "网页智能体", "浏览器代理", "网页代理" },
    }
    
    data["bucket elimination"] = {
        short = "A unifying exact inference algorithm for graphical models that organizes variables into buckets along an elimination ordering and combines and marginalizes their factors; generalizes variable elimination and the junction tree algorithm.",
        article = nil,
        aliases = { "bucket-elimination", "BE algorithm" },
        es = "Algoritmo unificador de inferencia exacta para modelos gráficos que organiza las variables en cubos siguiendo un orden de eliminación y combina y marginaliza sus factores; generaliza la eliminación de variables y el algoritmo del árbol de unión.",
        zh = "一种统一的图模型精确推断算法,按消除顺序将变量组织到桶中,并对其因子进行合并与边缘化;是变量消除和团树算法的推广。",
        term_es = "eliminación por cubos",
        term_zh = "桶消除算法",
        aliases_es = { "algoritmo de eliminación por cubos" },
        aliases_zh = { "桶消去法", "Bucket Elimination" },
    }
    
    data["bucketing aggregation"] = {
        short = "A robust federated aggregation technique that randomly partitions client updates into buckets, averages within each bucket, and then applies a Byzantine-robust rule to the bucket means, improving resilience against poisoning.",
        article = nil,
        aliases = { "bucketing", "bucket aggregation", "bucketed aggregation" },
        es = "Técnica de agregación federada robusta que reparte aleatoriamente las actualizaciones de los clientes en cubos, promedia dentro de cada cubo y luego aplica una regla robusta a Bizantinos sobre las medias de los cubos, mejorando la resistencia frente a envenenamientos.",
        zh = "一种鲁棒联邦聚合技术:将客户端更新随机划分到若干桶中,对每个桶内的更新先取平均,再对各桶的均值应用拜占庭鲁棒聚合规则,从而增强抗投毒能力。",
        term_es = "agregación por cubos",
        term_zh = "分桶聚合",
        aliases_es = { "agregación por bucketing", "agregación con bucketing" },
        aliases_zh = { "桶聚合", "bucketing 聚合", "分桶鲁棒聚合" },
    }
    
    data["buffered asynchronous fl"] = {
        short = "An asynchronous federated learning scheme that buffers a fixed number of recently arrived client updates at the server and applies them as a batched aggregate, reducing staleness while keeping wait-free semantics. Exemplified by FedBuff.",
        article = nil,
        aliases = { "buffered async FL", "FedBuff", "buffered asynchronous federated learning" },
        es = "Esquema de aprendizaje federado asíncrono que mantiene en el servidor un búfer con un número fijo de actualizaciones recientes de clientes y las aplica como un agregado por lotes, reduciendo la obsolescencia mientras conserva una semántica sin esperas. Ejemplificado por FedBuff.",
        zh = "一种异步联邦学习方案:服务器缓冲固定数量的最近到达的客户端更新,并将其作为一次批量聚合应用,从而在保持无等待语义的同时减少陈旧性;典型代表为 FedBuff。",
        term_es = "FL asíncrono con búfer",
        term_zh = "缓冲式异步联邦学习",
        aliases_es = { "aprendizaje federado asíncrono con búfer", "FedBuff" },
        aliases_zh = { "FedBuff", "缓冲异步 FL", "缓冲式异步联邦学习" },
    }
    
    data["bulk rna-seq"] = {
        short = "RNA sequencing performed on a pooled population of cells, yielding average gene-expression levels across the input sample rather than per-cell measurements. Standard for comparative transcriptomics, differential expression, and bulk tissue profiling.",
        article = nil,
        aliases = { "bulk RNA-seq", "bulk RNA sequencing", "bulk transcriptomics", "bulk RNAseq" },
        es = "Secuenciación de ARN realizada sobre una población agrupada de células, que produce niveles promedio de expresión génica en la muestra de entrada en lugar de mediciones por célula. Es el estándar para transcriptómica comparativa, expresión diferencial y caracterización de tejidos en bloque.",
        zh = "对细胞混合群体进行的 RNA 测序,得到样本中基因表达的平均水平而非单细胞测量,是比较转录组学、差异表达分析和组织水平转录组刻画的标准方法。",
        term_es = "RNA-seq en bulk",
        term_zh = "bulk RNA-seq",
        aliases_es = { "secuenciación de ARN en bulk", "RNA-seq masivo", "transcriptómica en bulk" },
        aliases_zh = { "bulk RNA 测序", "群体 RNA-seq", "整体 RNA 测序", "组织水平 RNA-seq" },
    }
    
    data["bulk synchronous parallel"] = {
        short = "A parallel computation model in which a job proceeds in supersteps separated by global synchronization barriers, with all workers exchanging messages between supersteps. The default model for synchronous distributed SGD.",
        article = nil,
        aliases = { "BSP", "BSP model", "bulk synchronous parallel model" },
        es = "Modelo de cómputo paralelo en el que un trabajo avanza por pasos superiores (supersteps) separados por barreras de sincronización globales, con todos los trabajadores intercambiando mensajes entre pasos. Es el modelo por defecto del SGD distribuido síncrono.",
        zh = "一种并行计算模型:作业以由全局同步屏障分隔的超步(superstep)推进,工作节点在各超步之间交换消息;是同步分布式 SGD 的默认模型。",
        term_es = "paralelismo síncrono por bloques",
        term_zh = "整体同步并行",
        aliases_es = { "BSP", "modelo BSP" },
        aliases_zh = { "BSP", "BSP 模型", "块同步并行" },
    }
    
    data["bulyan"] = {
        short = "A Byzantine-robust aggregation rule that first runs Multi-Krum to select a candidate set of client updates and then applies a coordinate-wise trimmed mean over that set, providing strong guarantees against adversarial workers.",
        article = nil,
        aliases = { "Bulyan", "Bulyan aggregation", "Bulyan rule" },
        es = "Regla de agregación robusta a Bizantinos que primero ejecuta Multi-Krum para seleccionar un conjunto de candidatos entre las actualizaciones de los clientes y luego aplica una media recortada coordenada a coordenada sobre dicho conjunto, ofreciendo fuertes garantías frente a trabajadores adversariales.",
        zh = "一种拜占庭鲁棒聚合规则:先用 Multi-Krum 从客户端更新中选出候选集,再对该集合按坐标进行截尾均值,从而对对抗性工作节点提供强有力的保证。",
        term_es = "Bulyan",
        term_zh = "Bulyan",
        aliases_es = { "agregación Bulyan", "regla Bulyan" },
        aliases_zh = { "Bulyan 聚合", "Bulyan 规则" },
    }
    
    data["bunny vlm"] = {
        short = "Bunny, a family of lightweight multimodal models that pair compact language backbones (e.g., Phi-2, Llama-3-8B) with strong vision encoders to deliver competitive vision-language performance at a small parameter budget.",
        article = nil,
        aliases = { "Bunny", "Bunny VLM", "Bunny multimodal", "Bunny-VLM" },
        es = "Bunny, una familia de modelos multimodales ligeros que combinan columnas de lenguaje compactas (por ejemplo, Phi-2, Llama-3-8B) con codificadores de visión potentes, ofreciendo un rendimiento competitivo de visión-lenguaje con un presupuesto reducido de parámetros.",
        zh = "Bunny,一组轻量级多模态模型,将紧凑的语言主干(如Phi-2、Llama-3-8B)与强大的视觉编码器结合,在较小参数规模下实现具有竞争力的视觉-语言性能。",
        term_es = "Bunny",
        term_zh = "Bunny",
        aliases_es = { "Bunny VLM", "Bunny multimodal" },
        aliases_zh = { "Bunny VLM", "Bunny多模态模型" },
    }
    
    data["burn-in"] = {
        short = "An initial portion of a Markov chain Monte Carlo run that is discarded so that subsequent samples better approximate the stationary target distribution by mitigating dependence on the starting state.",
        article = nil,
        aliases = { "burn in", "burnin", "burn-in period", "burn-in phase" },
        es = "Porción inicial de una ejecución de Monte Carlo por cadenas de Markov que se descarta para que las muestras posteriores aproximen mejor la distribución objetivo estacionaria, mitigando la dependencia del estado inicial.",
        zh = "马尔可夫链蒙特卡洛运行的初始阶段,将其丢弃以使后续样本更接近平稳的目标分布,从而削弱对初始状态的依赖。",
        term_es = "período de calentamiento",
        term_zh = "预热期",
        aliases_es = { "burn-in", "fase de calentamiento", "fase burn-in" },
        aliases_zh = { "burn-in", "燃烧期", "预烧期", "热身阶段" },
    }
    
    data["butterfly all-reduce"] = {
        short = "An all-reduce algorithm that uses a butterfly communication pattern (recursive halving and doubling) to combine values across N nodes in O(log N) steps, common in HPC and large-scale distributed training.",
        article = nil,
        aliases = { "butterfly allreduce", "butterfly all reduce", "recursive halving and doubling all-reduce" },
        es = "Algoritmo all-reduce que utiliza un patrón de comunicación en mariposa (división y duplicación recursivas) para combinar valores entre N nodos en O(log N) pasos; es común en HPC y entrenamiento distribuido a gran escala.",
        zh = "一种 all-reduce 算法:采用蝶形通信模式(递归减半与倍增),在 O(log N) 步内对 N 个节点上的值进行汇总;常见于高性能计算和大规模分布式训练。",
        term_es = "all-reduce mariposa",
        term_zh = "蝶形 all-reduce",
        aliases_es = { "all-reduce en mariposa", "allreduce mariposa" },
        aliases_zh = { "蝶形 allreduce", "蝶形规约", "递归减半倍增 all-reduce" },
    }
    
    data["butterfly bias"] = {
        short = "A bias that arises when a single covariate is simultaneously a confounder of the treatment-outcome relationship and a collider on another path, so adjusting for it removes one bias while opening another.",
        article = nil,
        aliases = { "butterfly bias", "bow-tie bias", "M-bias butterfly" },
        es = "Sesgo que surge cuando una sola covariable es simultáneamente confusora de la relación tratamiento-resultado y colisionador en otra trayectoria, de modo que ajustar por ella elimina un sesgo pero abre otro.",
        zh = "当某个协变量同时作为处理-结果关系的混淆因子,又是另一条路径上的碰撞节点时所产生的偏差:对其进行调整会消除一种偏差,却同时引入另一种偏差。",
        term_es = "sesgo mariposa",
        term_zh = "蝴蝶偏差",
        aliases_es = { "sesgo de mariposa", "butterfly bias" },
        aliases_zh = { "蝴蝶型偏差", "butterfly bias" },
    }
    
    data["bwa-mem"] = {
        short = "An algorithm in the Burrows-Wheeler Aligner package that performs local alignment of medium-to-long sequencing reads against a reference genome via maximal exact match seeding followed by Smith-Waterman extension. The default short-read aligner for many human resequencing and variant-calling pipelines.",
        article = nil,
        aliases = { "BWA-MEM", "BWA MEM", "bwa mem", "Burrows-Wheeler Aligner MEM" },
        es = "Algoritmo del paquete Burrows-Wheeler Aligner que realiza alineamiento local de lecturas de secuenciación medianas a largas contra un genoma de referencia mediante semillas de máxima coincidencia exacta seguidas de extensión Smith-Waterman. Es el alineador de lecturas cortas por defecto en muchos pipelines de resecuenciación y llamado de variantes en humanos.",
        zh = "Burrows-Wheeler Aligner 软件包中的一种算法,先以最大精确匹配(MEM)作为种子,再进行 Smith-Waterman 扩展,对中长读段在参考基因组上执行局部比对,是许多人类重测序和变异检测流程默认使用的短读比对器。",
        term_es = "BWA-MEM",
        term_zh = "BWA-MEM",
        aliases_es = { "BWA MEM", "bwa mem", "Burrows-Wheeler Aligner MEM" },
        aliases_zh = { "BWA MEM", "bwa mem", "Burrows-Wheeler 比对器 MEM" },
    }
    
    data["byol"] = {
        short = "Bootstrap Your Own Latent: a self-supervised representation learning method that trains an online network to predict the representations produced by a slowly updated target network on a different augmentation of the same image, without negative pairs.",
        article = nil,
        aliases = { "BYOL", "Bootstrap Your Own Latent", "bootstrap your own latent" },
        es = "Bootstrap Your Own Latent: método de aprendizaje de representaciones autosupervisado que entrena una red en línea para predecir las representaciones producidas por una red objetivo de actualización lenta sobre una augmentación distinta de la misma imagen, sin pares negativos.",
        zh = "Bootstrap Your Own Latent:一种自监督表示学习方法,训练一个在线网络去预测一个缓慢更新的目标网络在同一图像不同增强上产生的表示,无需负样本对。",
        term_es = "BYOL",
        term_zh = "BYOL",
        aliases_es = { "BYOL", "Bootstrap Your Own Latent" },
        aliases_zh = { "BYOL", "Bootstrap Your Own Latent" },
    }
    
    data["byol loss"] = {
        short = "Self-supervised loss used in BYOL that minimizes the mean squared error between online and target network predictions of two augmented views, learning representations without explicit negative samples.",
        article = nil,
        aliases = { "BYOL", "Bootstrap Your Own Latent loss" },
        es = "Pérdida auto-supervisada empleada en BYOL que minimiza el error cuadrático medio entre las predicciones de la red en línea y la red objetivo sobre dos vistas aumentadas, aprendiendo representaciones sin negativos explícitos.",
        zh = "BYOL 中使用的自监督损失,最小化在线网络与目标网络对两个增强视图预测之间的均方误差,无需显式负样本即可学习表示。",
        term_es = "pérdida BYOL",
        term_zh = "BYOL 损失",
        aliases_es = { "BYOL" },
        aliases_zh = { "BYOL" },
    }
    
    data["byol-a"] = {
        short = "Bootstrap Your Own Latent for Audio, a self-supervised audio representation method that adapts the BYOL framework to spectrograms by predicting target representations of augmented views without negative samples.",
        article = nil,
        aliases = { "BYOL-A", "BYOL for Audio", "Bootstrap Your Own Latent for Audio" },
        es = "Bootstrap Your Own Latent for Audio, un método autosupervisado de representación de audio que adapta el marco BYOL a espectrogramas, prediciendo las representaciones objetivo de vistas aumentadas sin necesidad de muestras negativas.",
        zh = "Bootstrap Your Own Latent for Audio,将 BYOL 框架应用于频谱图的自监督音频表示方法,无需负样本即可通过预测增强视图的目标表示进行学习。",
        term_es = "BYOL-A",
        term_zh = "BYOL-A",
        aliases_es = { "BYOL para audio", "Bootstrap Your Own Latent para audio" },
        aliases_zh = { "BYOL for Audio", "音频 BYOL" },
    }
    
    data["byt5"] = {
        short = "A token-free variant of T5 that operates directly on UTF-8 bytes, eliminating the subword vocabulary and improving robustness to noise and morphologically rich languages at the cost of longer sequences.",
        article = nil,
        aliases = { "ByT5", "Byte-level T5", "byte-level T5", "byte T5" },
        es = "Variante de T5 sin tokens que opera directamente sobre bytes UTF-8, eliminando el vocabulario de subpalabras y mejorando la robustez frente al ruido y a los idiomas morfológicamente ricos a costa de secuencias más largas.",
        zh = "T5 的无词元变体,直接在 UTF-8 字节上运算,取消子词词表,提升了对噪声和形态丰富语言的鲁棒性,但代价是序列更长。",
        term_es = "ByT5",
        term_zh = "ByT5",
        aliases_es = { "ByT5", "T5 a nivel de byte" },
        aliases_zh = { "ByT5", "字节级 T5" },
    }
    
    data["byte-level bpe"] = {
        short = "A variant of byte-pair encoding that operates over raw bytes rather than Unicode characters, giving an open vocabulary that handles any UTF-8 text; used by GPT-2 and many subsequent LLMs.",
        article = nil,
        aliases = { "byte-level BPE", "BBPE", "byte BPE", "byte pair encoding (byte-level)" },
        es = "Variante de codificación por pares de bytes (BPE) que opera sobre bytes en bruto en lugar de caracteres Unicode, ofreciendo un vocabulario abierto capaz de manejar cualquier texto UTF-8; usada por GPT-2 y muchos LLMs posteriores.",
        zh = "字节对编码(BPE)的变体,直接在原始字节而非 Unicode 字符上操作,从而获得可以处理任意 UTF-8 文本的开放词表;GPT-2 及之后的许多大语言模型都采用这种方式。",
        term_es = "BPE a nivel de bytes",
        term_zh = "字节级 BPE",
        aliases_es = { "BBPE", "byte-level BPE" },
        aliases_zh = { "BBPE", "字节级别 BPE", "byte-level BPE" },
    }
    
    data["byte-pair encoding"] = {
        short = "A subword tokenization algorithm that starts from a base vocabulary of characters or bytes and iteratively merges the most frequent adjacent pair until a target vocabulary size is reached.",
        article = nil,
        aliases = { "BPE", "byte pair encoding", "byte-pair-encoding", "byte-level BPE" },
        es = "Algoritmo de tokenización en subpalabras que parte de un vocabulario base de caracteres o bytes y fusiona iterativamente el par adyacente más frecuente hasta alcanzar un tamaño de vocabulario objetivo.",
        zh = "一种子词分词算法,从字符或字节的基础词表开始,迭代地合并最频繁的相邻对,直到达到目标词表规模。",
        term_es = "codificación por pares de bytes",
        term_zh = "字节对编码",
        aliases_es = { "BPE", "byte-pair encoding", "codificación BPE" },
        aliases_zh = { "BPE", "byte-pair encoding", "BPE 编码" },
    }
    
    data["byteps"] = {
        short = "A unified high-performance distributed training framework from ByteDance that combines parameter-server and all-reduce architectures and uses idle CPU resources to accelerate gradient aggregation.",
        article = nil,
        aliases = { "BytePS", "ByteDance BytePS", "BytePS framework" },
        es = "Framework unificado de entrenamiento distribuido de alto rendimiento de ByteDance que combina las arquitecturas de servidor de parámetros y all-reduce, y aprovecha recursos de CPU ociosos para acelerar la agregación de gradientes.",
        zh = "字节跳动开源的高性能统一分布式训练框架,融合参数服务器与 all-reduce 架构,并利用空闲 CPU 资源加速梯度聚合。",
        term_es = "BytePS",
        term_zh = "BytePS",
        aliases_es = { "BytePS", "framework BytePS" },
        aliases_zh = { "BytePS", "BytePS 框架", "字节跳动 BytePS" },
    }
    
    data["byzantine attack"] = {
        short = "An attack model in distributed and federated learning in which a subset of participants may behave arbitrarily — including sending crafted, inconsistent, or malicious updates — instead of following the protocol.",
        article = nil,
        aliases = { "Byzantine attack", "Byzantine adversary attack", "Byzantine failure attack" },
        es = "Modelo de ataque en aprendizaje distribuido y federado en el que un subconjunto de participantes puede comportarse de forma arbitraria —enviando actualizaciones diseñadas, inconsistentes o maliciosas— en lugar de seguir el protocolo.",
        zh = "分布式与联邦学习中的一种攻击模型:部分参与者可能任意行为——发送精心构造、不一致或恶意的更新——而非遵循协议。",
        term_es = "ataque bizantino",
        term_zh = "拜占庭攻击",
        aliases_es = { "ataque de adversario bizantino", "ataque de fallo bizantino" },
        aliases_zh = { "拜占庭式攻击", "拜占庭对手攻击" },
    }
    
    data["byzantine fault tolerance"] = {
        short = "The property of a distributed system that it produces correct outputs despite an adversarial subset of nodes behaving arbitrarily. In federated learning, achieved via robust aggregation rules such as Krum, median, or Bulyan.",
        article = nil,
        aliases = { "BFT", "Byzantine fault-tolerant", "Byzantine-fault tolerance" },
        es = "Propiedad de un sistema distribuido por la cual produce salidas correctas a pesar de que un subconjunto adversarial de nodos se comporte de forma arbitraria. En aprendizaje federado se logra mediante reglas de agregación robustas como Krum, la mediana o Bulyan.",
        zh = "分布式系统的一种性质:即使有部分节点以任意对抗方式行为,系统仍能产生正确输出;在联邦学习中通过 Krum、中位数、Bulyan 等鲁棒聚合规则实现。",
        term_es = "tolerancia a fallos bizantinos",
        term_zh = "拜占庭容错",
        aliases_es = { "BFT", "tolerancia bizantina a fallos" },
        aliases_zh = { "BFT", "拜占庭故障容错" },
    }
    
    data["byzantine robust sgd"] = {
        short = "A family of distributed SGD variants that replace the simple average of worker gradients with a Byzantine-robust aggregation rule (median, trimmed mean, Krum, Bulyan, etc.) so that training converges even under adversarial workers.",
        article = nil,
        aliases = { "Byzantine-robust SGD", "Byzantine robust SGD", "BR-SGD", "robust distributed SGD" },
        es = "Familia de variantes de SGD distribuido que sustituyen el promedio simple de gradientes de los trabajadores por una regla de agregación robusta a Bizantinos (mediana, media recortada, Krum, Bulyan, etc.), de modo que el entrenamiento converge incluso con trabajadores adversariales.",
        zh = "一类分布式 SGD 变体:以拜占庭鲁棒聚合规则(中位数、截尾均值、Krum、Bulyan 等)替代工作节点梯度的简单平均,使训练在存在对抗性工作节点时仍能收敛。",
        term_es = "SGD robusto a Bizantinos",
        term_zh = "拜占庭鲁棒 SGD",
        aliases_es = { "SGD bizantino-robusto", "BR-SGD", "SGD distribuido robusto" },
        aliases_zh = { "拜占庭鲁棒随机梯度下降", "鲁棒分布式 SGD", "BR-SGD" },
    }
    
    data["byzantine-robust aggregation"] = {
        short = "A class of federated aggregation rules that produce a model update resilient to a fraction of adversarial or arbitrarily corrupted client contributions, replacing the simple weighted average used in FedAvg.",
        article = nil,
        aliases = { "Byzantine-robust aggregation", "Byzantine robust aggregation", "Byzantine-resilient aggregation", "robust aggregation rule" },
        es = "Familia de reglas de agregación federada que producen una actualización del modelo resistente a una fracción de clientes adversarios o arbitrariamente corruptos, sustituyendo al promedio ponderado de FedAvg.",
        zh = "联邦学习中的一类聚合规则,在存在一定比例对抗或任意被篡改客户端时仍能给出稳健的模型更新,替代 FedAvg 中的加权平均。",
        term_es = "agregación robusta a Bizantinos",
        term_zh = "拜占庭鲁棒聚合",
        aliases_es = { "agregación robusta bizantina", "agregación resistente a Bizantinos", "regla de agregación robusta" },
        aliases_zh = { "拜占庭容错聚合", "鲁棒聚合", "Byzantine-robust aggregation" },
    }
    
    data["c4 dataset"] = {
        short = "Colossal Clean Crawled Corpus: a large web text dataset derived from a single Common Crawl snapshot with heuristic cleaning filters, introduced for pretraining T5 and reused by many subsequent LLMs.",
        article = nil,
        aliases = { "C4", "Colossal Clean Crawled Corpus", "C4 corpus" },
        es = "Colossal Clean Crawled Corpus: gran conjunto de datos de texto web derivado de un único snapshot de Common Crawl con filtros heurísticos de limpieza, introducido para preentrenar T5 y reutilizado por muchos LLMs posteriores.",
        zh = "Colossal Clean Crawled Corpus(C4):基于单个 Common Crawl 快照、经启发式清洗过滤得到的大规模网页文本数据集,最初用于 T5 的预训练,后被许多大语言模型沿用。",
        term_es = "conjunto de datos C4",
        term_zh = "C4 数据集",
        aliases_es = { "C4", "corpus C4", "Colossal Clean Crawled Corpus" },
        aliases_zh = { "C4", "C4 语料库", "Colossal Clean Crawled Corpus" },
    }
    
    data["c51"] = {
        short = "A distributional reinforcement learning algorithm that approximates the return distribution as a categorical distribution over 51 fixed atoms (support points) and minimizes the projected Bellman cross-entropy. Also known as Categorical DQN.",
        article = nil,
        aliases = { "C51", "Categorical DQN", "categorical 51", "Bellemare C51" },
        es = "Algoritmo de aprendizaje por refuerzo distribucional que aproxima la distribución de retornos como una distribución categórica sobre 51 átomos (puntos de soporte) fijos y minimiza la entropía cruzada proyectada de Bellman. También conocido como Categorical DQN.",
        zh = "一种分布式强化学习算法,将回报分布近似为定义在 51 个固定原子(支撑点)上的类别分布,并最小化投影 Bellman 交叉熵。也称为 Categorical DQN。",
        term_es = "C51",
        term_zh = "C51",
        aliases_es = { "Categorical DQN", "DQN categórico" },
        aliases_zh = { "Categorical DQN", "类别 DQN" },
    }
    
    data["caco-2 permeability"] = {
        short = "The apparent permeability coefficient of a compound across a Caco-2 human colon-cell monolayer, used as an in vitro and in silico proxy for human intestinal absorption in ADMET screening.",
        article = nil,
        aliases = { "Caco-2", "Caco2 permeability", "Caco-2 permeation", "Caco-2 Papp" },
        es = "Coeficiente aparente de permeabilidad de un compuesto a través de una monocapa de células Caco-2 (colon humano), utilizado como sustituto in vitro e in silico de la absorción intestinal humana en cribado ADMET.",
        zh = "化合物穿过 Caco-2(人结肠细胞)单层的表观渗透系数,在 ADMET 筛查中用作人体肠道吸收的体外与计算替代指标。",
        term_es = "permeabilidad Caco-2",
        term_zh = "Caco-2 渗透性",
        aliases_es = { "Caco-2", "permeabilidad en Caco-2" },
        aliases_zh = { "Caco-2 通透性", "Caco-2 渗透系数" },
    }
    
    data["cadd score"] = {
        short = "Combined Annotation Dependent Depletion score, an integrative measure of the deleteriousness of single-nucleotide variants and small indels in the human genome, trained to discriminate observed proxy-neutral variants from simulated de novo variants using dozens of functional annotations.",
        article = nil,
        aliases = { "CADD", "CADD score", "Combined Annotation Dependent Depletion", "PHRED-scaled CADD", "C-score" },
        es = "Combined Annotation Dependent Depletion, medida integradora de la deletereidad de variantes de un solo nucleótido e indels pequeños en el genoma humano, entrenada para distinguir variantes observadas próximas a la neutralidad de variantes de novo simuladas a partir de decenas de anotaciones funcionales.",
        zh = "Combined Annotation Dependent Depletion 评分,对人类基因组单核苷酸变异和小型插入缺失有害性的综合度量,利用数十种功能注释训练以区分观察到的近中性变异与模拟的从头变异。",
        term_es = "puntuación CADD",
        term_zh = "CADD 评分",
        aliases_es = { "CADD", "puntuación CADD", "Combined Annotation Dependent Depletion", "C-score" },
        aliases_zh = { "CADD", "CADD 分数", "Combined Annotation Dependent Depletion", "C-score" },
    }
    
    data["calibrated equalized odds postprocessing"] = {
        short = "A post-processing fairness method (Pleiss et al., 2017) that adjusts a calibrated classifier's outputs to satisfy a relaxed form of equalized odds, trading off true-positive and false-positive rate parity across groups.",
        article = nil,
        aliases = { "calibrated equalized odds", "Pleiss postprocessing", "calibrated odds postprocessing" },
        es = "Método de post-procesamiento de equidad (Pleiss et al., 2017) que ajusta las salidas de un clasificador calibrado para satisfacer una forma relajada de igualdad de oportunidades, equilibrando paridad de tasas de verdaderos y falsos positivos entre grupos.",
        zh = "由 Pleiss 等人(2017)提出的后处理公平方法,对已校准分类器的输出进行调整,以满足放宽形式的等同机会,在群体间权衡真阳率与假阳率的平等。",
        term_es = "postprocesamiento de igualdad de oportunidades calibrada",
        term_zh = "校准等同机会后处理",
        aliases_es = { "igualdad de oportunidades calibrada", "postprocesamiento Pleiss" },
        aliases_zh = { "校准等同机会", "Pleiss 后处理", "校准等几率后处理" },
    }
    
    data["calibrated regression"] = {
        short = "A regression model whose predictive distribution is calibrated, meaning that the empirical coverage of its prediction intervals matches their nominal probability across the data; often achieved by post-hoc recalibration of cumulative distribution functions.",
        article = nil,
        aliases = { "calibrated regression model", "regression calibration", "predictive interval calibration" },
        es = "Modelo de regresión cuya distribución predictiva está calibrada, es decir, la cobertura empírica de sus intervalos de predicción coincide con la probabilidad nominal en los datos; suele conseguirse mediante recalibración a posteriori de funciones de distribución acumulada.",
        zh = "一种回归模型,其预测分布是校准的,即预测区间的经验覆盖率与其名义概率在数据上相匹配;通常通过对累积分布函数进行事后重校准实现。",
        term_es = "regresión calibrada",
        term_zh = "校准回归",
        aliases_es = { "modelo de regresión calibrado", "calibración de regresión", "calibración de intervalos predictivos" },
        aliases_zh = { "校准回归模型", "回归校准", "预测区间校准" },
    }
    
    data["calibration"] = {
        short = "Property of a probabilistic classifier whereby predicted confidences match empirical frequencies: among predictions with confidence p, a fraction p are correct. Distinct from accuracy and from sharpness.",
        article = nil,
        aliases = { "model calibration", "probability calibration", "calibrated classifier" },
        es = "Propiedad de un clasificador probabilístico por la cual las confianzas predichas coinciden con las frecuencias empíricas: entre las predicciones con confianza p, una fracción p son correctas. Es distinta de la exactitud y de la nitidez.",
        zh = "概率分类器的一种性质:预测置信度与经验频率一致——在置信度为 p 的预测中,正好有比例 p 的预测正确。它不同于准确率,也不同于锐度。",
        term_es = "calibración",
        term_zh = "校准",
        aliases_es = { "calibración de probabilidades", "calibración del modelo" },
        aliases_zh = { "概率校准", "模型校准", "calibration" },
    }
    
    data["calibration curve"] = {
        short = "A plot relating predicted probabilities to observed empirical frequencies of the predicted event, used to diagnose miscalibration in classifiers; a perfectly calibrated model lies on the diagonal.",
        article = nil,
        aliases = { "reliability diagram", "calibration plot", "reliability curve", "calibration diagram" },
        es = "Gráfico que relaciona las probabilidades predichas con las frecuencias empíricas observadas del evento predicho, usado para diagnosticar mala calibración en clasificadores; un modelo perfectamente calibrado se sitúa sobre la diagonal.",
        zh = "一种图,将预测概率与所预测事件的经验频率相对照,用于诊断分类器的失校准;完美校准的模型位于对角线上。",
        term_es = "curva de calibración",
        term_zh = "校准曲线",
        aliases_es = { "diagrama de fiabilidad", "diagrama de calibración", "curva de fiabilidad" },
        aliases_zh = { "可靠性图", "校准图", "可靠性曲线" },
    }
    
    data["calibration plot"] = {
        short = "A diagnostic visualization that bins predicted probabilities and plots the mean predicted probability against the empirical frequency of the positive class within each bin to assess probabilistic calibration.",
        article = nil,
        aliases = { "reliability diagram", "calibration curve", "reliability plot" },
        es = "Visualización diagnóstica que agrupa las probabilidades predichas en bins y representa la probabilidad media predicha frente a la frecuencia empírica de la clase positiva en cada bin para evaluar la calibración probabilística.",
        zh = "一种诊断可视化,将预测概率分箱,并在每个箱中以平均预测概率对正类的经验频率作图,以评估概率校准。",
        term_es = "gráfico de calibración",
        term_zh = "校准图",
        aliases_es = { "diagrama de fiabilidad", "curva de calibración", "gráfico de fiabilidad" },
        aliases_zh = { "可靠性图", "校准曲线", "可靠性绘图" },
    }
    
    data["calibration within groups"] = {
        short = "A fairness criterion requiring that, for each protected group and each predicted score s, the empirical positive rate among individuals receiving score s equal s; equivalent to per-group calibration.",
        article = nil,
        aliases = { "group calibration", "within-group calibration", "per-group calibration" },
        es = "Criterio de equidad que exige que, para cada grupo protegido y cada puntuación predicha s, la tasa empírica de positivos entre los individuos con puntuación s sea igual a s; equivalente a la calibración por grupo.",
        zh = "一种公平性准则,要求对每个受保护群体和每个预测分数 s,得到分数 s 的个体中实际正例比例等于 s;等价于按群体校准。",
        term_es = "calibración dentro de los grupos",
        term_zh = "组内校准",
        aliases_es = { "calibración por grupo", "calibración intragrupal" },
        aliases_zh = { "群体内校准", "分组校准", "按群体校准" },
    }
    
    data["caliper matching"] = {
        short = "A matching method that pairs treated and control units only when their distance (typically on the propensity score) is below a fixed caliper; treated units without a within-caliper match are dropped, trading sample size for balance.",
        article = nil,
        aliases = { "caliper matching", "caliper-based matching", "propensity score caliper matching" },
        es = "Método de emparejamiento que asocia unidades tratadas y de control solo cuando su distancia (habitualmente sobre la puntuación de propensión) está por debajo de un calibre fijo; las unidades tratadas sin emparejamiento dentro del calibre se descartan, sacrificando tamaño muestral por balance.",
        zh = "一种匹配方法:仅当处理组与对照组单元的距离(通常基于倾向评分)低于固定卡钳时才进行配对,未能在卡钳内匹配到对照的处理单元被舍弃,以样本量换取协变量平衡。",
        term_es = "emparejamiento por calibre",
        term_zh = "卡钳匹配",
        aliases_es = { "matching por calibre", "emparejamiento con calibre" },
        aliases_zh = { "卡尺匹配", "倾向评分卡钳匹配" },
    }
    
    data["callaway sant'anna estimator"] = {
        short = "A doubly robust estimator for staggered difference-in-differences designs that targets group-time average treatment effects on the treated and aggregates them with explicit weights, avoiding the negative-weight problem of two-way fixed effects.",
        article = nil,
        aliases = { "Callaway-Sant'Anna estimator", "Callaway and Sant'Anna estimator", "CS estimator", "group-time ATT estimator" },
        es = "Estimador doblemente robusto para diseños escalonados de diferencias-en-diferencias que apunta a los efectos promedio del tratamiento sobre los tratados por grupo y tiempo y los agrega con ponderaciones explícitas, evitando el problema de pesos negativos de los efectos fijos de dos vías.",
        zh = "针对错峰双重差分设计的双重稳健估计量,估计按组别-时点划分的处理组平均处理效应,并以显式权重进行聚合,避免双向固定效应估计中出现负权重的问题。",
        term_es = "estimador de Callaway y Sant'Anna",
        term_zh = "Callaway-Sant'Anna 估计量",
        aliases_es = { "estimador Callaway-Sant'Anna", "estimador CS", "estimador ATT por grupo y tiempo" },
        aliases_zh = { "CS 估计量", "Callaway 与 Sant'Anna 估计量", "组-时点 ATT 估计量" },
    }
    
    data["callhome"] = {
        short = "A family of LDC speech corpora consisting of unscripted telephone conversations between native speakers of various languages, widely used as a benchmark for speech recognition, speaker diarization, and language identification.",
        article = nil,
        aliases = { "CallHome", "Callhome corpus", "CallHome dataset", "LDC CallHome" },
        es = "Familia de corpus de habla del LDC que consta de conversaciones telefónicas no guionizadas entre hablantes nativos de varios idiomas, ampliamente utilizada como referencia para reconocimiento de voz, diarización de hablantes e identificación de idiomas.",
        zh = "由语言数据联盟(LDC)发布的一系列语音语料库,包含多种语言母语者之间的非脚本电话对话,广泛用作语音识别、说话人日志和语种识别的基准。",
        term_es = "CallHome",
        term_zh = "CallHome",
        aliases_es = { "corpus CallHome", "conjunto de datos CallHome", "CallHome del LDC" },
        aliases_zh = { "CallHome 语料库", "CallHome 数据集", "LDC CallHome" },
    }
    
    data["canary asr"] = {
        short = "Canary is a multilingual encoder-decoder speech model from NVIDIA that performs automatic speech recognition and speech translation across English, French, German, and Spanish, trained on tens of thousands of hours of audio.",
        article = nil,
        aliases = { "Canary ASR", "NVIDIA Canary", "Canary-1B", "Canary speech model", "NVIDIA Canary ASR" },
        es = "Canary es un modelo de habla multilingüe codificador-decodificador de NVIDIA que realiza reconocimiento automático del habla y traducción de habla entre inglés, francés, alemán y español, entrenado con decenas de miles de horas de audio.",
        zh = "Canary 是 NVIDIA 推出的多语种编码器-解码器语音模型,在英语、法语、德语和西班牙语之间执行自动语音识别和语音翻译,使用数万小时音频训练而成。",
        term_es = "Canary ASR",
        term_zh = "Canary ASR",
        aliases_es = { "NVIDIA Canary", "Canary-1B", "modelo de habla Canary" },
        aliases_zh = { "NVIDIA Canary", "Canary-1B", "Canary 语音模型" },
    }
    
    data["canonical parameterization"] = {
        short = "An exponential-family representation of a Markov random field in which each clique potential is written as exp of a linear function of canonical sufficient statistics; the natural parameterization for log-linear models.",
        article = nil,
        aliases = { "canonical parametrization", "canonical parameterisation", "canonical form", "natural parameterization" },
        es = "Representación de la familia exponencial de un campo aleatorio de Markov en la que cada potencial de clique se escribe como exp de una función lineal de estadísticos suficientes canónicos; la parametrización natural de los modelos log-lineales.",
        zh = "马尔可夫随机场的一种指数族表示,其中每个团势函数被写为正则充分统计量的线性函数的指数;是对数线性模型的自然参数化。",
        term_es = "parametrización canónica",
        term_zh = "正则参数化",
        aliases_es = { "forma canónica", "parametrización natural" },
        aliases_zh = { "规范参数化", "自然参数化", "典则参数化" },
    }
    
    data["canonical smiles"] = {
        short = "A unique, normalized SMILES string for a molecule produced by a canonicalization algorithm so that any valid SMILES of the same compound maps to the same output, enabling deduplication and consistent indexing.",
        article = nil,
        aliases = { "canonical SMILES", "canonicalized SMILES", "canonicalised SMILES" },
        es = "Cadena SMILES única y normalizada para una molécula generada por un algoritmo de canonicalización, de forma que cualquier SMILES válida del mismo compuesto produce la misma salida, permitiendo la deduplicación y la indexación consistente.",
        zh = "通过规范化算法为分子生成的唯一标准 SMILES 字符串,使同一化合物的任何合法 SMILES 都能映射为相同输出,便于去重和统一索引。",
        term_es = "SMILES canónica",
        term_zh = "规范 SMILES",
        aliases_es = { "SMILES canonicalizada", "SMILES canónico" },
        aliases_zh = { "标准 SMILES", "规范化 SMILES", "规范化简化分子线性输入" },
    }
    
    data["canu assembler"] = {
        short = "An open-source de novo genome assembler optimized for long, noisy reads from PacBio and Oxford Nanopore platforms, performing read correction, trimming, and overlap-layout-consensus assembly. Successor to Celera Assembler.",
        article = nil,
        aliases = { "Canu", "Canu assembler", "Canu (genome assembler)" },
        es = "Ensamblador de genomas de novo de código abierto optimizado para lecturas largas y ruidosas de las plataformas PacBio y Oxford Nanopore, que realiza corrección de lecturas, recorte y ensamblaje basado en superposición-disposición-consenso. Es el sucesor de Celera Assembler.",
        zh = "面向 PacBio 与 Oxford Nanopore 长且高错误率读段优化的开源从头基因组组装器,依次执行读段纠错、修剪和重叠—布局—共识(OLC)组装,是 Celera Assembler 的后继。",
        term_es = "ensamblador Canu",
        term_zh = "Canu 组装器",
        aliases_es = { "Canu", "ensamblador Canu" },
        aliases_zh = { "Canu", "Canu 组装软件", "Canu 基因组组装器" },
    }
    
    data["capacity"] = {
        short = "An informal measure of the range of functions a model can represent; higher-capacity models can fit more complex patterns but are also more prone to overfitting on small datasets.",
        article = nil,
        aliases = { "model capacity", "representational capacity", "expressive capacity" },
        es = "Medida informal del rango de funciones que un modelo puede representar; los modelos de mayor capacidad pueden ajustar patrones más complejos pero también son más propensos a sobreajustarse en conjuntos de datos pequeños.",
        zh = "对模型可表示的函数范围的非正式度量;容量更高的模型能够拟合更复杂的模式,但在小数据集上也更容易过拟合。",
        term_es = "capacidad",
        term_zh = "容量",
        aliases_es = { "capacidad del modelo", "capacidad representacional", "capacidad expresiva" },
        aliases_zh = { "模型容量", "表示容量", "表达能力" },
    }
    
    data["capsule network"] = {
        short = "A neural architecture proposed by Hinton in which groups of neurons (capsules) output activity vectors representing instantiation parameters of entities, with a dynamic routing-by-agreement mechanism between layers.",
        article = nil,
        aliases = { "CapsNet", "capsule networks", "capsule net" },
        es = "Arquitectura neuronal propuesta por Hinton en la que grupos de neuronas (cápsulas) emiten vectores de actividad que representan parámetros de instanciación de entidades, con un mecanismo dinámico de enrutamiento por acuerdo entre capas.",
        zh = "由 Hinton 提出的神经网络架构,其中神经元组(胶囊)输出表示实体实例化参数的活动向量,层间通过动态的协议路由机制连接。",
        term_es = "red de cápsulas",
        term_zh = "胶囊网络",
        aliases_es = { "CapsNet", "redes de cápsulas", "red capsular" },
        aliases_zh = { "CapsNet", "Capsule Network" },
    }
    
    data["caption diversity"] = {
        short = "The degree of lexical and structural variation across captions generated by an image- or video-captioning model, often measured with metrics such as Self-CIDEr, distinct-n, or vocabulary size to detect mode collapse and repetitive outputs.",
        article = nil,
        aliases = { "captioning diversity", "diversity of captions" },
        es = "Grado de variación léxica y estructural entre los subtítulos generados por un modelo de subtitulado de imágenes o vídeo, medido a menudo con métricas como Self-CIDEr, distinct-n o tamaño de vocabulario para detectar colapso de modos y resultados repetitivos.",
        zh = "图像或视频字幕模型所生成字幕之间在词汇和结构上的多样程度,常用Self-CIDEr、distinct-n或词表规模等指标衡量,以检测模式坍塌和重复输出。",
        term_es = "diversidad de subtítulos",
        term_zh = "字幕多样性",
        aliases_es = { "diversidad en subtitulado" },
        aliases_zh = { "描述多样性", "图文描述多样性" },
    }
    
    data["caption hallucination"] = {
        short = "A failure mode in image or video captioning where the generated description mentions objects, attributes, or actions that are absent from the input, often quantified by metrics such as CHAIR.",
        article = nil,
        aliases = { "captioning hallucination", "object hallucination in captioning", "hallucinated caption" },
        es = "Modo de fallo en el subtitulado de imágenes o vídeo en el que la descripción generada menciona objetos, atributos o acciones ausentes en la entrada, cuantificado a menudo mediante métricas como CHAIR.",
        zh = "图像或视频字幕中的一种失败模式,生成的描述提及输入中并不存在的物体、属性或动作,常用CHAIR等指标进行量化。",
        term_es = "alucinación en subtítulos",
        term_zh = "字幕幻觉",
        aliases_es = { "alucinación de subtítulos", "alucinación de objetos en subtitulado" },
        aliases_zh = { "图像描述幻觉", "字幕中的物体幻觉" },
    }
    
    data["captioning bias"] = {
        short = "Systematic skew in image- or video-captioning systems, including gendered or racial stereotypes in described actions, occupations, or attributes, often inherited from training corpora and amplified by decoding.",
        article = nil,
        aliases = { "image captioning bias", "caption generation bias" },
        es = "Sesgo sistemático en los sistemas de descripción automática de imágenes o vídeos, incluidos estereotipos de género o raza en las acciones, ocupaciones o atributos descritos, a menudo heredados de los corpus de entrenamiento y amplificados durante la decodificación.",
        zh = "图像或视频字幕系统中的系统性偏差,包括描述动作、职业或属性时呈现的性别或种族刻板印象,通常源自训练语料并在解码过程中被放大。",
        term_es = "sesgo en captioning",
        term_zh = "字幕生成偏差",
        aliases_es = { "sesgo en subtitulado", "sesgo en pies de foto", "sesgo en image captioning" },
        aliases_zh = { "图像描述偏差", "image captioning 偏差", "看图说话偏差" },
    }
    
    data["captioning loss"] = {
        short = "The training loss used in image- or video-captioning models, typically a token-level cross-entropy over the ground-truth caption, often combined with reinforcement-learning objectives such as CIDEr optimization to better align with sequence-level metrics.",
        article = nil,
        aliases = { "caption loss", "captioning objective" },
        es = "Pérdida de entrenamiento utilizada en modelos de subtitulado de imágenes o vídeo, típicamente una entropía cruzada a nivel de token sobre el subtítulo de referencia, frecuentemente combinada con objetivos de aprendizaje por refuerzo como la optimización de CIDEr para alinearse mejor con métricas a nivel de secuencia.",
        zh = "图像或视频字幕模型的训练损失,通常是相对真实字幕的逐token交叉熵,常与如CIDEr优化等强化学习目标相结合,以更好地匹配序列级指标。",
        term_es = "pérdida de subtitulado",
        term_zh = "字幕生成损失",
        aliases_es = { "objetivo de subtitulado", "función de pérdida de subtítulos" },
        aliases_zh = { "字幕损失", "图像描述损失" },
    }
    
    data["captum library"] = {
        short = "An open-source PyTorch library by Meta providing implementations of attribution and interpretability methods such as integrated gradients, DeepLIFT, GradCAM, and feature ablation.",
        article = nil,
        aliases = { "Captum", "PyTorch Captum" },
        es = "Biblioteca de código abierto de Meta para PyTorch que ofrece implementaciones de métodos de atribución e interpretabilidad como integrated gradients, DeepLIFT, GradCAM y ablación de características.",
        zh = "Meta 推出的 PyTorch 开源库,提供 integrated gradients、DeepLIFT、GradCAM、特征消融等归因与可解释性方法的实现。",
        term_es = "biblioteca Captum",
        term_zh = "Captum 库",
        aliases_es = { "Captum" },
        aliases_zh = { "Captum", "PyTorch Captum" },
    }
    
    data["capture hi-c"] = {
        short = "A targeted variant of Hi-C in which biotinylated oligonucleotide probes enrich for ligation products involving specific genomic regions of interest (such as gene promoters), enabling deeper resolution of long-range chromatin interactions at those loci.",
        article = nil,
        aliases = { "Capture Hi-C", "CHi-C", "promoter capture Hi-C", "PCHi-C", "targeted Hi-C" },
        es = "Variante dirigida de Hi-C en la que sondas oligonucleotídicas biotiniladas enriquecen los productos de ligación que involucran regiones genómicas específicas de interés (por ejemplo, promotores de genes), permitiendo mayor resolución de las interacciones de cromatina a larga distancia en esos loci.",
        zh = "Hi-C 的靶向变体,使用生物素化寡核苷酸探针富集涉及特定基因组区域(如基因启动子)的连接产物,从而对这些位点的长程染色质互作进行更高分辨率的解析。",
        term_es = "Capture Hi-C",
        term_zh = "Capture Hi-C",
        aliases_es = { "Hi-C de captura", "CHi-C", "Promoter Capture Hi-C", "PCHi-C", "Hi-C dirigido" },
        aliases_zh = { "捕获 Hi-C", "CHi-C", "启动子捕获 Hi-C", "PCHi-C", "靶向 Hi-C" },
    }
    
    data["carbonara"] = {
        short = "A deep-learning model (Krapp et al., 2024) for context-aware protein sequence recovery that predicts amino-acid identities from backbone coordinates and surrounding heteroatoms, useful for inverse folding and design.",
        article = nil,
        aliases = { "CARBonAra", "CARBonara" },
        es = "Modelo de aprendizaje profundo (Krapp et al., 2024) para la recuperación de secuencias proteicas consciente del contexto que predice identidades de aminoácidos a partir de coordenadas del esqueleto y heteroátomos vecinos, útil para plegado inverso y diseño.",
        zh = "一种深度学习模型(Krapp 等,2024),可在感知上下文的情况下从主链坐标和周围异原子预测氨基酸身份,用于逆折叠与蛋白质设计。",
        term_es = "CARBonAra",
        term_zh = "CARBonAra",
        aliases_es = { "CARBonara" },
        aliases_zh = { "CARBonara" },
    }
    
    data["cardiotoxicity prediction"] = {
        short = "Computational prediction of a compound's risk of inducing cardiac toxicity, most commonly framed as classification of hERG channel inhibition or QT-prolongation liability during ADMET screening.",
        article = nil,
        aliases = { "cardiac toxicity prediction", "hERG prediction", "cardiotoxicity classification" },
        es = "Predicción computacional del riesgo de un compuesto de inducir toxicidad cardiaca, formulada habitualmente como clasificación de la inhibición del canal hERG o del riesgo de prolongación del QT en el cribado ADMET.",
        zh = "通过计算预测化合物引发心脏毒性的风险,最常见的形式是在 ADMET 筛查中对 hERG 通道抑制或 QT 间期延长风险进行分类。",
        term_es = "predicción de cardiotoxicidad",
        term_zh = "心脏毒性预测",
        aliases_es = { "predicción de toxicidad cardiaca", "predicción de hERG" },
        aliases_zh = { "心毒性预测", "hERG 抑制预测" },
    }
    
    data["cart algorithm"] = {
        short = "Classification and Regression Trees: a recursive binary partitioning algorithm by Breiman et al. that grows decision trees by greedily minimizing Gini impurity (classification) or squared error (regression).",
        article = nil,
        aliases = { "CART", "Classification and Regression Trees" },
        es = "Classification and Regression Trees: algoritmo de partición binaria recursiva de Breiman et al. que construye árboles de decisión minimizando de forma voraz la impureza de Gini (clasificación) o el error cuadrático (regresión).",
        zh = "Classification and Regression Trees(分类与回归树):由 Breiman 等人提出的递归二分算法,通过贪心地最小化 Gini 不纯度(分类)或平方误差(回归)来构建决策树。",
        term_es = "algoritmo CART",
        term_zh = "CART 算法",
        aliases_es = { "CART", "árboles de clasificación y regresión" },
        aliases_zh = { "CART", "分类与回归树" },
    }
    
    data["cascade r-cnn"] = {
        short = "A two-stage object detector introduced by Cai and Vasconcelos in 2018 that trains a sequence of detection heads with increasing IoU thresholds, where each stage's output proposals refine those of the previous stage.",
        article = nil,
        aliases = { "Cascade R-CNN", "Cascade RCNN", "Cascade-RCNN" },
        es = "Detector de objetos de dos etapas presentado por Cai y Vasconcelos en 2018 que entrena una secuencia de cabezas de detección con umbrales de IoU crecientes, donde las propuestas de salida de cada etapa refinan las de la etapa anterior.",
        zh = "由 Cai 和 Vasconcelos 于 2018 年提出的两阶段目标检测器,训练一系列具有递增 IoU 阈值的检测头,每个阶段的输出提议对前一阶段进行细化。",
        term_es = "Cascade R-CNN",
        term_zh = "Cascade R-CNN",
        aliases_es = { "Cascade RCNN" },
        aliases_zh = { "Cascade RCNN" },
    }
    
    data["cascaded speech translation"] = {
        short = "A speech translation pipeline that chains separate automatic speech recognition, machine translation, and (optionally) text-to-speech components, in contrast to end-to-end systems that map source speech directly to target text or speech.",
        article = nil,
        aliases = { "cascade speech translation", "cascaded ST", "pipeline speech translation", "cascade ST" },
        es = "Sistema de traducción del habla que encadena módulos separados de reconocimiento automático del habla, traducción automática y, opcionalmente, síntesis de voz, en contraste con los sistemas de extremo a extremo que mapean directamente el habla de origen al texto o al habla de destino.",
        zh = "一种将自动语音识别、机器翻译和(可选的)语音合成等独立模块串联起来的语音翻译流水线,与直接将源语音映射到目标文本或语音的端到端系统形成对比。",
        term_es = "traducción del habla en cascada",
        term_zh = "级联语音翻译",
        aliases_es = { "ST en cascada", "traducción de voz en cascada" },
        aliases_zh = { "级联语音翻译系统", "管道式语音翻译" },
    }
    
    data["cascading randomization test"] = {
        short = "A sanity check for saliency methods that progressively randomizes the weights of a trained model from top to bottom layers and verifies that the explanation also changes; methods that ignore weights fail this test.",
        article = nil,
        aliases = { "cascading model parameter randomization", "model randomization test" },
        es = "Prueba de sanidad para métodos de saliencia que aleatoriza progresivamente los pesos de un modelo entrenado desde las capas superiores hacia las inferiores y verifica que la explicación también cambie; los métodos que ignoran los pesos fallan esta prueba.",
        zh = "对显著性方法的健全性检查:从模型的顶层到底层逐层随机化训练好的权重,并验证解释也随之改变;忽略权重的方法将无法通过该检验。",
        term_es = "prueba de aleatorización en cascada",
        term_zh = "级联随机化检验",
        aliases_es = { "test de aleatorización en cascada" },
        aliases_zh = { "级联模型参数随机化", "模型随机化检验" },
    }
    
    data["catalyst prediction"] = {
        short = "The task of predicting suitable catalysts (and often reaction conditions) for a chemical transformation from reactant structures, typically tackled with cheminformatic descriptors or graph and transformer models.",
        article = nil,
        aliases = { "catalyst recommendation", "catalyst suggestion", "catalyst design prediction" },
        es = "Tarea de predecir catalizadores adecuados (y a menudo las condiciones de reacción) para una transformación química a partir de las estructuras de los reactivos, abordada típicamente con descriptores quimioinformáticos o modelos de grafos y transformadores.",
        zh = "根据反应物结构预测合适催化剂(往往还包括反应条件)的任务,通常借助化学信息学描述符或图模型与 Transformer 模型来解决。",
        term_es = "predicción de catalizadores",
        term_zh = "催化剂预测",
        aliases_es = { "recomendación de catalizadores", "sugerencia de catalizadores" },
        aliases_zh = { "催化剂推荐", "催化剂建议" },
    }
    
    data["catastrophic forgetting"] = {
        short = "The phenomenon where a neural network trained sequentially on new tasks abruptly loses performance on previously learned tasks because shared parameters are overwritten.",
        article = nil,
        aliases = { "catastrophic interference" },
        es = "Fenómeno por el cual una red neuronal entrenada secuencialmente en nuevas tareas pierde de forma abrupta el rendimiento en tareas previamente aprendidas debido a la sobrescritura de parámetros compartidos.",
        zh = "指神经网络在依次学习新任务时,由于共享参数被覆盖而在先前任务上的性能急剧下降的现象。",
        term_es = "olvido catastrófico",
        term_zh = "灾难性遗忘",
        aliases_es = { "interferencia catastrófica" },
        aliases_zh = { "灾难性干扰" },
    }
    
    data["categorical cross-entropy"] = {
        short = "Cross-entropy loss for multi-class classification with one-hot encoded labels, summing the negative log-probabilities assigned by the model to the correct class for each example.",
        article = nil,
        aliases = { "categorical cross entropy", "softmax cross-entropy", "softmax loss" },
        es = "Pérdida de entropía cruzada para clasificación multiclase con etiquetas codificadas one-hot, que suma las log-probabilidades negativas asignadas por el modelo a la clase correcta de cada ejemplo.",
        zh = "用于多类分类、标签为 one-hot 编码的交叉熵损失,对每个样本累加模型分配给正确类别的负对数概率。",
        term_es = "entropía cruzada categórica",
        term_zh = "分类交叉熵",
        aliases_es = { "entropía cruzada softmax", "pérdida softmax" },
        aliases_zh = { "softmax 交叉熵", "类别交叉熵" },
    }
    
    data["categorical distribution"] = {
        short = "The discrete probability distribution over a finite set of K outcomes parameterized by a probability vector (p₁,…,p_K) summing to one. It is the single-trial generalization of the Bernoulli to K categories and the building block of softmax classifiers and language-model token distributions.",
        article = nil,
        aliases = { "Cat", "Cat(π)", "multinoulli distribution", "multinoulli", "discrete distribution", "generalized Bernoulli" },
        es = "Distribución de probabilidad discreta sobre un conjunto finito de K resultados, parametrizada por un vector de probabilidades (p₁,…,p_K) que suman uno. Es la generalización a K categorías de Bernoulli en un solo ensayo y la base de los clasificadores softmax y de las distribuciones de tokens de los modelos de lenguaje.",
        zh = "在 K 个有限结果上的离散概率分布,由满足总和为一的概率向量 (p₁,…,p_K) 参数化。它是 Bernoulli 在单次试验下扩展到 K 类的推广,也是 softmax 分类器和语言模型词元分布的基本构件。",
        term_es = "distribución categórica",
        term_zh = "类别分布",
        aliases_es = { "Cat", "Cat(π)", "multinoulli", "distribución de Bernoulli generalizada" },
        aliases_zh = { "分类分布", "Cat", "Cat(π)", "广义 Bernoulli 分布" },
    }
    
    data["categorical hyperparameter"] = {
        short = "A hyperparameter taking values from an unordered finite set of categories (e.g., choice of optimizer or activation function), requiring search techniques that respect non-numeric structure.",
        article = nil,
        aliases = { "categorical hyper-parameter", "discrete categorical hyperparameter" },
        es = "Hiperparámetro que toma valores de un conjunto finito y no ordenado de categorías (por ejemplo, la elección de optimizador o función de activación), lo que exige técnicas de búsqueda que respeten su estructura no numérica.",
        zh = "取值来自有限无序类别集合的超参数(例如优化器或激活函数的选择),要求搜索方法尊重其非数值结构。",
        term_es = "hiperparámetro categórico",
        term_zh = "类别型超参数",
        aliases_es = { "hiper-parámetro categórico", "hiperparámetro categórico discreto" },
        aliases_zh = { "分类超参数", "类别超参数" },
    }
    
    data["categorical treatment"] = {
        short = "A treatment variable taking values in a finite, unordered set of categories (e.g., drug A, B, or C); causal estimands typically include all pairwise contrasts of potential outcomes across categories.",
        article = nil,
        aliases = { "multi-valued treatment", "multi-category treatment", "multinomial treatment", "discrete treatment" },
        es = "Variable de tratamiento que toma valores en un conjunto finito y sin orden de categorías (por ejemplo, fármaco A, B o C); los estimandos causales suelen incluir todos los contrastes pareados de resultados potenciales entre categorías.",
        zh = "取值于有限且无序类别集合(例如药物 A、B 或 C)的处理变量;因果估计量通常包含各类别之间潜在结果的所有成对比较。",
        term_es = "tratamiento categórico",
        term_zh = "类别型处理",
        aliases_es = { "tratamiento multivaluado", "tratamiento multicategoría", "tratamiento multinomial" },
        aliases_zh = { "多值处理", "多类别处理", "离散处理" },
    }
    
    data["catoni bound"] = {
        short = "A family of PAC-Bayes generalization bounds, due to Olivier Catoni, that yield tight risk bounds for randomized predictors using a localized prior and an explicit relationship between the empirical and true risks via the KL divergence to the prior.",
        article = nil,
        aliases = { "Catoni PAC-Bayes bound", "Catoni's bound", "Catoni inequality" },
        es = "Familia de cotas PAC-Bayes de generalización, debidas a Olivier Catoni, que proporcionan cotas ajustadas del riesgo para predictores aleatorizados usando un prior localizado y una relación explícita entre el riesgo empírico y el verdadero a través de la divergencia KL al prior.",
        zh = "由Olivier Catoni提出的一族PAC-Bayes泛化界,借助局部化先验以及通过对先验的KL散度建立的经验风险与真实风险之间的显式关系,为随机化预测器给出紧致的风险上界。",
        term_es = "cota de Catoni",
        term_zh = "Catoni界",
        aliases_es = { "cota PAC-Bayes de Catoni", "desigualdad de Catoni", "Catoni bound" },
        aliases_zh = { "Catoni不等式", "Catoni PAC-Bayes界", "Catoni泛化界" },
    }
    
    data["causal abstraction"] = {
        short = "A formal framework for relating a high-level causal model to a low-level neural network by showing that interventions on aligned variables produce the same effects in both.",
        article = nil,
        aliases = { "causal abstraction analysis", "causal abstractions" },
        es = "Marco formal que relaciona un modelo causal de alto nivel con una red neuronal de bajo nivel mostrando que las intervenciones sobre variables alineadas producen los mismos efectos en ambos.",
        zh = "一种形式化框架,通过证明对对齐变量的干预在两者中产生相同效果,将高层因果模型与低层神经网络关联起来。",
        term_es = "abstracción causal",
        term_zh = "因果抽象",
        aliases_es = { "abstracciones causales", "análisis de abstracción causal" },
        aliases_zh = { "因果抽象分析", "因果抽象方法" },
    }
    
    data["causal additive model"] = {
        short = "A structural causal model in which each variable is generated as a sum of nonlinear functions of its parents plus independent additive noise; this restricted form makes the underlying DAG identifiable from observational data.",
        article = nil,
        aliases = { "CAM", "causal additive model", "additive noise causal model" },
        es = "Modelo causal estructural en el que cada variable se genera como una suma de funciones no lineales de sus padres más ruido aditivo independiente; esta forma restringida permite identificar el DAG subyacente a partir de datos observacionales.",
        zh = "一种结构因果模型,其中每个变量被生成为其父节点的非线性函数之和加上独立的加性噪声;这种受限形式使得潜在的有向无环图可以从观测数据中识别。",
        term_es = "modelo causal aditivo",
        term_zh = "因果加性模型",
        aliases_es = { "modelo aditivo de ruido causal", "CAM" },
        aliases_zh = { "CAM 模型", "加性噪声因果模型" },
    }
    
    data["causal attention"] = {
        short = "A masked self-attention pattern that prevents each position from attending to future positions, used in autoregressive decoders to enforce left-to-right dependence.",
        article = "Attention Mechanisms",
        aliases = { "Causal Attention", "causal mask", "causal self-attention", "autoregressive attention" },
        es = "Patrón de auto-atención enmascarada que impide que cada posición atienda a posiciones futuras, utilizado en decodificadores autorregresivos para imponer dependencia de izquierda a derecha.",
        zh = "一种带掩码的自注意力模式,禁止每个位置关注未来位置,用于自回归解码器以强制从左到右的依赖关系。",
        term_es = "atención causal",
        term_zh = "因果注意力",
        aliases_es = { "causal attention", "máscara causal", "auto-atención causal", "atención autorregresiva" },
        aliases_zh = { "causal attention", "因果掩码", "因果自注意力", "自回归注意力" },
    }
    
    data["causal bayesian network"] = {
        short = "A Bayesian network whose edges are interpreted as direct causal influences, allowing the joint distribution under interventions (do-operator) to be computed by truncating incoming edges of intervened variables.",
        article = nil,
        aliases = { "CBN", "causal Bayes net", "causal Bayesian net", "causal DAG" },
        es = "Red bayesiana cuyas aristas se interpretan como influencias causales directas, lo que permite calcular la distribución conjunta bajo intervenciones (operador do) truncando las aristas entrantes de las variables intervenidas.",
        zh = "一种贝叶斯网络,其边被解释为直接因果影响;通过截断被干预变量的入边,可以计算干预(do 算子)下的联合分布。",
        term_es = "red bayesiana causal",
        term_zh = "因果贝叶斯网络",
        aliases_es = { "CBN", "DAG causal", "red de Bayes causal" },
        aliases_zh = { "CBN", "因果有向无环图", "因果贝叶斯网" },
    }
    
    data["causal contextual bandit"] = {
        short = "A contextual bandit problem augmented with a causal model relating context, action, and reward, allowing offline data, instrumental variables, or unobserved confounders to be incorporated when learning a policy.",
        article = nil,
        aliases = { "causal contextual bandit", "causal bandit", "contextual bandit with confounding" },
        es = "Problema de bandido contextual ampliado con un modelo causal que relaciona contexto, acción y recompensa, permitiendo incorporar datos fuera de línea, variables instrumentales o confusores no observados al aprender una política.",
        zh = "在上下文老虎机问题的基础上引入关于上下文、动作与奖励之间因果关系的模型,使得在学习策略时能够纳入离线数据、工具变量或不可观测的混淆变量。",
        term_es = "bandido contextual causal",
        term_zh = "因果上下文老虎机",
        aliases_es = { "bandido causal", "bandido contextual con confusión" },
        aliases_zh = { "因果情境老虎机", "因果老虎机", "带混淆的上下文老虎机" },
    }
    
    data["causal dag"] = {
        short = "A directed acyclic graph in which nodes represent variables and directed edges represent direct causal effects; the graph encodes structural assumptions used for identification, adjustment, and reasoning under interventions.",
        article = nil,
        aliases = { "causal DAG", "causal directed acyclic graph", "causal graph" },
        es = "Grafo dirigido acíclico en el que los nodos representan variables y los arcos dirigidos representan efectos causales directos; el grafo codifica los supuestos estructurales utilizados para la identificación, el ajuste y el razonamiento bajo intervenciones.",
        zh = "一种有向无环图,其中节点表示变量,有向边表示直接因果效应;该图编码用于识别、调整以及在干预下进行推理的结构性假设。",
        term_es = "DAG causal",
        term_zh = "因果有向无环图",
        aliases_es = { "grafo causal dirigido acíclico", "grafo causal" },
        aliases_zh = { "因果 DAG", "因果图" },
    }
    
    data["causal data fusion"] = {
        short = "Methodology for combining data from heterogeneous sources — observational, experimental, and across populations — to identify causal effects in a target population that no single dataset can identify on its own.",
        article = nil,
        aliases = { "causal data fusion", "data fusion for causal inference", "Bareinboim-Pearl data fusion" },
        es = "Metodología para combinar datos provenientes de fuentes heterogéneas —observacionales, experimentales y de distintas poblaciones— con el fin de identificar efectos causales en una población objetivo que ningún conjunto de datos individual permitiría identificar.",
        zh = "用于融合来自异质来源(观测数据、实验数据以及不同人群)的数据,以识别在任何单一数据集中均无法识别的目标人群因果效应的一类方法。",
        term_es = "fusión de datos causal",
        term_zh = "因果数据融合",
        aliases_es = { "fusión de datos para inferencia causal", "data fusion causal" },
        aliases_zh = { "因果推断数据融合", "Bareinboim-Pearl 数据融合" },
    }
    
    data["causal diagram"] = {
        short = "A graphical representation, typically a DAG with possible bidirected edges, that depicts assumed causal relationships among variables and serves as the basis for identification analysis and adjustment-set selection.",
        article = nil,
        aliases = { "causal diagram", "causal graph", "structural causal diagram" },
        es = "Representación gráfica, típicamente un DAG posiblemente con arcos bidirigidos, que describe las relaciones causales supuestas entre variables y sirve como base para el análisis de identificación y la selección de conjuntos de ajuste.",
        zh = "用于刻画变量间假设因果关系的图形表示,通常为可能含有双向边的有向无环图,是识别分析与调整集选择的基础。",
        term_es = "diagrama causal",
        term_zh = "因果图",
        aliases_es = { "grafo causal", "diagrama causal estructural" },
        aliases_zh = { "因果图示", "结构因果图" },
    }
    
    data["causal discovery"] = {
        short = "The task of inferring the structure of a causal graph from data, using conditional independence tests (PC, FCI), score-based search (GES), or functional restrictions (LiNGAM, additive noise models).",
        article = nil,
        aliases = { "causal discovery", "causal structure learning", "structure learning for causal graphs" },
        es = "Tarea de inferir la estructura de un grafo causal a partir de datos, utilizando pruebas de independencia condicional (PC, FCI), búsqueda basada en puntuaciones (GES) o restricciones funcionales (LiNGAM, modelos de ruido aditivo).",
        zh = "从数据中推断因果图结构的任务,所用方法包括条件独立性检验(PC、FCI)、基于评分的搜索(GES)以及函数形式约束(LiNGAM、加性噪声模型等)。",
        term_es = "descubrimiento causal",
        term_zh = "因果发现",
        aliases_es = { "aprendizaje de estructura causal", "structure learning causal" },
        aliases_zh = { "因果结构学习", "因果结构发现" },
    }
    
    data["causal effect"] = {
        short = "The change in an outcome attributable to a change in a treatment, formalized in the potential-outcomes framework as a contrast (e.g., difference or ratio) of potential outcomes under different treatment levels.",
        article = nil,
        aliases = { "causal effect", "treatment effect" },
        es = "Cambio en un resultado atribuible a un cambio en un tratamiento, formalizado en el marco de resultados potenciales como un contraste (por ejemplo, diferencia o razón) entre resultados potenciales bajo distintos niveles de tratamiento.",
        zh = "处理变化所引起的结果变化,在潜在结果框架下形式化为不同处理水平下潜在结果之间的对比(如差值或比值)。",
        term_es = "efecto causal",
        term_zh = "因果效应",
        aliases_es = { "efecto del tratamiento", "treatment effect" },
        aliases_zh = { "处理效应", "因果作用" },
    }
    
    data["causal effect estimation"] = {
        short = "The statistical task of producing point and uncertainty estimates of an identified causal estimand from data, using methods such as outcome regression, IPW, doubly robust estimators, matching, or instrumental variables.",
        article = nil,
        aliases = { "causal effect estimation", "treatment effect estimation", "estimation of causal effects" },
        es = "Tarea estadística de producir estimaciones puntuales y de incertidumbre de un estimando causal identificado a partir de datos, utilizando métodos como regresión de resultado, IPW, estimadores doblemente robustos, emparejamiento o variables instrumentales.",
        zh = "在已识别的因果估计量基础上,从数据出发给出点估计与不确定性估计的统计任务,所用方法包括结果回归、IPW、双重稳健估计、匹配和工具变量等。",
        term_es = "estimación de efectos causales",
        term_zh = "因果效应估计",
        aliases_es = { "estimación de efectos del tratamiento", "treatment effect estimation" },
        aliases_zh = { "处理效应估计", "因果作用估计" },
    }
    
    data["causal effect identification"] = {
        short = "The problem of expressing a causal estimand (e.g., P(Y|do(X))) as a functional of the observational distribution given a causal graph, using rules such as the do-calculus, backdoor or front-door criteria.",
        article = nil,
        aliases = { "causal effect identification", "identification of causal effects", "causal identification", "identifiability of causal effects" },
        es = "Problema de expresar un estimando causal (por ejemplo, P(Y|do(X))) como funcional de la distribución observacional dado un grafo causal, utilizando reglas como el do-cálculo o los criterios de puerta trasera y puerta delantera.",
        zh = "在给定因果图时,将因果估计量(如 P(Y|do(X)))表达为观测分布的泛函的问题,常用工具包括 do 演算、后门判据与前门判据。",
        term_es = "identificación de efectos causales",
        term_zh = "因果效应识别",
        aliases_es = { "identificación causal", "identificabilidad de efectos causales" },
        aliases_zh = { "因果识别", "因果效应可识别性" },
    }
    
    data["causal effect variational autoencoder"] = {
        short = "A latent-variable model (Louizos et al., 2017) that uses a VAE to infer hidden confounders from proxies, then estimates individual treatment effects from observational data while accounting for the inferred confounding.",
        article = nil,
        aliases = { "CEVAE", "Causal Effect Variational Autoencoder", "causal-effect VAE" },
        es = "Modelo de variable latente (Louizos et al., 2017) que utiliza un VAE para inferir confusores ocultos a partir de proxies y, a continuación, estima efectos de tratamiento individuales a partir de datos observacionales teniendo en cuenta la confusión inferida.",
        zh = "Louizos 等(2017)提出的潜变量模型,利用变分自编码器(VAE)从代理变量中推断隐藏的混淆因子,并在考虑所推断混淆的前提下,从观测数据中估计个体处理效应。",
        term_es = "autoencoder variacional de efecto causal",
        term_zh = "因果效应变分自编码器",
        aliases_es = { "CEVAE", "Causal Effect Variational Autoencoder", "VAE de efecto causal" },
        aliases_zh = { "CEVAE", "Causal Effect Variational Autoencoder" },
    }
    
    data["causal estimand"] = {
        short = "A formally defined quantity that summarizes a causal effect of interest in terms of potential outcomes or interventional distributions; common examples include the ATE, ATT, CATE, and natural direct/indirect effects.",
        article = nil,
        aliases = { "causal estimand", "causal target parameter", "causal target quantity" },
        es = "Cantidad definida formalmente que resume un efecto causal de interés en términos de resultados potenciales o distribuciones intervencionales; ejemplos habituales incluyen ATE, ATT, CATE y los efectos naturales directos/indirectos.",
        zh = "用潜在结果或干预分布形式化定义的、用于刻画感兴趣因果效应的目标量;常见示例包括 ATE、ATT、CATE 以及自然直接/间接效应。",
        term_es = "estimando causal",
        term_zh = "因果估计量",
        aliases_es = { "parámetro objetivo causal", "cantidad objetivo causal" },
        aliases_zh = { "因果目标参数", "因果目标量" },
    }
    
    data["causal explanation"] = {
        short = "An explanation of an outcome that identifies the causes responsible for it, often expressed as counterfactuals or interventional statements rather than mere statistical associations.",
        article = nil,
        aliases = { "causal explanations", "explanation by causes" },
        es = "Explicación de un resultado que identifica las causas responsables del mismo, a menudo expresada mediante contrafactuales o intervenciones en lugar de simples asociaciones estadísticas.",
        zh = "对结果进行的解释,识别导致该结果的原因,通常以反事实或干预性陈述形式表达,而不仅是统计关联。",
        term_es = "explicación causal",
        term_zh = "因果解释",
        aliases_es = { "explicaciones causales" },
        aliases_zh = { "因果性解释" },
    }
    
    data["causal fairness"] = {
        short = "A family of fairness notions formulated in terms of causal effects rather than statistical association, requiring that the causal influence of a sensitive attribute on the outcome (along specified pathways) be zero or bounded.",
        article = nil,
        aliases = { "causal fairness criterion", "causal-based fairness" },
        es = "Familia de nociones de equidad formuladas en términos de efectos causales en lugar de asociación estadística, exigiendo que la influencia causal de un atributo sensible sobre el resultado (a lo largo de rutas especificadas) sea cero o acotada.",
        zh = "以因果效应而非统计关联表述的一类公平性概念,要求敏感属性沿指定路径对结果的因果影响为零或有限。",
        term_es = "equidad causal",
        term_zh = "因果公平性",
        aliases_es = { "criterio de equidad causal", "fairness causal" },
        aliases_zh = { "因果公平", "基于因果的公平性" },
    }
    
    data["causal fairness graph"] = {
        short = "A directed acyclic graph used in causal-fairness analysis to encode hypothesized causal relationships among the sensitive attribute, mediators, confounders, and outcome, enabling formal definitions and tests of fairness.",
        article = nil,
        aliases = { "causal graph for fairness", "fairness DAG", "causal fairness DAG" },
        es = "Grafo acíclico dirigido utilizado en el análisis de equidad causal para codificar las relaciones causales hipotéticas entre el atributo sensible, mediadores, confusores y resultado, permitiendo definiciones y pruebas formales de equidad.",
        zh = "用于因果公平性分析的有向无环图,用以刻画敏感属性、中介变量、混杂变量与结果之间的假设因果关系,从而支持公平性的形式化定义与检验。",
        term_es = "grafo de equidad causal",
        term_zh = "因果公平性图",
        aliases_es = { "DAG de equidad", "grafo causal de equidad" },
        aliases_zh = { "公平性 DAG", "因果公平图", "公平性因果图" },
    }
    
    data["causal feature attribution"] = {
        short = "Methods that assign importance scores to input features by quantifying their causal effect on a model's prediction, typically via interventions or counterfactual reasoning rather than purely associative measures.",
        article = nil,
        aliases = { "causal attribution", "causal feature importance" },
        es = "Métodos que asignan puntuaciones de importancia a las variables de entrada cuantificando su efecto causal sobre la predicción del modelo, normalmente mediante intervenciones o razonamiento contrafactual en lugar de medidas puramente asociativas.",
        zh = "通过量化输入特征对模型预测的因果效应来为其分配重要性分数的方法,通常基于干预或反事实推理,而非纯关联性度量。",
        term_es = "atribución causal de características",
        term_zh = "因果特征归因",
        aliases_es = { "importancia causal de características", "atribución causal" },
        aliases_zh = { "因果特征重要性", "因果归因" },
    }
    
    data["causal feature selection"] = {
        short = "Selecting a subset of input variables that are direct causes (or effects) of the target variable, typically by recovering the local causal structure such as the Markov blanket of the target.",
        article = nil,
        aliases = { "causal variable selection", "Markov blanket feature selection" },
        es = "Selección de un subconjunto de variables de entrada que son causas (o efectos) directos de la variable objetivo, normalmente recuperando la estructura causal local como la manta de Markov del objetivo.",
        zh = "选择作为目标变量直接原因(或结果)的输入变量子集,通常通过恢复目标的局部因果结构(如马尔可夫毯)实现。",
        term_es = "selección causal de características",
        term_zh = "因果特征选择",
        aliases_es = { "selección causal de variables" },
        aliases_zh = { "基于因果的特征选择", "马尔可夫毯特征选择" },
    }
    
    data["causal forest"] = {
        short = "A non-parametric estimator of heterogeneous treatment effects that adapts random forests to estimate conditional average treatment effects, using honest sample splitting for valid asymptotic inference.",
        article = nil,
        aliases = { "causal forests", "generalized random forests" },
        es = "Estimador no paramétrico de efectos de tratamiento heterogéneos que adapta los bosques aleatorios para estimar efectos promedio condicionales, utilizando división honesta de muestras para una inferencia asintótica válida.",
        zh = "一种异质处理效应的非参数估计器,将随机森林改进用于估计条件平均处理效应,采用诚实样本分割以获得有效的渐近推断。",
        term_es = "bosque causal",
        term_zh = "因果森林",
        aliases_es = { "bosques causales", "bosques aleatorios generalizados" },
        aliases_zh = { "因果随机森林", "广义随机森林" },
    }
    
    data["causal graph"] = {
        short = "A directed graph whose nodes represent variables and whose edges represent direct causal influences; typically a directed acyclic graph used to encode causal assumptions for inference and identification.",
        article = nil,
        aliases = { "causal DAG", "causal diagram", "causal Bayesian network" },
        es = "Grafo dirigido cuyos nodos representan variables y cuyas aristas representan influencias causales directas; típicamente un grafo acíclico dirigido que codifica supuestos causales para inferencia e identificación.",
        zh = "一种有向图,其节点表示变量,边表示直接因果影响;通常采用有向无环图,用于编码因果假设以进行推断与识别。",
        term_es = "grafo causal",
        term_zh = "因果图",
        aliases_es = { "DAG causal", "diagrama causal", "red bayesiana causal" },
        aliases_zh = { "因果有向无环图", "因果图模型", "因果贝叶斯网络" },
    }
    
    data["causal hierarchy"] = {
        short = "Pearl's three-level classification of causal questions: associational (seeing), interventional (doing), and counterfactual (imagining), each requiring strictly stronger assumptions and information than the level below.",
        article = nil,
        aliases = { "Pearl causal hierarchy", "ladder of causation", "PCH" },
        es = "Clasificación de Pearl de las preguntas causales en tres niveles: asociacional (ver), intervencional (hacer) y contrafactual (imaginar), cada uno requiriendo supuestos e información estrictamente más fuertes que el anterior.",
        zh = "Pearl 提出的因果问题三层分级:关联层(观察)、干预层(行动)和反事实层(想象),每一层都需要比下一层严格更强的假设与信息。",
        term_es = "jerarquía causal",
        term_zh = "因果层级",
        aliases_es = { "jerarquía causal de Pearl", "escalera de la causalidad" },
        aliases_zh = { "Pearl 因果层级", "因果阶梯", "PCH" },
    }
    
    data["causal hierarchy theorem"] = {
        short = "A formal result establishing that the three levels of the causal hierarchy (associational, interventional, counterfactual) are generically distinct: with probability one, lower-level distributions do not determine higher-level quantities without additional structural assumptions.",
        article = nil,
        aliases = { "CHT", "Pearl causal hierarchy theorem" },
        es = "Resultado formal que establece que los tres niveles de la jerarquía causal (asociacional, intervencional, contrafactual) son genéricamente distintos: con probabilidad uno, las distribuciones de nivel inferior no determinan las cantidades de niveles superiores sin supuestos estructurales adicionales.",
        zh = "一个正式定理,证明因果层级的三个层次(关联、干预、反事实)在通常情况下是不同的:以概率一,较低层次的分布在没有附加结构性假设时无法确定较高层次的量。",
        term_es = "teorema de la jerarquía causal",
        term_zh = "因果层级定理",
        aliases_es = { "CHT", "teorema de jerarquía causal de Pearl" },
        aliases_zh = { "因果阶梯定理", "Pearl 因果层级定理", "CHT" },
    }
    
    data["causal identification"] = {
        short = "The problem of determining whether a causal quantity (such as the effect of an intervention) can be uniquely expressed in terms of the observational distribution under a given causal model.",
        article = nil,
        aliases = { "identifiability", "causal identifiability", "identification of causal effects" },
        es = "Problema de determinar si una cantidad causal (como el efecto de una intervención) puede expresarse de forma única en términos de la distribución observacional bajo un modelo causal dado.",
        zh = "判定某个因果量(如干预的效应)在给定因果模型下能否仅由观测分布唯一表达的问题。",
        term_es = "identificación causal",
        term_zh = "因果识别",
        aliases_es = { "identificabilidad causal", "identificación de efectos causales" },
        aliases_zh = { "因果可识别性", "因果效应识别" },
    }
    
    data["causal inference"] = {
        short = "The branch of statistics and machine learning concerned with estimating the effects of interventions and answering counterfactual questions from data, typically using structural assumptions encoded in causal models.",
        article = nil,
        aliases = { "causal analysis", "inference of causal effects" },
        es = "Rama de la estadística y el aprendizaje automático que se ocupa de estimar los efectos de intervenciones y responder preguntas contrafactuales a partir de datos, normalmente usando supuestos estructurales codificados en modelos causales.",
        zh = "统计学与机器学习的一个分支,关注从数据中估计干预效应并回答反事实问题,通常依赖编码于因果模型中的结构性假设。",
        term_es = "inferencia causal",
        term_zh = "因果推断",
        aliases_es = { "análisis causal" },
        aliases_zh = { "因果推理", "因果分析" },
    }
    
    data["causal influence diagram"] = {
        short = "A graphical model extending influence diagrams with explicit causal semantics, representing decisions, chance variables, and utilities together with the causal mechanisms relating them, used in decision analysis and AI safety.",
        article = nil,
        aliases = { "CID", "causal influence diagrams" },
        es = "Modelo gráfico que extiende los diagramas de influencia con semántica causal explícita, representando decisiones, variables aleatorias y utilidades junto con los mecanismos causales que las relacionan, utilizado en análisis de decisiones y seguridad de IA.",
        zh = "一种图模型,在影响图基础上加入显式因果语义,表示决策、随机变量与效用以及它们之间的因果机制,广泛用于决策分析与人工智能安全研究。",
        term_es = "diagrama de influencia causal",
        term_zh = "因果影响图",
        aliases_es = { "CID", "diagramas de influencia causal" },
        aliases_zh = { "CID", "因果影响图模型" },
    }
    
    data["causal information flow"] = {
        short = "The transmission of information between variables along causal pathways in a system, often quantified by interventional or counterfactual measures that distinguish genuine causal transfer from mere statistical correlation.",
        article = nil,
        aliases = { "causal flow of information" },
        es = "Transmisión de información entre variables a lo largo de rutas causales en un sistema, frecuentemente cuantificada mediante medidas intervencionales o contrafactuales que distinguen la transferencia causal genuina de la mera correlación estadística.",
        zh = "系统中信息沿因果路径在变量之间的传递,通常通过干预性或反事实度量进行量化,以区分真正的因果传递与单纯的统计相关。",
        term_es = "flujo de información causal",
        term_zh = "因果信息流",
        aliases_es = { "flujo causal de información" },
        aliases_zh = { "因果性信息流" },
    }
    
    data["causal language model"] = {
        short = "A language model that factorizes the joint probability of a sequence left-to-right, predicting each token conditioned only on its predecessors. Used to train autoregressive generative models such as GPT.",
        article = nil,
        aliases = { "CLM", "causal LM", "autoregressive language model", "left-to-right language model", "decoder-only language model" },
        es = "Modelo de lenguaje que factoriza la probabilidad conjunta de una secuencia de izquierda a derecha, prediciendo cada token condicionado únicamente por los anteriores. Se utiliza para entrenar modelos generativos autoregresivos como GPT.",
        zh = "一种语言模型,将序列的联合概率从左到右因子分解,仅基于前文预测每个词元。用于训练 GPT 等自回归生成模型。",
        term_es = "modelo de lenguaje causal",
        term_zh = "因果语言模型",
        aliases_es = { "CLM", "modelo de lenguaje autoregresivo", "modelo de lenguaje de izquierda a derecha" },
        aliases_zh = { "CLM", "自回归语言模型", "因果 LM", "解码器语言模型" },
    }
    
    data["causal machine learning"] = {
        short = "A field combining causal inference with machine learning to estimate causal effects, learn causal structure, and build predictive models that remain valid under interventions or distribution shift.",
        article = nil,
        aliases = { "causal ML", "CausalML", "causality in machine learning" },
        es = "Campo que combina la inferencia causal con el aprendizaje automático para estimar efectos causales, aprender estructuras causales y construir modelos predictivos que sigan siendo válidos bajo intervenciones o cambios de distribución.",
        zh = "将因果推断与机器学习相结合的领域,用于估计因果效应、学习因果结构并构建在干预或分布偏移下仍然有效的预测模型。",
        term_es = "aprendizaje automático causal",
        term_zh = "因果机器学习",
        aliases_es = { "ML causal", "CausalML", "machine learning causal" },
        aliases_zh = { "因果ML", "CausalML", "因果性机器学习" },
    }
    
    data["causal markov condition"] = {
        short = "A foundational assumption stating that, given its direct causes, every variable in a causal graph is independent of its non-descendants; it links graphical structure to conditional independence in the observational distribution.",
        article = nil,
        aliases = { "Markov condition", "causal Markov assumption", "CMC" },
        es = "Supuesto fundamental que afirma que, dadas sus causas directas, toda variable de un grafo causal es independiente de sus no descendientes; vincula la estructura gráfica con la independencia condicional en la distribución observacional.",
        zh = "因果建模的基本假设:在给定直接原因的条件下,因果图中每个变量与其非后代独立;它将图结构与观测分布中的条件独立性联系起来。",
        term_es = "condición de Markov causal",
        term_zh = "因果马尔可夫条件",
        aliases_es = { "condición de Markov", "supuesto de Markov causal", "CMC" },
        aliases_zh = { "马尔可夫条件", "因果马尔可夫假设", "CMC" },
    }
    
    data["causal mechanism"] = {
        short = "The structural function or process that determines a variable from its direct causes; together with exogenous noise, the set of mechanisms in a structural causal model generates the joint distribution and supports interventions.",
        article = nil,
        aliases = { "causal mechanisms", "structural mechanism", "data-generating mechanism" },
        es = "Función o proceso estructural que determina una variable a partir de sus causas directas; junto con el ruido exógeno, el conjunto de mecanismos en un modelo causal estructural genera la distribución conjunta y permite intervenciones.",
        zh = "由直接原因决定某变量的结构性函数或过程;在结构因果模型中,这些机制连同外生噪声一起生成联合分布并支持干预操作。",
        term_es = "mecanismo causal",
        term_zh = "因果机制",
        aliases_es = { "mecanismos causales", "mecanismo estructural", "mecanismo generador de datos" },
        aliases_zh = { "结构机制", "数据生成机制", "因果机理" },
    }
    
    data["causal mediation analysis"] = {
        short = "A statistical and interpretability technique that decomposes a causal effect into direct and mediated components by intervening on intermediate variables, used to localize behavior in neural networks.",
        article = nil,
        aliases = { "CMA", "mediation analysis" },
        es = "Técnica estadística y de interpretabilidad que descompone un efecto causal en componentes directo y mediado interviniendo en variables intermedias; se usa para localizar comportamientos en redes neuronales.",
        zh = "一种统计与可解释性技术,通过对中间变量进行干预,将因果效应分解为直接效应和中介效应,用于在神经网络中定位行为。",
        term_es = "análisis de mediación causal",
        term_zh = "因果中介分析",
        aliases_es = { "CMA", "análisis de mediación" },
        aliases_zh = { "CMA", "中介分析" },
    }
    
    data["causal modularity"] = {
        short = "The principle that causal mechanisms are autonomous: intervening on one mechanism leaves the others unchanged, allowing modular reasoning and prediction under interventions and distribution shifts.",
        article = nil,
        aliases = { "modularity of causal mechanisms", "independence of mechanisms" },
        es = "Principio según el cual los mecanismos causales son autónomos: intervenir en un mecanismo no altera los demás, lo que permite el razonamiento modular y la predicción ante intervenciones y cambios de distribución.",
        zh = "一种原则:因果机制相互自主,对某一机制进行干预不会改变其他机制,从而支持在干预与分布偏移下进行模块化的推理与预测。",
        term_es = "modularidad causal",
        term_zh = "因果模块性",
        aliases_es = { "modularidad de los mecanismos causales", "independencia de mecanismos" },
        aliases_zh = { "因果机制模块化", "机制独立性" },
    }
    
    data["causal pathway"] = {
        short = "A directed sequence of causal links connecting one variable to another in a causal graph, along which causal influence propagates from cause to effect.",
        article = nil,
        aliases = { "causal path", "causal pathways" },
        es = "Secuencia dirigida de enlaces causales que conecta una variable con otra en un grafo causal, a lo largo de la cual se propaga la influencia causal desde la causa hasta el efecto.",
        zh = "因果图中由一系列有向因果链构成的路径,因果影响沿该路径从原因传递到结果。",
        term_es = "ruta causal",
        term_zh = "因果路径",
        aliases_es = { "camino causal", "trayectoria causal" },
        aliases_zh = { "因果通路", "因果路径链" },
    }
    
    data["causal pathway analysis"] = {
        short = "Decomposition of the total causal effect of a sensitive attribute on an outcome into contributions along specific paths in a causal graph, enabling fairness assessments to distinguish allowable from prohibited mechanisms of influence.",
        article = nil,
        aliases = { "path-specific effect analysis", "causal path analysis", "pathway decomposition" },
        es = "Descomposición del efecto causal total de un atributo sensible sobre un resultado en contribuciones a lo largo de rutas específicas en un grafo causal, permitiendo en evaluaciones de equidad distinguir mecanismos de influencia permitidos de los prohibidos.",
        zh = "将敏感属性对结果的总因果效应沿因果图中具体路径进行分解,从而在公平性评估中区分允许的与不被允许的影响机制。",
        term_es = "análisis de rutas causales",
        term_zh = "因果路径分析",
        aliases_es = { "análisis de efectos por ruta", "descomposición por rutas causales" },
        aliases_zh = { "路径特定效应分析", "因果路径分解", "路径分析" },
    }
    
    data["causal probing"] = {
        short = "Probing methods that combine classifiers with causal interventions on internal representations to test whether a property is actually used by the model, not just decodable from it.",
        article = nil,
        aliases = { "causal probe", "interventional probing" },
        es = "Métodos de probing que combinan clasificadores con intervenciones causales sobre las representaciones internas para comprobar si una propiedad es realmente usada por el modelo y no solo decodificable desde él.",
        zh = "结合分类器与对内部表征的因果干预的探测方法,用于检验某一属性是否真正被模型使用,而不仅仅是可从中解码出来。",
        term_es = "probing causal",
        term_zh = "因果探测",
        aliases_es = { "sondeo causal", "probing intervencional" },
        aliases_zh = { "因果 probing", "干预式探测" },
    }
    
    data["causal query"] = {
        short = "A formal question about a causal model, typically expressed using do-operator or counterfactual notation, asking for an interventional or counterfactual quantity to be evaluated from the model.",
        article = nil,
        aliases = { "causal queries", "interventional query" },
        es = "Pregunta formal sobre un modelo causal, expresada normalmente con la notación del operador do o contrafactual, que solicita evaluar una cantidad intervencional o contrafactual a partir del modelo.",
        zh = "对因果模型的形式化提问,通常使用 do 算子或反事实记号表达,要求基于模型求解某个干预性或反事实量。",
        term_es = "consulta causal",
        term_zh = "因果查询",
        aliases_es = { "pregunta causal", "consulta intervencional" },
        aliases_zh = { "因果询问", "干预查询" },
    }
    
    data["causal regularization"] = {
        short = "A regularization strategy that penalizes models for relying on non-causal or spurious associations, encouraging predictions to depend on stable causal features and improving robustness under distribution shift.",
        article = nil,
        aliases = { "causal regularisation", "causal penalty", "invariant causal regularization" },
        es = "Estrategia de regularización que penaliza a los modelos por depender de asociaciones no causales o espurias, alentando que las predicciones se basen en características causales estables y mejorando la robustez ante cambios de distribución.",
        zh = "一种正则化策略,惩罚模型对非因果或虚假关联的依赖,促使预测依赖稳定的因果特征,从而提升在分布偏移下的鲁棒性。",
        term_es = "regularización causal",
        term_zh = "因果正则化",
        aliases_es = { "penalización causal", "regularización causal invariante" },
        aliases_zh = { "因果正则项", "因果正则化方法" },
    }
    
    data["causal representation learning"] = {
        short = "Learning representations whose latent variables correspond to interpretable causal factors of the data, supporting reasoning about interventions, counterfactuals, and out-of-distribution generalization.",
        article = nil,
        aliases = { "CRL", "causal representations", "learning causal representations" },
        es = "Aprendizaje de representaciones cuyas variables latentes se corresponden con factores causales interpretables de los datos, lo que permite razonar sobre intervenciones, contrafactuales y generalización fuera de distribución.",
        zh = "学习其潜变量对应于数据可解释因果因子的表示方法,支持对干预、反事实及分布外泛化进行推理。",
        term_es = "aprendizaje de representaciones causales",
        term_zh = "因果表示学习",
        aliases_es = { "CRL", "representaciones causales" },
        aliases_zh = { "CRL", "因果表征学习" },
    }
    
    data["causal scrubbing"] = {
        short = "A mechanistic interpretability methodology that tests a hypothesis about a model's computation by replacing activations along non-hypothesized paths with resampled activations and checking that performance is preserved.",
        article = nil,
        aliases = { "causal scrubbing methodology" },
        es = "Metodología de interpretabilidad mecanicista que evalúa una hipótesis sobre el cómputo de un modelo reemplazando las activaciones en rutas no hipotetizadas por activaciones remuestreadas y comprobando que el rendimiento se mantiene.",
        zh = "一种机制可解释性方法,通过将假设之外路径上的激活替换为重采样的激活并验证性能是否保持,从而检验关于模型计算的假设。",
        term_es = "causal scrubbing",
        term_zh = "因果擦除",
        aliases_es = { "metodología de causal scrubbing" },
        aliases_zh = { "causal scrubbing", "因果清洗" },
    }
    
    data["causal shap"] = {
        short = "An extension of SHAP that respects a known causal graph among features, computing Shapley values under interventional rather than observational conditional distributions.",
        article = nil,
        aliases = { "Causal SHAP", "causal Shapley values" },
        es = "Extensión de SHAP que respeta un grafo causal conocido entre características, calculando los valores de Shapley bajo distribuciones condicionales intervencionales en lugar de observacionales.",
        zh = "SHAP 的一种扩展,在已知特征间因果图的前提下,使用干预性而非观察性条件分布来计算 Shapley 值。",
        term_es = "Causal SHAP",
        term_zh = "Causal SHAP",
        aliases_es = { "SHAP causal", "valores de Shapley causales" },
        aliases_zh = { "Causal SHAP", "因果 Shapley 值" },
    }
    
    data["causal stability"] = {
        short = "The property that a learned causal model or estimated causal effect remains consistent under perturbations of the data, model assumptions, or environment, often used as a criterion for trustworthy causal discovery.",
        article = nil,
        aliases = { "stability of causal estimates", "stable causal inference" },
        es = "Propiedad por la que un modelo causal aprendido o un efecto causal estimado permanece consistente ante perturbaciones de los datos, de los supuestos del modelo o del entorno, utilizada a menudo como criterio para una descubrimiento causal confiable.",
        zh = "已学习的因果模型或所估因果效应在数据、模型假设或环境扰动下保持一致的性质,常作为可信因果发现的评估准则。",
        term_es = "estabilidad causal",
        term_zh = "因果稳定性",
        aliases_es = { "estabilidad de estimaciones causales", "inferencia causal estable" },
        aliases_zh = { "因果估计的稳定性", "稳定因果推断" },
    }
    
    data["causal structure learning"] = {
        short = "The task of inferring the structure of a causal graph (typically a DAG) from observational and possibly interventional data, using constraint-based, score-based, or hybrid algorithms.",
        article = nil,
        aliases = { "causal discovery", "structure learning", "learning causal structure" },
        es = "Tarea consistente en inferir la estructura de un grafo causal (típicamente un DAG) a partir de datos observacionales y, opcionalmente, intervencionales, utilizando algoritmos basados en restricciones, en puntuaciones o híbridos.",
        zh = "从观测数据(可选地结合干预数据)中推断因果图(通常为有向无环图)结构的任务,常用基于约束、基于评分或混合的算法实现。",
        term_es = "aprendizaje de estructura causal",
        term_zh = "因果结构学习",
        aliases_es = { "descubrimiento causal", "aprendizaje de estructura" },
        aliases_zh = { "因果发现", "结构学习", "因果图结构学习" },
    }
    
    data["causal sufficiency"] = {
        short = "An assumption in causal discovery that there are no unobserved common causes (latent confounders) of any pair of measured variables; required by many algorithms such as the PC algorithm.",
        article = nil,
        aliases = { "no hidden confounders", "no latent confounders assumption" },
        es = "Supuesto en el descubrimiento causal según el cual no existen causas comunes no observadas (confundentes latentes) entre ningún par de variables medidas; es necesario para muchos algoritmos, como el algoritmo PC.",
        zh = "因果发现中的一种假设:任何两个被测量变量之间不存在未观测的共同原因(潜在混淆因子);许多算法(如 PC 算法)依赖此假设。",
        term_es = "suficiencia causal",
        term_zh = "因果充分性",
        aliases_es = { "ausencia de confundentes ocultos", "ausencia de confundentes latentes" },
        aliases_zh = { "无隐含混淆假设", "无潜在混杂因子假设" },
    }
    
    data["causal survival forest"] = {
        short = "A causal forest variant designed to estimate heterogeneous treatment effects on time-to-event outcomes under right-censoring, combining survival analysis with non-parametric heterogeneity estimation.",
        article = nil,
        aliases = { "causal survival forests", "CSF" },
        es = "Variante del bosque causal diseñada para estimar efectos de tratamiento heterogéneos sobre desenlaces de tiempo-hasta-evento con censura por la derecha, combinando análisis de supervivencia con estimación no paramétrica de heterogeneidad.",
        zh = "因果森林的一种变体,用于在存在右删失的生存时间结局下估计异质处理效应,将生存分析与非参数异质性估计相结合。",
        term_es = "bosque causal de supervivencia",
        term_zh = "因果生存森林",
        aliases_es = { "bosques causales de supervivencia", "CSF" },
        aliases_zh = { "因果生存随机森林", "CSF" },
    }
    
    data["causal transportability"] = {
        short = "The problem of determining whether and how causal conclusions established in one population or setting can be transferred to a different target population, given assumptions about which causal mechanisms are shared.",
        article = nil,
        aliases = { "transportability", "causal transport", "transportability of causal effects" },
        es = "Problema de determinar si y cómo las conclusiones causales establecidas en una población o entorno pueden transferirse a una población objetivo distinta, dados supuestos sobre qué mecanismos causales se comparten.",
        zh = "判定在一个总体或环境中得到的因果结论能否、以及如何在共享某些因果机制的假设下迁移到不同目标总体的问题。",
        term_es = "transportabilidad causal",
        term_zh = "因果可迁移性",
        aliases_es = { "transportabilidad", "transporte causal", "transportabilidad de efectos causales" },
        aliases_zh = { "可迁移性", "因果迁移性", "因果效应可迁移性" },
    }
    
    data["causal tree"] = {
        short = "A tree-based estimator of heterogeneous treatment effects that recursively partitions the covariate space to find subgroups with different treatment effects, using honest sample splitting for valid inference.",
        article = nil,
        aliases = { "causal trees", "honest causal tree" },
        es = "Estimador basado en árboles de efectos de tratamiento heterogéneos que particiona recursivamente el espacio de covariables para encontrar subgrupos con efectos de tratamiento distintos, usando división honesta de muestras para una inferencia válida.",
        zh = "一种基于树的异质处理效应估计器,通过递归地划分协变量空间寻找处理效应不同的子组,并采用诚实样本分割以获得有效推断。",
        term_es = "árbol causal",
        term_zh = "因果树",
        aliases_es = { "árboles causales", "árbol causal honesto" },
        aliases_zh = { "因果决策树", "诚实因果树" },
    }
    
    data["causal validity"] = {
        short = "The degree to which a study's design and analysis support a credible causal interpretation of its findings, traditionally decomposed into internal validity (correctness of the causal claim) and external validity (generalizability).",
        article = nil,
        aliases = { "validity of causal inference", "causal validity of a study" },
        es = "Grado en que el diseño y el análisis de un estudio respaldan una interpretación causal creíble de sus hallazgos, tradicionalmente descompuesto en validez interna (corrección de la afirmación causal) y validez externa (generalizabilidad).",
        zh = "研究的设计与分析支持对结果进行可信因果解释的程度,传统上分为内部效度(因果主张的正确性)与外部效度(可推广性)。",
        term_es = "validez causal",
        term_zh = "因果效度",
        aliases_es = { "validez de la inferencia causal" },
        aliases_zh = { "因果有效性", "因果推断的效度" },
    }
    
    data["causation vs correlation"] = {
        short = "The fundamental distinction that statistical correlation between variables does not by itself imply a causal relationship; establishing causation requires additional assumptions, interventions, or causal modeling.",
        article = nil,
        aliases = { "correlation vs causation", "correlation does not imply causation", "causation versus correlation" },
        es = "Distinción fundamental según la cual la correlación estadística entre variables no implica por sí sola una relación causal; establecer causalidad requiere supuestos, intervenciones o modelos causales adicionales.",
        zh = "一项基本区分:变量之间的统计相关本身并不意味着存在因果关系;确立因果关系需要额外的假设、干预或因果建模。",
        term_es = "causalidad frente a correlación",
        term_zh = "因果与相关",
        aliases_es = { "correlación vs causalidad", "correlación no implica causalidad" },
        aliases_zh = { "相关与因果", "相关不等于因果" },
    }
    
    data["ccg parsing"] = {
        short = "Syntactic parsing under Combinatory Categorial Grammar, in which words carry rich functional categories and a small set of combinatory rules (function application and composition) yields both a derivation and a logical form.",
        article = nil,
        aliases = { "CCG parsing", "Combinatory Categorial Grammar parsing", "CCG parser" },
        es = "Análisis sintáctico bajo Gramática Categorial Combinatoria, en el que las palabras llevan categorías funcionales ricas y un pequeño conjunto de reglas combinatorias (aplicación y composición de funciones) produce tanto una derivación como una forma lógica.",
        zh = "在组合范畴语法(CCG)框架下的句法分析,其中每个词带有丰富的函数性范畴,通过一小组组合规则(函数应用与组合)同时得到推导树和逻辑表示。",
        term_es = "análisis CCG",
        term_zh = "CCG 句法分析",
        aliases_es = { "análisis sintáctico CCG", "parsing CCG", "análisis con gramática categorial combinatoria" },
        aliases_zh = { "CCG 分析", "组合范畴语法分析", "CCG 解析" },
    }
    
    data["cdarts"] = {
        short = "A differentiable neural architecture search method that introduces cyclic feedback between a search network and a derived evaluation network so that architectural decisions are jointly optimized with their final-network performance.",
        article = nil,
        aliases = { "CDARTS", "Cyclic DARTS", "Cyclic Differentiable Architecture Search" },
        es = "Método de búsqueda de arquitecturas neuronales diferenciable que introduce realimentación cíclica entre la red de búsqueda y la red de evaluación derivada, de modo que las decisiones arquitectónicas se optimizan conjuntamente con el rendimiento de la red final.",
        zh = "一种可微神经架构搜索方法,在搜索网络和派生的评估网络之间引入循环反馈,使架构决策与最终网络的性能联合优化。",
        term_es = "CDARTS",
        term_zh = "CDARTS",
        aliases_es = { "DARTS cíclico", "búsqueda de arquitectura diferenciable cíclica" },
        aliases_zh = { "循环DARTS", "循环可微架构搜索" },
    }
    
    data["cdcl solver"] = {
        short = "A modern Boolean satisfiability solver based on Conflict-Driven Clause Learning, which extends DPLL backtracking with non-chronological backjumping and learned clauses derived from analyzing each conflict.",
        article = nil,
        aliases = { "CDCL", "CDCL SAT solver", "Conflict-Driven Clause Learning solver", "Conflict-Driven Clause Learning" },
        es = "Un solucionador moderno de satisfacibilidad booleana basado en Aprendizaje de Cláusulas Dirigido por Conflictos (CDCL), que extiende el retroceso DPLL con saltos hacia atrás no cronológicos y cláusulas aprendidas a partir del análisis de cada conflicto.",
        zh = "一类现代布尔可满足性(SAT)求解器,基于冲突驱动子句学习(CDCL),在 DPLL 回溯的基础上引入非时序回跳和从冲突分析中学习的新子句。",
        term_es = "solver CDCL",
        term_zh = "CDCL 求解器",
        aliases_es = { "CDCL", "solver SAT CDCL", "CDCL SAT solver", "aprendizaje de cláusulas dirigido por conflictos" },
        aliases_zh = { "CDCL", "CDCL SAT 求解器", "冲突驱动子句学习" },
    }
    
    data["cdr design"] = {
        short = "Computational design of an antibody's complementarity-determining regions—the variable loops that contact antigen—optimizing affinity, specificity, and developability while keeping the framework fixed.",
        article = nil,
        aliases = { "CDR design", "complementarity-determining region design", "antibody CDR design", "CDR loop design" },
        es = "Diseño computacional de las regiones determinantes de la complementariedad de un anticuerpo —los lazos variables que contactan al antígeno— optimizando afinidad, especificidad y desarrollabilidad mientras se mantiene fijo el armazón.",
        zh = "对抗体互补决定区(与抗原接触的可变环)进行的计算设计,在保持框架区不变的情况下优化亲和力、特异性和可开发性。",
        term_es = "diseño de CDR",
        term_zh = "CDR 设计",
        aliases_es = { "diseño de regiones CDR", "diseño de regiones determinantes de complementariedad" },
        aliases_zh = { "互补决定区设计", "抗体 CDR 设计", "CDR 环设计" },
    }
    
    data["cell painting"] = {
        short = "A high-content imaging assay in which cells are stained with six fluorescent dyes that label distinct organelles and cellular components, then imaged in five channels to generate rich morphological profiles. Used for compound profiling, mechanism-of-action discovery, and image-based phenotypic screens.",
        article = nil,
        aliases = { "Cell Painting", "Cell Painting assay", "morphological profiling assay" },
        es = "Ensayo de imagen de alto contenido en el que las células se tiñen con seis colorantes fluorescentes que marcan distintos orgánulos y componentes celulares y se obtienen imágenes en cinco canales para generar perfiles morfológicos detallados. Se utiliza para perfilado de compuestos, descubrimiento de mecanismos de acción y cribados fenotípicos basados en imagen.",
        zh = "一种高内涵成像实验,使用六种荧光染料标记不同的细胞器和细胞组分,并在五个通道中成像,从而生成丰富的形态学特征谱,用于化合物表型分析、作用机制发现以及基于图像的表型筛选。",
        term_es = "Cell Painting",
        term_zh = "Cell Painting",
        aliases_es = { "ensayo Cell Painting", "tinción Cell Painting", "perfilado morfológico Cell Painting" },
        aliases_zh = { "Cell Painting 实验", "细胞绘画", "细胞绘画检测", "形态学谱分析" },
    }
    
    data["cell ranger"] = {
        short = "10x Genomics' analysis pipeline for single-cell RNA-seq data, performing read alignment, cell barcode demultiplexing, UMI counting, and feature-barcode matrix generation from Chromium platform outputs.",
        article = nil,
        aliases = { "Cell Ranger", "CellRanger", "cellranger", "10x Cell Ranger" },
        es = "Pipeline de análisis de 10x Genomics para datos de RNA-seq de célula única, que realiza alineamiento de lecturas, demultiplexado de códigos de barras celulares, conteo de UMI y generación de matrices de características a partir de las salidas de la plataforma Chromium.",
        zh = "10x Genomics 推出的单细胞 RNA-seq 数据分析流程,从 Chromium 平台输出执行读段比对、细胞条形码解复用、UMI 计数和特征-条形码矩阵生成。",
        term_es = "Cell Ranger",
        term_zh = "Cell Ranger",
        aliases_es = { "CellRanger", "cellranger" },
        aliases_zh = { "CellRanger", "cellranger", "10x Cell Ranger" },
    }
    
    data["cell segmentation"] = {
        short = "The task of partitioning a microscopy or imaging-based assay image into regions corresponding to individual cells, typically by predicting cell boundaries or instance masks. Foundational for downstream phenotypic and spatial analyses.",
        article = nil,
        aliases = { "single-cell segmentation", "cellular segmentation", "instance segmentation of cells" },
        es = "Tarea de dividir una imagen de microscopía o de un ensayo basado en imágenes en regiones correspondientes a células individuales, típicamente prediciendo bordes celulares o máscaras de instancia. Es fundamental para análisis fenotípicos y espaciales posteriores.",
        zh = "将显微镜或基于成像的实验图像划分为对应于单个细胞的区域的任务,通常通过预测细胞边界或实例掩膜实现。是后续表型分析和空间分析的基础。",
        term_es = "segmentación celular",
        term_zh = "细胞分割",
        aliases_es = { "segmentación de células", "segmentación de células individuales" },
        aliases_zh = { "单细胞分割", "细胞实例分割" },
    }
    
    data["cell topology"] = {
        short = "The directed-graph structure of operations and connections inside a searchable cell in cell-based neural architecture search; the topology specifies which intermediate nodes feed which others.",
        article = nil,
        aliases = { "cell structure", "NAS cell topology" },
        es = "Estructura de grafo dirigido de operaciones y conexiones dentro de una celda buscable en la búsqueda de arquitecturas basada en celdas; la topología especifica qué nodos intermedios alimentan a cuáles.",
        zh = "在基于单元的神经架构搜索中,可搜索单元内部操作与连接的有向图结构;该拓扑规定哪些中间节点与哪些节点相连。",
        term_es = "topología de celda",
        term_zh = "单元拓扑",
        aliases_es = { "estructura de celda", "topología de celda NAS" },
        aliases_zh = { "单元结构", "NAS单元拓扑" },
    }
    
    data["cell-based search space"] = {
        short = "A neural architecture search space in which a small computational cell is searched once and then stacked repeatedly to form the full network, sharing structure across depth.",
        article = nil,
        aliases = { "cell based search space", "cell search space", "cell-based NAS search space" },
        es = "Espacio de búsqueda de arquitecturas neuronales en el que se busca una celda computacional pequeña una sola vez y luego se apila repetidamente para formar la red completa, compartiendo estructura en profundidad.",
        zh = "一种神经架构搜索空间,仅搜索一个小型计算单元,然后将其重复堆叠以构成完整网络,在深度方向共享结构。",
        term_es = "espacio de búsqueda basado en celdas",
        term_zh = "基于单元的搜索空间",
        aliases_es = { "espacio de búsqueda por celdas", "espacio de búsqueda celular en NAS" },
        aliases_zh = { "单元式搜索空间", "基于单元的NAS搜索空间" },
    }
    
    data["cell-type annotation"] = {
        short = "Assigning each cell in a single-cell dataset to a known cell type or state, either manually using marker genes or automatically via reference-based classifiers, label transfer, or learned embeddings.",
        article = nil,
        aliases = { "cell type annotation", "cell-type identification", "cell type labeling", "celltype annotation" },
        es = "Asignación de cada célula en un conjunto de datos de célula única a un tipo o estado celular conocido, ya sea manualmente con genes marcadores o automáticamente mediante clasificadores basados en referencias, transferencia de etiquetas o embeddings aprendidos.",
        zh = "将单细胞数据集中的每个细胞分配到已知细胞类型或状态的过程,可通过标记基因手动完成,也可通过基于参考的分类器、标签迁移或学习到的嵌入自动完成。",
        term_es = "anotación de tipos celulares",
        term_zh = "细胞类型注释",
        aliases_es = { "identificación de tipos celulares", "etiquetado de tipos celulares" },
        aliases_zh = { "细胞类型鉴定", "细胞类型标注" },
    }
    
    data["cell-type deconvolution"] = {
        short = "Estimating the proportions of constituent cell types within a bulk transcriptomics or spatial transcriptomics sample, typically by fitting a mixture model against a single-cell reference profile.",
        article = nil,
        aliases = { "cell type deconvolution", "bulk deconvolution", "spatial deconvolution", "cellular deconvolution" },
        es = "Estimación de las proporciones de los tipos celulares que componen una muestra de transcriptómica masiva o transcriptómica espacial, típicamente ajustando un modelo de mezcla contra un perfil de referencia de célula única.",
        zh = "估计批量转录组或空间转录组样本中各组成细胞类型比例的过程,通常通过将混合模型拟合到单细胞参考图谱来完成。",
        term_es = "deconvolución de tipos celulares",
        term_zh = "细胞类型解卷积",
        aliases_es = { "deconvolución celular", "deconvolución espacial" },
        aliases_zh = { "细胞类型反卷积", "空间解卷积", "批量解卷积" },
    }
    
    data["cell2location"] = {
        short = "A Bayesian model that maps cell types from a single-cell RNA-seq reference onto spatial transcriptomics data, jointly estimating per-spot cell-type abundances while accounting for technical effects.",
        article = nil,
        aliases = { "Cell2location", "cell2location.py", "c2l" },
        es = "Modelo bayesiano que asigna los tipos celulares de una referencia de RNA-seq de célula única a datos de transcriptómica espacial, estimando conjuntamente las abundancias por spot y modelando efectos técnicos.",
        zh = "一种贝叶斯模型,将单细胞 RNA-seq 参考的细胞类型映射到空间转录组数据上,在考虑技术效应的同时联合估计每个 spot 的细胞类型丰度。",
        term_es = "cell2location",
        term_zh = "cell2location",
        aliases_es = { "Cell2location" },
        aliases_zh = { "Cell2location" },
    }
    
    data["cellbender"] = {
        short = "A deep generative model that removes ambient RNA contamination and identifies empty droplets in droplet-based single-cell RNA-seq data using a variational autoencoder framework.",
        article = nil,
        aliases = { "CellBender", "cellbender remove-background" },
        es = "Modelo generativo profundo que elimina la contaminación por RNA ambiental e identifica gotas vacías en datos de RNA-seq de célula única basados en gotas, usando un marco de autoencoder variacional.",
        zh = "一种深度生成模型,使用变分自编码器框架去除液滴式单细胞 RNA-seq 数据中的环境 RNA 污染并识别空液滴。",
        term_es = "CellBender",
        term_zh = "CellBender",
        aliases_es = { "cellbender" },
        aliases_zh = { "cellbender" },
    }
    
    data["cellpose"] = {
        short = "A generalist deep-learning model for cell and nucleus segmentation that predicts spatial flow vectors converging on cell centers, enabling instance segmentation across diverse imaging modalities without retraining.",
        article = nil,
        aliases = { "Cellpose", "Cellpose 2.0", "cellpose model" },
        es = "Modelo generalista de aprendizaje profundo para segmentación de células y núcleos que predice vectores de flujo espaciales que convergen hacia los centros celulares, permitiendo segmentación de instancias en diversas modalidades de imagen sin reentrenamiento.",
        zh = "一种通用的深度学习细胞与细胞核分割模型,通过预测汇聚于细胞中心的空间流向量,可在多种成像模态下进行实例分割而无需重新训练。",
        term_es = "Cellpose",
        term_zh = "Cellpose",
        aliases_es = { "Cellpose 2.0" },
        aliases_zh = { "Cellpose 2.0" },
    }
    
    data["cellprofiler"] = {
        short = "An open-source image analysis software for high-throughput biological microscopy that runs configurable pipelines of modules for object identification, measurement, and feature extraction.",
        article = nil,
        aliases = { "CellProfiler", "Cell Profiler" },
        es = "Software de análisis de imágenes de código abierto para microscopía biológica de alto rendimiento que ejecuta pipelines configurables de módulos para identificación de objetos, medición y extracción de características.",
        zh = "一个开源的生物高通量显微图像分析软件,运行由可配置模块组成的流程,用于物体识别、测量和特征提取。",
        term_es = "CellProfiler",
        term_zh = "CellProfiler",
        aliases_es = { "Cell Profiler" },
        aliases_zh = { "Cell Profiler" },
    }
    
    data["cellrank"] = {
        short = "A framework for inferring single-cell fate dynamics from RNA velocity, pseudotime, or experimental time, building a Markov chain over cells to estimate initial, terminal, and intermediate state probabilities.",
        article = nil,
        aliases = { "CellRank", "CellRank 2" },
        es = "Marco para inferir la dinámica del destino celular en datos de célula única a partir de velocidad de RNA, pseudotiempo o tiempo experimental, construyendo una cadena de Markov sobre las células para estimar probabilidades de estados iniciales, terminales e intermedios.",
        zh = "一个用于从 RNA 速度、伪时间或实验时间推断单细胞命运动力学的框架,在细胞上构建马尔可夫链以估计初始、终末和中间状态概率。",
        term_es = "CellRank",
        term_zh = "CellRank",
        aliases_es = { "CellRank 2" },
        aliases_zh = { "CellRank 2" },
    }
    
    data["cellxgene browser"] = {
        short = "An interactive web-based viewer developed by the Chan Zuckerberg Initiative for exploring single-cell RNA-seq datasets, allowing users to browse embeddings, gene expression, and metadata across published studies.",
        article = nil,
        aliases = { "cellxgene", "CELLxGENE", "CZI cellxgene", "cellxgene Discover" },
        es = "Visor web interactivo desarrollado por la Chan Zuckerberg Initiative para explorar conjuntos de datos de RNA-seq de célula única, permitiendo navegar por embeddings, expresión génica y metadatos en estudios publicados.",
        zh = "由 Chan Zuckerberg Initiative 开发的交互式网页浏览器,用于探索单细胞 RNA-seq 数据集,可浏览嵌入、基因表达和已发表研究的元数据。",
        term_es = "cellxgene",
        term_zh = "cellxgene",
        aliases_es = { "CELLxGENE", "navegador cellxgene", "cellxgene Discover" },
        aliases_zh = { "CELLxGENE", "cellxgene 浏览器", "cellxgene Discover" },
    }
    
    data["center loss"] = {
        short = "Auxiliary loss for face recognition that minimizes the squared distance between deep features and learned per-class centers, encouraging tight intra-class clusters.",
        article = nil,
        aliases = { "Center Loss" },
        es = "Pérdida auxiliar para reconocimiento facial que minimiza la distancia al cuadrado entre las características profundas y los centros aprendidos por clase, fomentando agrupamientos intra-clase compactos.",
        zh = "用于人脸识别的辅助损失,最小化深度特征与各类别学习中心之间的平方距离,促使类内特征紧凑聚集。",
        term_es = "pérdida de centros",
        term_zh = "中心损失",
        aliases_es = { "center loss", "pérdida de centro" },
        aliases_zh = { "center loss" },
    }
    
    data["centered clipping aggregation"] = {
        short = "A Byzantine-robust aggregation rule that clips each client update to a bounded radius around a running estimate (often the previous round's aggregate) before averaging, limiting the influence of any single contribution.",
        article = nil,
        aliases = { "centered clipping", "centered-clipping", "CClip", "centred clipping aggregation" },
        es = "Regla de agregación robusta a Bizantinos que recorta cada actualización del cliente a un radio acotado alrededor de una estimación de referencia (habitualmente la agregación de la ronda anterior) antes de promediar, limitando la influencia de cada contribución individual.",
        zh = "一种拜占庭鲁棒聚合规则:在求平均之前,将每个客户端更新裁剪到围绕某个参考估计(通常是上一轮的聚合结果)的有界半径内,从而限制单个贡献的影响。",
        term_es = "agregación por recorte centrado",
        term_zh = "中心化裁剪聚合",
        aliases_es = { "recorte centrado", "centered clipping" },
        aliases_zh = { "中心裁剪聚合", "centered clipping" },
    }
    
    data["centered ice plot"] = {
        short = "A variant of the individual conditional expectation (ICE) plot in which each curve is centered at a reference value of the feature, making heterogeneous effects across instances easier to compare.",
        article = nil,
        aliases = { "c-ICE plot", "centered individual conditional expectation plot" },
        es = "Variante del gráfico de expectativa condicional individual (ICE) en la que cada curva se centra en un valor de referencia de la característica, lo que facilita comparar efectos heterogéneos entre instancias.",
        zh = "个体条件期望(ICE)图的变体,将每条曲线在特征的参考值处对齐居中,从而更便于比较不同样本间的异质效应。",
        term_es = "gráfico ICE centrado",
        term_zh = "中心化 ICE 图",
        aliases_es = { "c-ICE", "ICE centrado" },
        aliases_zh = { "c-ICE 图", "居中 ICE 图" },
    }
    
    data["centered parameterization"] = {
        short = "A hierarchical-model parameterization that writes lower-level parameters directly in terms of higher-level location and scale (e.g. theta ~ Normal(mu, sigma)), which can induce strong posterior correlations and pathological geometry for HMC.",
        article = nil,
        aliases = { "CP", "centred parameterization", "centered parametrization", "centered parameterisation" },
        es = "Parametrización de modelos jerárquicos que expresa los parámetros del nivel inferior directamente en función de la localización y escala del nivel superior (p. ej. theta ~ Normal(mu, sigma)), lo que puede inducir fuertes correlaciones posteriores y una geometría patológica para HMC.",
        zh = "一种层次模型参数化,将下层参数直接以上层位置和尺度(如theta ~ Normal(mu, sigma))表示,这会引起强后验相关性,并对HMC造成病态几何。",
        term_es = "parametrización centrada",
        term_zh = "中心化参数化",
        aliases_es = { "CP", "parametrización centralizada", "centered parameterization" },
        aliases_zh = { "CP", "中心参数化", "centered参数化" },
    }
    
    data["central differential privacy"] = {
        short = "A trust model for differentially private federated learning in which a trusted aggregator collects raw client updates and adds calibrated noise to the aggregate, giving stronger utility than local DP for the same privacy budget.",
        article = nil,
        aliases = { "central DP", "CDP", "trusted-curator differential privacy", "central-model differential privacy" },
        es = "Modelo de confianza para el aprendizaje federado con privacidad diferencial en el que un agregador de confianza recibe las actualizaciones brutas de los clientes y añade ruido calibrado a la agregación, ofreciendo mayor utilidad que la DP local para el mismo presupuesto de privacidad.",
        zh = "差分隐私联邦学习中的一种信任模型:由可信聚合方收集客户端的原始更新,并对聚合结果添加经过校准的噪声;在相同隐私预算下,其效用通常优于本地差分隐私。",
        term_es = "privacidad diferencial central",
        term_zh = "中心化差分隐私",
        aliases_es = { "DP central", "modelo central de privacidad diferencial" },
        aliases_zh = { "中心差分隐私", "central DP", "CDP" },
    }
    
    data["central limit theorem"] = {
        short = "A foundational result stating that the standardized sum (or mean) of a large number of independent, identically distributed random variables with finite variance converges in distribution to a standard normal, regardless of the original distribution's shape.",
        article = nil,
        aliases = { "CLT", "classical CLT", "Lindeberg-Lévy CLT" },
        es = "Resultado fundamental que afirma que la suma (o media) estandarizada de un número grande de variables aleatorias independientes e idénticamente distribuidas con varianza finita converge en distribución a una normal estándar, sin importar la forma de la distribución original.",
        zh = "一个基础性结果:在方差有限的条件下,大量独立同分布随机变量的标准化和(或均值)依分布收敛到标准正态分布,与原分布形态无关。",
        term_es = "teorema del límite central",
        term_zh = "中心极限定理",
        aliases_es = { "TLC", "teorema central del límite", "TCL" },
        aliases_zh = { "CLT", "Lindeberg-Lévy 中心极限定理" },
    }
    
    data["cepstral analysis"] = {
        short = "A signal processing technique that analyzes a signal via its cepstrum—the inverse Fourier transform of the logarithm of its spectrum—commonly used to separate excitation from vocal-tract response in speech.",
        article = nil,
        aliases = { "cepstrum analysis" },
        es = "Técnica de procesamiento de señales que analiza una señal mediante su cepstrum, definido como la transformada inversa de Fourier del logaritmo de su espectro, y que suele emplearse para separar la excitación de la respuesta del tracto vocal en el habla.",
        zh = "一种通过倒谱(信号频谱对数的逆傅里叶变换)来分析信号的信号处理技术,常用于在语音中分离激励源与声道响应。",
        term_es = "análisis cepstral",
        term_zh = "倒谱分析",
        aliases_es = { "análisis del cepstrum" },
        aliases_zh = { "倒频谱分析" },
    }
    
    data["cepstrum"] = {
        short = "The inverse Fourier transform of the logarithm of a signal's spectrum, used to reveal periodic structure such as pitch and to separate source and filter contributions in speech.",
        article = nil,
        aliases = { "cepstral coefficients", "real cepstrum", "complex cepstrum" },
        es = "Transformada inversa de Fourier del logaritmo del espectro de una señal, utilizada para revelar estructuras periódicas como el tono y para separar las contribuciones de fuente y filtro en el habla.",
        zh = "信号频谱对数的逆傅里叶变换,用于揭示音高等周期性结构,并在语音中分离激励源与滤波器的贡献。",
        term_es = "cepstrum",
        term_zh = "倒谱",
        aliases_es = { "cepstro", "coeficientes cepstrales" },
        aliases_zh = { "倒频谱", "倒谱系数" },
    }
    
    data["cer"] = {
        short = "Character Error Rate: an evaluation metric for speech recognition and text generation that measures the edit distance between the hypothesis and reference normalized by the reference character count.",
        article = nil,
        aliases = { "CER", "character error rate" },
        es = "Tasa de error por carácter (Character Error Rate): métrica de evaluación para el reconocimiento del habla y la generación de texto que mide la distancia de edición entre la hipótesis y la referencia, normalizada por el número de caracteres de la referencia.",
        zh = "字符错误率(Character Error Rate):用于语音识别和文本生成的评测指标,衡量识别结果与参考文本之间的编辑距离,并以参考文本的字符数进行归一化。",
        term_es = "CER",
        term_zh = "字符错误率",
        aliases_es = { "tasa de error por carácter", "tasa de error de caracteres" },
        aliases_zh = { "CER", "字错率" },
    }
    
    data["certified robustness"] = {
        short = "A guarantee, derived analytically or via a verification procedure, that a model's prediction is provably stable for all input perturbations within a specified set (typically an L_p ball around the input).",
        article = nil,
        aliases = { "provable robustness", "verified robustness", "robustness certificate" },
        es = "Garantía, obtenida analíticamente o mediante un procedimiento de verificación, de que la predicción de un modelo permanece demostrablemente estable para toda perturbación de entrada dentro de un conjunto especificado (típicamente una bola L_p en torno a la entrada).",
        zh = "通过解析方法或验证程序得到的保证,确保模型对指定集合(通常为输入周围的 L_p 球)内所有输入扰动的预测都可证明稳定。",
        term_es = "robustez certificada",
        term_zh = "认证鲁棒性",
        aliases_es = { "robustez verificada", "robustez demostrable", "certificado de robustez" },
        aliases_zh = { "可证鲁棒性", "已验证鲁棒性", "鲁棒性证书" },
    }
    
    data["cfg scale"] = {
        short = "The guidance scale hyperparameter in classifier-free guidance: a scalar that linearly interpolates and extrapolates between unconditional and conditional model predictions, controlling the strength of conditioning in diffusion or autoregressive sampling.",
        article = nil,
        aliases = { "CFG scale", "guidance scale", "CFG strength", "classifier-free guidance scale" },
        es = "Hiperparámetro de escala de guía en classifier-free guidance: un escalar que interpola y extrapola linealmente entre las predicciones incondicionales y condicionales del modelo, controlando la fuerza del condicionamiento en el muestreo de modelos de difusión o autorregresivos.",
        zh = "无分类器引导(CFG)中的引导强度超参数:一个标量,对模型的无条件预测与条件预测进行线性插值和外推,用以控制扩散或自回归采样中条件信号的强弱。",
        term_es = "escala CFG",
        term_zh = "CFG 引导强度",
        aliases_es = { "guidance scale", "fuerza CFG", "escala de guía sin clasificador" },
        aliases_zh = { "CFG scale", "引导尺度", "无分类器引导强度", "guidance scale" },
    }
    
    data["cfrnet"] = {
        short = "Counterfactual Regression Network, a deep learning architecture for estimating individual treatment effects that learns balanced representations of treated and control populations using integral probability metric penalties such as Wasserstein or MMD.",
        article = nil,
        aliases = { "CFRNet", "Counterfactual Regression Network", "counterfactual regression net" },
        es = "Red de Regresión Contrafactual, una arquitectura de aprendizaje profundo para estimar efectos de tratamiento individuales que aprende representaciones balanceadas de las poblaciones tratada y de control mediante penalizaciones basadas en métricas integrales de probabilidad, como Wasserstein o MMD.",
        zh = "反事实回归网络,一种用于估计个体处理效应的深度学习架构,通过对处理组与对照组学习平衡的表示,并使用 Wasserstein 或 MMD 等积分概率度量作为惩罚项。",
        term_es = "CFRNet",
        term_zh = "CFRNet",
        aliases_es = { "Red de Regresión Contrafactual", "red de regresión contrafactual" },
        aliases_zh = { "反事实回归网络", "Counterfactual Regression Network" },
    }
    
    data["chai-1"] = {
        short = "A multimodal foundation model for biomolecular structure prediction released by Chai Discovery in 2024, jointly modeling proteins, nucleic acids, ligands, and modifications with AlphaFold3-class accuracy.",
        article = nil,
        aliases = { "Chai-1", "Chai1", "Chai 1" },
        es = "Modelo de base multimodal para la predicción de estructuras biomoleculares lanzado por Chai Discovery en 2024, que modela conjuntamente proteínas, ácidos nucleicos, ligandos y modificaciones con precisión similar a AlphaFold3.",
        zh = "由 Chai Discovery 于 2024 年发布的多模态生物分子结构预测基础模型,联合建模蛋白质、核酸、配体和修饰,精度可与 AlphaFold3 相当。",
        term_es = "Chai-1",
        term_zh = "Chai-1",
        aliases_es = { "Chai1" },
        aliases_zh = { "Chai1", "Chai 1" },
    }
    
    data["chain graph"] = {
        short = "A graphical model whose edges are either directed or undirected and which contains no partially directed cycle; generalizes Bayesian networks and Markov networks within a single framework.",
        article = nil,
        aliases = { "chain graph model", "CG", "mixed graph model" },
        es = "Modelo gráfico cuyas aristas son dirigidas o no dirigidas y que no contiene ciclos parcialmente dirigidos; generaliza las redes bayesianas y las redes de Markov en un marco único.",
        zh = "一种图模型,其边可为有向或无向且不含部分有向环路;在统一框架下推广了贝叶斯网络与马尔可夫网络。",
        term_es = "grafo de cadena",
        term_zh = "链图",
        aliases_es = { "modelo de grafo de cadena", "CG", "modelo de grafo mixto" },
        aliases_zh = { "Chain Graph", "混合图模型", "CG 模型" },
    }
    
    data["chain-of-thought"] = {
        short = "A prompting and reasoning technique that elicits a model to produce intermediate reasoning steps before its final answer, improving accuracy on tasks that require multi-step inference.",
        article = nil,
        aliases = { "CoT", "Chain-of-Thought", "chain of thought", "chain-of-thought prompting", "CoT prompting" },
        es = "Técnica de prompting y razonamiento que induce al modelo a producir pasos de razonamiento intermedios antes de su respuesta final, mejorando la precisión en tareas que requieren inferencia de varios pasos.",
        zh = "一种提示与推理技术,引导模型在给出最终答案前先输出中间推理步骤,从而提升需要多步推理任务的准确度。",
        term_es = "cadena de pensamiento",
        term_zh = "思维链",
        aliases_es = { "CoT", "chain-of-thought", "razonamiento en cadena", "prompting de cadena de pensamiento" },
        aliases_zh = { "CoT", "chain-of-thought", "思维链提示", "思路链" },
    }
    
    data["chain-of-thought faithfulness"] = {
        short = "The degree to which a language model's verbalized chain-of-thought reasoning accurately reflects the latent computation that produced its final answer. Unfaithful chains may rationalize a conclusion reached by other means.",
        article = nil,
        aliases = { "CoT faithfulness", "faithful chain-of-thought", "reasoning faithfulness", "faithful reasoning" },
        es = "Grado en que el razonamiento verbalizado en cadena de pensamiento de un modelo de lenguaje refleja con fidelidad el cómputo latente que produjo la respuesta final. Cadenas no fieles pueden racionalizar una conclusión alcanzada por otros medios.",
        zh = "语言模型给出的思维链推理与产生最终答案的潜在计算之间的吻合程度。不忠实的思维链可能只是对由其他途径得出的结论的事后合理化。",
        term_es = "fidelidad de la cadena de pensamiento",
        term_zh = "思维链忠实性",
        aliases_es = { "fidelidad de CoT", "cadena de pensamiento fiel" },
        aliases_zh = { "CoT 忠实性", "推理忠实性" },
    }
    
    data["chain-structured search space"] = {
        short = "A neural architecture search space in which networks are sequential chains of layers without branching or skip connections, parameterized only by per-layer operation choices and depth.",
        article = nil,
        aliases = { "chain structured search space", "sequential search space", "linear search space" },
        es = "Espacio de búsqueda de arquitecturas neuronales en el que las redes son cadenas secuenciales de capas sin ramificaciones ni conexiones residuales, parametrizado solo por la elección de operación por capa y la profundidad.",
        zh = "一种神经架构搜索空间,其中网络为顺序的层级链,无分支或跳跃连接,仅由每层的操作选择和深度参数化。",
        term_es = "espacio de búsqueda de estructura en cadena",
        term_zh = "链式结构搜索空间",
        aliases_es = { "espacio de búsqueda secuencial", "espacio de búsqueda lineal" },
        aliases_zh = { "顺序搜索空间", "线性搜索空间" },
    }
    
    data["chair metric"] = {
        short = "Caption Hallucination Assessment with Image Relevance, an evaluation metric for image captioning that measures the fraction of mentioned objects (CHAIRi) and captions (CHAIRs) referring to objects not present in the image.",
        article = nil,
        aliases = { "CHAIR", "CHAIR metric", "Caption Hallucination Assessment with Image Relevance" },
        es = "Caption Hallucination Assessment with Image Relevance, métrica de evaluación de subtitulado de imágenes que mide la fracción de objetos mencionados (CHAIRi) y de subtítulos (CHAIRs) que se refieren a objetos no presentes en la imagen.",
        zh = "Caption Hallucination Assessment with Image Relevance(CHAIR),一种图像字幕评估指标,衡量所提及物体中(CHAIRi)以及字幕中(CHAIRs)涉及图像中实际不存在物体的比例。",
        term_es = "métrica CHAIR",
        term_zh = "CHAIR指标",
        aliases_es = { "CHAIR" },
        aliases_zh = { "CHAIR", "CHAIR评估指标" },
    }
    
    data["chameleon"] = {
        short = "An early-fusion mixed-modal foundation model from Meta that represents text and images as a single sequence of discrete tokens and trains a unified Transformer to generate both, supporting interleaved image-text understanding and generation.",
        article = nil,
        aliases = { "Chameleon", "Meta Chameleon", "Chameleon model" },
        es = "Modelo fundacional multimodal de fusión temprana de Meta que representa texto e imágenes como una única secuencia de tokens discretos y entrena un Transformer unificado para generar ambos, admitiendo comprensión y generación de texto e imagen intercalados.",
        zh = "Meta提出的早期融合混合模态基础模型,将文本与图像表示为同一序列的离散token,并训练一个统一的Transformer同时生成两者,支持图文交错的理解与生成。",
        term_es = "Chameleon",
        term_zh = "Chameleon",
        aliases_es = { "Chameleon de Meta" },
        aliases_zh = { "Chameleon", "Meta Chameleon" },
    }
    
    data["chamnet"] = {
        short = "A platform-aware AutoML framework that adapts a base network to a target hardware platform by jointly modeling accuracy and on-device latency or energy through Gaussian-process predictors.",
        article = nil,
        aliases = { "ChamNet", "Chameleon network" },
        es = "Marco de AutoML consciente de la plataforma que adapta una red base a un hardware objetivo modelando conjuntamente la precisión y la latencia o energía en dispositivo mediante predictores de procesos gaussianos.",
        zh = "一种平台感知的AutoML框架,通过高斯过程预测器联合建模精度与设备端延迟或能耗,将基础网络适配到目标硬件平台。",
        term_es = "ChamNet",
        term_zh = "ChamNet",
        aliases_es = { "red Chameleon" },
        aliases_zh = { "Chameleon网络" },
    }
    
    data["channel capacity"] = {
        short = "The supremum of the mutual information I(X;Y) between channel input X and output Y over all possible input distributions p(x). By Shannon's theorem it is the maximum rate at which information can be transmitted with arbitrarily small error.",
        article = nil,
        aliases = { "Shannon capacity", "channel-capacity", "capacity (information theory)" },
        es = "Supremo de la información mutua I(X;Y) entre la entrada X y la salida Y de un canal sobre todas las distribuciones de entrada p(x) posibles. Por el teorema de Shannon es la tasa máxima a la que puede transmitirse información con error arbitrariamente pequeño.",
        zh = "信道输入 X 与输出 Y 之间的互信息 I(X;Y) 在所有输入分布 p(x) 上的上确界。由香农定理,它是信息能以任意小错误率传输的最大速率。",
        term_es = "capacidad del canal",
        term_zh = "信道容量",
        aliases_es = { "capacidad de Shannon", "capacidad de canal" },
        aliases_zh = { "香农容量", "通道容量" },
    }
    
    data["character error rate"] = {
        short = "A speech recognition and text generation evaluation metric defined as the Levenshtein edit distance between the predicted and reference character sequences divided by the number of reference characters.",
        article = nil,
        aliases = { "CER", "char error rate" },
        es = "Métrica de evaluación para reconocimiento del habla y generación de texto definida como la distancia de edición de Levenshtein entre las secuencias de caracteres predicha y de referencia, dividida por el número de caracteres de la referencia.",
        zh = "用于语音识别和文本生成的评测指标,定义为预测字符序列与参考字符序列之间的 Levenshtein 编辑距离除以参考字符数。",
        term_es = "tasa de error por carácter",
        term_zh = "字符错误率",
        aliases_es = { "CER", "tasa de error de caracteres" },
        aliases_zh = { "CER", "字错率", "字符识别错误率" },
    }
    
    data["character n-gram"] = {
        short = "An n-gram computed at the character level rather than the word level. Useful for languages without whitespace tokenization, for handling out-of-vocabulary words, and as features in subword models like fastText.",
        article = nil,
        aliases = { "char n-gram", "character ngram", "char-ngram", "character n-grams", "char n-grams" },
        es = "n-grama calculado a nivel de carácter en lugar de palabra. Es útil para lenguas sin tokenización por espacios, para manejar palabras fuera de vocabulario y como característica en modelos de subpalabras como fastText.",
        zh = "在字符级别而非单词级别计算的 n-gram。适用于无空格分词的语言、处理未登录词,以及作为 fastText 等子词模型的特征。",
        term_es = "n-grama de caracteres",
        term_zh = "字符 n-gram",
        aliases_es = { "n-grama a nivel de carácter", "n-gramas de caracteres" },
        aliases_zh = { "字符 n 元语法", "字符级 n-gram" },
    }
    
    data["character tokenization"] = {
        short = "A tokenization scheme that splits text into individual characters (or Unicode code points), producing a small vocabulary at the cost of much longer token sequences than subword tokenization.",
        article = nil,
        aliases = { "char tokenization", "character-level tokenization", "char-level tokenization", "character tokenizer" },
        es = "Esquema de tokenización que divide el texto en caracteres individuales (o puntos de código Unicode), produciendo un vocabulario pequeño a costa de secuencias de tokens mucho más largas que la tokenización en subpalabras.",
        zh = "一种将文本切分为单个字符(或 Unicode 码位)的分词方案,词表很小,但代价是序列长度远大于子词分词。",
        term_es = "tokenización por caracteres",
        term_zh = "字符级分词",
        aliases_es = { "tokenización a nivel de carácter", "tokenización char-level" },
        aliases_zh = { "字符分词", "字符级标记化" },
    }
    
    data["character vae"] = {
        short = "A variational autoencoder that operates on character-level sequence representations of molecules (typically SMILES strings), learning a continuous latent space suitable for generation and property optimization.",
        article = nil,
        aliases = { "character VAE", "character-level VAE", "char-VAE", "SMILES character VAE" },
        es = "Autoencoder variacional que opera sobre representaciones a nivel de carácter de moléculas (típicamente cadenas SMILES), aprendiendo un espacio latente continuo apto para generación y optimización de propiedades.",
        zh = "在分子的字符级序列表示(通常是 SMILES 字符串)上运行的变分自编码器,可学习连续潜空间,适用于分子生成与性质优化。",
        term_es = "VAE de caracteres",
        term_zh = "字符级 VAE",
        aliases_es = { "VAE a nivel de carácter", "char-VAE" },
        aliases_zh = { "字符级变分自编码器", "字符 VAE", "char-VAE" },
    }
    
    data["charades-sta"] = {
        short = "A benchmark dataset for natural-language video moment retrieval, built on top of Charades by adding temporal start-end annotations aligned with sentence queries describing daily indoor activities.",
        article = nil,
        aliases = { "Charades-STA", "CharadesSTA" },
        es = "Conjunto de datos de referencia para la recuperación de momentos en vídeo mediante lenguaje natural, construido sobre Charades añadiendo anotaciones temporales de inicio y fin alineadas con consultas en forma de oración que describen actividades cotidianas en interiores.",
        zh = "用于自然语言视频片段检索的基准数据集,在Charades基础上添加与描述日常室内活动的句子查询相对应的起止时间标注。",
        term_es = "Charades-STA",
        term_zh = "Charades-STA",
        aliases_es = { "Charades-STA" },
        aliases_zh = { "Charades-STA" },
    }
    
    data["charmm force field"] = {
        short = "A family of empirical molecular-mechanics force fields parameterizing bonded and non-bonded interactions for proteins, nucleic acids, lipids, carbohydrates, and small molecules, widely used in biomolecular MD simulations.",
        article = nil,
        aliases = { "CHARMM force field", "CHARMM ff", "CHARMM36", "CHARMM force fields" },
        es = "Familia de campos de fuerza empíricos de mecánica molecular que parametrizan interacciones enlazantes y no enlazantes para proteínas, ácidos nucleicos, lípidos, carbohidratos y moléculas pequeñas, ampliamente usada en simulaciones de DM biomolecular.",
        zh = "一类经验性分子力学力场,对蛋白质、核酸、脂质、糖类及小分子的成键与非成键相互作用进行参数化,广泛用于生物分子分子动力学模拟。",
        term_es = "campo de fuerza CHARMM",
        term_zh = "CHARMM 力场",
        aliases_es = { "campos de fuerza CHARMM", "CHARMM36" },
        aliases_zh = { "CHARMM 力场族", "CHARMM36 力场" },
    }
    
    data["charmm software"] = {
        short = "The CHARMM (Chemistry at HARvard Macromolecular Mechanics) program, a long-standing molecular-dynamics and modeling package for biomolecular simulations, free-energy calculations, and analysis using the CHARMM force fields.",
        article = nil,
        aliases = { "CHARMM", "CHARMM program", "CHARMM package" },
        es = "Programa CHARMM (Chemistry at HARvard Macromolecular Mechanics), un paquete consolidado de dinámica molecular y modelado para simulaciones biomoleculares, cálculos de energía libre y análisis usando los campos de fuerza CHARMM.",
        zh = "CHARMM(Chemistry at HARvard Macromolecular Mechanics)程序,一款历史悠久的分子动力学与建模软件,使用 CHARMM 力场进行生物分子模拟、自由能计算和分析。",
        term_es = "CHARMM",
        term_zh = "CHARMM 软件",
        aliases_es = { "programa CHARMM", "paquete CHARMM" },
        aliases_zh = { "CHARMM 程序", "CHARMM" },
    }
    
    data["chart understanding multimodal"] = {
        short = "The capability of multimodal models to interpret charts and plots — extracting axes, legends, and data values — and answer questions or summarize them, evaluated on benchmarks such as ChartQA, PlotQA, and Chart-to-Text.",
        article = nil,
        aliases = { "multimodal chart understanding", "chart understanding", "chart comprehension", "visual chart reasoning" },
        es = "Capacidad de los modelos multimodales para interpretar gráficos y diagramas —extrayendo ejes, leyendas y valores de datos— y responder preguntas o resumirlos, evaluada en bancos de pruebas como ChartQA, PlotQA y Chart-to-Text.",
        zh = "多模态模型理解图表的能力——提取坐标轴、图例和数据值——并据此回答问题或进行摘要,常在ChartQA、PlotQA、Chart-to-Text等基准上评估。",
        term_es = "comprensión multimodal de gráficos",
        term_zh = "多模态图表理解",
        aliases_es = { "comprensión de gráficos", "comprensión de diagramas multimodal" },
        aliases_zh = { "图表理解", "多模态图表理解能力", "视觉图表推理" },
    }
    
    data["chartqa"] = {
        short = "A benchmark dataset for question answering over charts, containing about 32,000 question-answer pairs grounded in real-world bar, line, and pie charts, with both human-written and machine-generated questions requiring visual and arithmetic reasoning.",
        article = nil,
        aliases = { "ChartQA", "ChartQA benchmark", "ChartQA dataset" },
        es = "Conjunto de datos de referencia para preguntas y respuestas sobre gráficos, con unos 32.000 pares pregunta-respuesta basados en gráficos reales de barras, líneas y sectores, con preguntas escritas por humanos y generadas por máquina que requieren razonamiento visual y aritmético.",
        zh = "面向图表问答的基准数据集,包含约3.2万对问答,基于真实世界的柱状图、折线图和饼图,问题既由人工撰写也由机器生成,需要视觉与算术推理能力。",
        term_es = "ChartQA",
        term_zh = "ChartQA",
        aliases_es = { "ChartQA" },
        aliases_zh = { "ChartQA", "ChartQA数据集" },
    }
    
    data["chat template"] = {
        short = "A model- or family-specific text format that maps a sequence of role-tagged messages (system, user, assistant, tool) into a single tokenized prompt expected by an instruction-tuned LLM.",
        article = nil,
        aliases = { "chat prompt template", "conversation template", "tokenizer chat template" },
        es = "Formato de texto específico de cada modelo o familia que transforma una secuencia de mensajes etiquetados por rol (system, user, assistant, tool) en una única cadena tokenizada que espera un LLM ajustado por instrucciones.",
        zh = "针对特定模型或模型家族的文本格式,将带有角色标签(system、user、assistant、tool)的消息序列映射为指令微调 LLM 所需的单一 tokenize 提示。",
        term_es = "plantilla de chat",
        term_zh = "聊天模板",
        aliases_es = { "plantilla de conversación", "plantilla de prompt de chat" },
        aliases_zh = { "对话模板", "聊天提示模板", "tokenizer 聊天模板" },
    }
    
    data["chatbot arena"] = {
        short = "A crowdsourced evaluation platform run by LMSYS in which users submit a prompt, receive responses from two anonymous LLMs side by side and vote for the better one, producing Elo-style rankings for chat models.",
        article = nil,
        aliases = { "Chatbot Arena", "LMSYS Chatbot Arena", "LMArena", "Arena Hard" },
        es = "Plataforma de evaluación con participación masiva operada por LMSYS, en la que los usuarios envían un prompt, reciben respuestas de dos LLMs anónimos lado a lado y votan por la mejor, produciendo rankings tipo Elo para modelos de chat.",
        zh = "由 LMSYS 运营的众包评估平台:用户提交提示词后会并排收到来自两个匿名大语言模型的回答并投票选出更好的那个,从而为对话模型生成类似 Elo 的排名。",
        term_es = "Chatbot Arena",
        term_zh = "Chatbot Arena",
        aliases_es = { "LMSYS Chatbot Arena", "LMArena" },
        aliases_zh = { "LMSYS Chatbot Arena", "LMArena", "聊天机器人竞技场" },
    }
    
    data["chatml format"] = {
        short = "A prompt format introduced by OpenAI that wraps each conversation message in `<|im_start|>role ... <|im_end|>` tokens, distinguishing system, user and assistant turns; reused by many open-source instruction-tuned LLMs.",
        article = nil,
        aliases = { "ChatML", "ChatML format", "chatml" },
        es = "Formato de prompt introducido por OpenAI que envuelve cada mensaje de la conversación con tokens `<|im_start|>rol ... <|im_end|>`, distinguiendo turnos de system, user y assistant; reutilizado por muchos LLMs ajustados por instrucciones de código abierto.",
        zh = "OpenAI 提出的提示格式,使用 `<|im_start|>角色 ... <|im_end|>` 等特殊 token 包裹每条对话消息,区分 system、user 和 assistant 等回合;许多开源指令微调大模型也沿用了该格式。",
        term_es = "formato ChatML",
        term_zh = "ChatML 格式",
        aliases_es = { "ChatML" },
        aliases_zh = { "ChatML", "ChatML 对话格式" },
    }
    
    data["chebyshev inequality"] = {
        short = "A concentration result stating that for any random variable with finite variance, the probability that it deviates from its mean by more than k standard deviations is at most 1/k², regardless of the distribution.",
        article = nil,
        aliases = { "Chebyshev's inequality", "Chebyshev inequality", "Bienaymé-Chebyshev inequality", "Tchebysheff inequality" },
        es = "Resultado de concentración que afirma que para cualquier variable aleatoria con varianza finita, la probabilidad de que se desvíe de su media en más de k desviaciones estándar es a lo sumo 1/k², con independencia de la distribución.",
        zh = "一类集中不等式:对任何方差有限的随机变量,其偏离均值超过 k 个标准差的概率至多为 1/k²,与分布形态无关。",
        term_es = "desigualdad de Chebyshev",
        term_zh = "切比雪夫不等式",
        aliases_es = { "desigualdad Chebyshev", "desigualdad de Bienaymé-Chebyshev" },
        aliases_zh = { "Chebyshev 不等式", "切比雪夫不等式", "Bienaymé-切比雪夫不等式" },
    }
    
    data["check loss"] = {
        short = "The asymmetric piecewise-linear loss rho_tau(u) = u(tau - I[u<0]) used in quantile regression, whose population minimizer is the tau-th conditional quantile of the response.",
        article = nil,
        aliases = { "pinball loss", "quantile loss", "tilted absolute loss", "Koenker check function" },
        es = "Pérdida asimétrica lineal a trozos rho_tau(u) = u(tau - I[u<0]) usada en regresión cuantílica, cuyo minimizador poblacional es el cuantil condicional de orden tau de la respuesta.",
        zh = "用于分位数回归的非对称分段线性损失 rho_tau(u) = u(tau - I[u<0]),其总体最小化解为响应变量的第tau条件分位数。",
        term_es = "pérdida check",
        term_zh = "校验损失",
        aliases_es = { "pérdida pinball", "pérdida cuantílica", "función check de Koenker", "pérdida absoluta inclinada" },
        aliases_zh = { "pinball损失", "分位数损失", "倾斜绝对损失", "Koenker校验函数" },
    }
    
    data["checklist testing"] = {
        short = "A behavioral testing methodology for NLP models that probes capabilities through suites of templated input perturbations grouped by linguistic phenomenon. Introduced by Ribeiro et al. (2020) as an alternative to held-out accuracy.",
        article = nil,
        aliases = { "CheckList", "CheckList testing", "behavioral NLP testing" },
        es = "Metodología de pruebas conductuales para modelos de PLN que examina capacidades mediante conjuntos de perturbaciones de entrada con plantillas, agrupadas por fenómeno lingüístico. Propuesta por Ribeiro et al. (2020) como alternativa a la precisión sobre conjuntos de prueba.",
        zh = "一种针对自然语言处理模型的行为测试方法,通过按语言现象分组的模板化输入扰动测试套件来检验模型能力。由 Ribeiro 等人(2020)提出,作为留出集精度的替代评估方式。",
        term_es = "pruebas con CheckList",
        term_zh = "CheckList 测试",
        aliases_es = { "CheckList", "evaluación conductual de PLN" },
        aliases_zh = { "CheckList", "行为测试" },
    }
    
    data["checkm"] = {
        short = "A bioinformatics tool that assesses the quality of microbial genomes recovered from isolates, single cells, or metagenomes by estimating completeness and contamination based on lineage-specific marker gene sets.",
        article = nil,
        aliases = { "CheckM", "CheckM2", "checkm lineage_wf" },
        es = "Herramienta bioinformática que evalúa la calidad de genomas microbianos recuperados a partir de aislados, células únicas o metagenomas, estimando completitud y contaminación basándose en conjuntos de genes marcadores específicos de linaje.",
        zh = "一种生物信息学工具,通过基于谱系特异性标记基因集估计完整性和污染度,评估从分离株、单细胞或宏基因组中获得的微生物基因组质量。",
        term_es = "CheckM",
        term_zh = "CheckM",
        aliases_es = { "CheckM2" },
        aliases_zh = { "CheckM2" },
    }
    
    data["chemberta"] = {
        short = "A BERT-style transformer encoder pretrained with masked-language modeling on millions of SMILES strings, producing molecular embeddings that transfer well to property-prediction tasks.",
        article = nil,
        aliases = { "ChemBERTa", "Chem-BERTa" },
        es = "Codificador transformador estilo BERT preentrenado con modelado de lenguaje enmascarado sobre millones de cadenas SMILES, que produce representaciones moleculares con buena transferencia a tareas de predicción de propiedades.",
        zh = "一种 BERT 风格的 Transformer 编码器,在数百万条 SMILES 上以掩码语言建模任务进行预训练,生成的分子表示在性质预测任务中具有良好的迁移能力。",
        term_es = "ChemBERTa",
        term_zh = "ChemBERTa",
        aliases_es = { "Chem-BERTa" },
        aliases_zh = { "Chem-BERTa" },
    }
    
    data["chemberta-2"] = {
        short = "An updated ChemBERTa model pretrained on a larger SMILES corpus (PubChem-77M) with both masked-language and multi-task regression objectives, improving over ChemBERTa on MoleculeNet benchmarks.",
        article = nil,
        aliases = { "ChemBERTa-2", "ChemBERTa2", "Chem-BERTa-2" },
        es = "Modelo ChemBERTa actualizado, preentrenado sobre un corpus mayor de SMILES (PubChem-77M) con objetivos de modelado de lenguaje enmascarado y de regresión multitarea, que mejora a ChemBERTa en los benchmarks de MoleculeNet.",
        zh = "ChemBERTa 的升级版本,在更大规模的 SMILES 语料(PubChem-77M)上进行预训练,采用掩码语言建模和多任务回归目标,在 MoleculeNet 基准上优于 ChemBERTa。",
        term_es = "ChemBERTa-2",
        term_zh = "ChemBERTa-2",
        aliases_es = { "ChemBERTa2", "Chem-BERTa-2" },
        aliases_zh = { "ChemBERTa2", "Chem-BERTa-2" },
    }
    
    data["chembl"] = {
        short = "A manually curated open database of bioactive drug-like molecules with measured binding, functional, and ADMET activities against protein targets, maintained by EMBL-EBI and central to QSAR modeling.",
        article = nil,
        aliases = { "ChEMBL", "ChEMBL database", "ChEMBL DB" },
        es = "Base de datos abierta y curada manualmente de moléculas bioactivas tipo fármaco con actividades medidas de unión, funcionales y ADMET frente a dianas proteicas, mantenida por EMBL-EBI y fundamental para el modelado QSAR.",
        zh = "由 EMBL-EBI 维护的人工策划开放数据库,收录类药生物活性分子及其针对蛋白质靶点的结合、功能和 ADMET 活性数据,是 QSAR 建模的核心资源。",
        term_es = "ChEMBL",
        term_zh = "ChEMBL",
        aliases_es = { "base de datos ChEMBL" },
        aliases_zh = { "ChEMBL 数据库" },
    }
    
    data["chemformer"] = {
        short = "A transformer pretrained on SMILES with a denoising objective and fine-tuned for chemistry tasks such as forward reaction prediction, retrosynthesis, and molecular property prediction.",
        article = nil,
        aliases = { "Chemformer" },
        es = "Transformador preentrenado sobre SMILES con un objetivo de desruido y ajustado para tareas de química como predicción directa de reacciones, retrosíntesis y predicción de propiedades moleculares.",
        zh = "一种以 SMILES 进行去噪目标预训练的 Transformer,可针对正向反应预测、逆合成与分子性质预测等化学任务进行微调。",
        term_es = "Chemformer",
        term_zh = "Chemformer",
        aliases_es = { "modelo Chemformer" },
        aliases_zh = { "Chemformer 模型" },
    }
    
    data["cheminformatics"] = {
        short = "The discipline that applies computational and informational methods to chemical data, covering molecular representation, similarity search, QSAR, virtual screening, and chemical-database management.",
        article = nil,
        aliases = { "chemoinformatics", "chemical informatics", "computational cheminformatics" },
        es = "Disciplina que aplica métodos computacionales y de información a datos químicos, abarcando representación molecular, búsqueda por similitud, QSAR, cribado virtual y gestión de bases de datos químicas.",
        zh = "将计算与信息学方法应用于化学数据的学科,涵盖分子表示、相似性搜索、QSAR、虚拟筛选以及化学数据库管理。",
        term_es = "quimioinformática",
        term_zh = "化学信息学",
        aliases_es = { "quimoinformática", "informática química" },
        aliases_zh = { "化学信息", "化学信息科学" },
    }
    
    data["chemoinformatics"] = {
        short = "A synonym for cheminformatics; the application of computer-science and information-theoretic techniques to chemical structures, properties, reactions, and databases.",
        article = nil,
        aliases = { "cheminformatics", "chemical informatics" },
        es = "Sinónimo de quimioinformática; aplicación de técnicas de ciencias de la computación y teoría de la información a estructuras, propiedades, reacciones y bases de datos químicas.",
        zh = "化学信息学的同义词;将计算机科学与信息论方法应用于化学结构、性质、反应和数据库的研究。",
        term_es = "quimioinformática",
        term_zh = "化学信息学",
        aliases_es = { "cheminformatics", "informática química" },
        aliases_zh = { "化学信息", "化学信息科学" },
    }
    
    data["chemprop"] = {
        short = "An open-source directed message-passing neural network (D-MPNN) framework for molecular property prediction that learns from atom and bond features, widely used as a strong baseline in MoleculeNet and pharma settings.",
        article = nil,
        aliases = { "Chemprop", "D-MPNN", "directed message passing neural network" },
        es = "Marco de redes neuronales de paso de mensajes dirigidas (D-MPNN) de código abierto para la predicción de propiedades moleculares, que aprende de características atómicas y de enlace y se usa ampliamente como referencia sólida en MoleculeNet y en la industria farmacéutica.",
        zh = "一个开源的有向消息传递神经网络(D-MPNN)框架,用于分子性质预测,通过学习原子与化学键特征,是 MoleculeNet 与制药领域中常用的强基线。",
        term_es = "Chemprop",
        term_zh = "Chemprop",
        aliases_es = { "D-MPNN", "red neuronal de paso de mensajes dirigida" },
        aliases_zh = { "D-MPNN", "有向消息传递神经网络" },
    }
    
    data["chemspace"] = {
        short = "A commercial chemical-space aggregator and supplier marketplace that indexes hundreds of millions of purchasable building blocks, screening compounds, and on-demand virtual libraries for drug-discovery sourcing.",
        article = nil,
        aliases = { "Chemspace", "ChemSpace" },
        es = "Agregador comercial de espacio químico y mercado de proveedores que indexa cientos de millones de bloques de construcción comprables, compuestos para cribado y bibliotecas virtuales bajo demanda para el abastecimiento en descubrimiento de fármacos.",
        zh = "一个商业化的化学空间聚合与供应商市场,索引了数亿可购买的构建模块、筛选化合物以及按需合成的虚拟库,服务于药物发现采购。",
        term_es = "Chemspace",
        term_zh = "Chemspace",
        aliases_es = { "ChemSpace" },
        aliases_zh = { "ChemSpace 平台" },
    }
    
    data["chemvae"] = {
        short = "The character-level variational autoencoder of Gómez-Bombarelli et al. (2018) that maps SMILES into a continuous latent space, enabling gradient-based optimization of molecular properties.",
        article = nil,
        aliases = { "ChemVAE", "Chem-VAE", "Gómez-Bombarelli VAE", "Gomez-Bombarelli VAE" },
        es = "Autoencoder variacional a nivel de carácter de Gómez-Bombarelli et al. (2018) que mapea SMILES a un espacio latente continuo, permitiendo la optimización por gradiente de propiedades moleculares.",
        zh = "Gómez-Bombarelli 等(2018)提出的字符级变分自编码器,将 SMILES 映射到连续潜空间,从而支持基于梯度的分子性质优化。",
        term_es = "ChemVAE",
        term_zh = "ChemVAE",
        aliases_es = { "Chem-VAE", "VAE de Gómez-Bombarelli" },
        aliases_zh = { "Chem-VAE", "Gómez-Bombarelli VAE" },
    }
    
    data["chest clinic network"] = {
        short = "A small didactic Bayesian network for medical diagnosis introduced by Lauritzen and Spiegelhalter (1988), modeling tuberculosis, lung cancer, bronchitis and related symptoms; widely used as a benchmark.",
        article = nil,
        aliases = { "Asia network", "Asia Bayesian network", "Lauritzen-Spiegelhalter network" },
        es = "Pequeña red bayesiana didáctica para diagnóstico médico introducida por Lauritzen y Spiegelhalter (1988) que modela tuberculosis, cáncer de pulmón, bronquitis y síntomas relacionados; ampliamente usada como benchmark.",
        zh = "由 Lauritzen 与 Spiegelhalter(1988)提出的用于医学诊断的小型教学贝叶斯网络,建模肺结核、肺癌、支气管炎及相关症状;被广泛用作基准。",
        term_es = "red Chest Clinic",
        term_zh = "Chest Clinic 网络",
        aliases_es = { "red Asia", "red bayesiana Asia", "red Lauritzen-Spiegelhalter" },
        aliases_zh = { "Asia 网络", "Asia 贝叶斯网络", "Lauritzen-Spiegelhalter 网络" },
    }
    
    data["child node"] = {
        short = "In a directed graphical model, a node that has at least one incoming edge from another node, which is referred to as its parent.",
        article = nil,
        aliases = { "child", "child variable", "descendant node" },
        es = "En un modelo gráfico dirigido, nodo que tiene al menos una arista entrante desde otro nodo, denominado su padre.",
        zh = "在有向图模型中,至少存在一条来自另一节点(称为其父节点)的入边的节点。",
        term_es = "nodo hijo",
        term_zh = "子节点",
        aliases_es = { "hijo", "variable hija" },
        aliases_zh = { "孩子节点", "子结点" },
    }
    
    data["child-sum tree-lstm"] = {
        short = "A tree-structured LSTM variant introduced by Tai et al. in which a parent node aggregates information from an unordered, variable number of children by summing their hidden states, suitable for dependency trees.",
        article = nil,
        aliases = { "Child-Sum Tree-LSTM", "Child-Sum TreeLSTM", "Child Sum Tree-LSTM", "dependency Tree-LSTM" },
        es = "Una variante de LSTM estructurado en árbol introducida por Tai et al. en la que un nodo padre agrega información de un número variable y desordenado de hijos sumando sus estados ocultos, adecuada para árboles de dependencias.",
        zh = "Tai 等人提出的树形 LSTM 变体,父节点通过对数量不定且无序的子节点的隐藏状态求和来聚合信息,适用于依存句法树。",
        term_es = "Child-Sum Tree-LSTM",
        term_zh = "Child-Sum Tree-LSTM",
        aliases_es = { "Child-Sum Tree-LSTM", "Tree-LSTM child-sum", "Tree-LSTM de dependencias" },
        aliases_zh = { "Child-Sum Tree-LSTM", "子节点求和 Tree-LSTM", "依存树 LSTM" },
    }
    
    data["chime challenge"] = {
        short = "A recurring research challenge series on speech recognition in noisy and multi-microphone real-world conditions, providing standardized data and tasks for far-field, conversational, and dinner-party scenarios.",
        article = nil,
        aliases = { "CHiME", "CHiME Challenge", "CHiME-1", "CHiME-2", "CHiME-3", "CHiME-4", "CHiME-5", "CHiME-6", "CHiME-7", "Computational Hearing in Multisource Environments" },
        es = "Serie recurrente de desafíos de investigación sobre reconocimiento del habla en condiciones reales con ruido y múltiples micrófonos, que proporciona datos y tareas estandarizadas para escenarios de campo lejano, conversacionales y de cena.",
        zh = "针对真实场景中含噪声和多麦克风条件下语音识别的系列研究挑战赛,为远场、会话和晚宴等场景提供标准化的数据集和任务。",
        term_es = "CHiME Challenge",
        term_zh = "CHiME 挑战赛",
        aliases_es = { "CHiME", "desafío CHiME" },
        aliases_zh = { "CHiME", "CHiME 评测" },
    }
    
    data["chimerax"] = {
        short = "UCSF ChimeraX, an interactive molecular visualization and analysis program for biomolecular structures, density maps, and trajectories, successor to the original UCSF Chimera.",
        article = nil,
        aliases = { "ChimeraX", "UCSF ChimeraX", "Chimera X" },
        es = "UCSF ChimeraX, programa interactivo de visualización y análisis molecular para estructuras biomoleculares, mapas de densidad y trayectorias, sucesor del UCSF Chimera original.",
        zh = "UCSF ChimeraX,一款用于生物分子结构、电子密度图与轨迹的交互式分子可视化与分析程序,是原 UCSF Chimera 的继任者。",
        term_es = "ChimeraX",
        term_zh = "ChimeraX",
        aliases_es = { "UCSF ChimeraX" },
        aliases_zh = { "UCSF ChimeraX", "Chimera X" },
    }
    
    data["chinchilla scaling"] = {
        short = "Scaling laws from DeepMind's Chinchilla paper showing that, for a fixed compute budget, optimal language model training scales model parameters and training tokens roughly equally — about 20 tokens per parameter — rather than overgrowing the model.",
        article = nil,
        aliases = { "Chinchilla scaling laws", "Chinchilla scaling law", "Chinchilla-optimal", "Chinchilla optimal" },
        es = "Leyes de escalado del artículo Chinchilla de DeepMind que muestran que, para un presupuesto de cómputo fijo, el entrenamiento óptimo de modelos de lenguaje escala los parámetros del modelo y los tokens de entrenamiento aproximadamente por igual —cerca de 20 tokens por parámetro— en lugar de hacer crecer demasiado el modelo.",
        zh = "DeepMind Chinchilla 论文提出的缩放规律:在固定算力预算下,最优的语言模型训练应当使模型参数量与训练 token 数大致同等比例增长——约每个参数对应 20 个 token,而不是把模型做得过大。",
        term_es = "escalado Chinchilla",
        term_zh = "Chinchilla 缩放",
        aliases_es = { "leyes de escalado de Chinchilla", "Chinchilla óptimo" },
        aliases_zh = { "Chinchilla 缩放定律", "Chinchilla 缩放法则", "Chinchilla 最优" },
    }
    
    data["chinese restaurant process"] = {
        short = "A discrete-time stochastic process that defines a distribution over partitions of the integers, where each new customer joins an existing table with probability proportional to its size or starts a new table.",
        article = nil,
        aliases = { "CRP", "Chinese Restaurant Process", "Chinese restaurant process" },
        es = "Proceso estocástico en tiempo discreto que define una distribución sobre particiones de los enteros, en el que cada nuevo cliente se une a una mesa existente con probabilidad proporcional a su tamaño o inicia una nueva mesa.",
        zh = "一种离散时间随机过程,定义整数分区上的分布;每位新顾客以与桌子人数成比例的概率加入现有桌子,或开新桌。",
        term_es = "proceso del restaurante chino",
        term_zh = "中餐馆过程",
        aliases_es = { "CRP", "proceso del restaurante chino (CRP)" },
        aliases_zh = { "CRP", "中国餐馆过程" },
    }
    
    data["chinese-clip"] = {
        short = "A CLIP-style vision-language model pretrained on around 200 million Chinese image-text pairs, enabling zero-shot image classification and image-text retrieval in Chinese with substantially better performance than translating English CLIP queries.",
        article = nil,
        aliases = { "Chinese-CLIP", "Chinese CLIP", "ChineseCLIP" },
        es = "Modelo de visión-lenguaje al estilo CLIP preentrenado con unos 200 millones de pares imagen-texto en chino, que permite clasificación de imágenes y recuperación imagen-texto en cero disparos en chino con un rendimiento muy superior al de traducir consultas de CLIP en inglés.",
        zh = "在约2亿中文图文对上预训练的CLIP风格视觉-语言模型,可在中文环境下进行零样本图像分类和图文检索,性能显著优于将英文CLIP查询翻译过来的方案。",
        term_es = "Chinese-CLIP",
        term_zh = "中文CLIP",
        aliases_es = { "CLIP chino", "ChineseCLIP" },
        aliases_zh = { "Chinese-CLIP", "中文CLIP模型" },
    }
    
    data["chip-exo"] = {
        short = "A high-resolution variant of ChIP-seq that uses lambda exonuclease to digest DNA up to the protein-DNA crosslink, mapping transcription factor binding sites to near base-pair precision.",
        article = nil,
        aliases = { "ChIP-exo", "ChIP exonuclease", "ChIP-exo-seq" },
        es = "Variante de alta resolución de ChIP-seq que usa exonucleasa lambda para digerir el ADN hasta el entrecruzamiento proteína-ADN, mapeando sitios de unión de factores de transcripción con precisión cercana a pares de bases.",
        zh = "ChIP-seq 的高分辨率变体,利用 lambda 外切酶将 DNA 消化至蛋白-DNA 交联位点,从而以接近碱基对的精度定位转录因子结合位点。",
        term_es = "ChIP-exo",
        term_zh = "ChIP-exo",
        aliases_es = { "ChIP exonucleasa", "ChIP-exo-seq" },
        aliases_zh = { "ChIP 外切酶", "ChIP-exo-seq" },
    }
    
    data["chip-seq"] = {
        short = "Chromatin immunoprecipitation followed by high-throughput sequencing, a technique that identifies genome-wide DNA binding sites of a target protein (e.g., transcription factor or histone modification).",
        article = nil,
        aliases = { "ChIP-seq", "ChIP sequencing", "chromatin immunoprecipitation sequencing" },
        es = "Inmunoprecipitación de cromatina seguida de secuenciación de alto rendimiento, técnica que identifica los sitios de unión al ADN de una proteína diana (p. ej., factor de transcripción o modificación de histonas) en todo el genoma.",
        zh = "染色质免疫共沉淀结合高通量测序,用于在全基因组范围内识别目标蛋白(例如转录因子或组蛋白修饰)的 DNA 结合位点。",
        term_es = "ChIP-seq",
        term_zh = "ChIP-seq",
        aliases_es = { "secuenciación ChIP", "inmunoprecipitación de cromatina con secuenciación" },
        aliases_zh = { "染色质免疫共沉淀测序", "ChIP 测序" },
    }
    
    data["chiral center"] = {
        short = "An atom—most often a carbon bonded to four different substituents—whose tetrahedral arrangement gives rise to two non-superimposable mirror-image stereoisomers (enantiomers).",
        article = nil,
        aliases = { "stereocenter", "stereogenic center", "stereogenic centre", "chirality center", "asymmetric carbon" },
        es = "Átomo —más frecuentemente un carbono enlazado a cuatro sustituyentes diferentes— cuya disposición tetraédrica da lugar a dos estereoisómeros en imagen especular no superponibles (enantiómeros).",
        zh = "一个原子(最常见的是与四个不同取代基相连的碳),其四面体排列产生两种不可叠合的镜像立体异构体(对映异构体)。",
        term_es = "centro quiral",
        term_zh = "手性中心",
        aliases_es = { "estereocentro", "centro estereogénico", "carbono asimétrico" },
        aliases_zh = { "立体中心", "立体异构中心", "不对称碳" },
    }
    
    data["chirality"] = {
        short = "A geometric property of a molecule that lacks an internal symmetry plane and is not superimposable on its mirror image, producing two enantiomers with potentially different biological activity.",
        article = nil,
        aliases = { "chiral", "chiral molecule", "handedness", "molecular chirality", "stereochemistry chirality" },
        es = "Propiedad geométrica de una molécula que carece de plano interno de simetría y no puede superponerse sobre su imagen especular, dando lugar a dos enantiómeros con actividad biológica potencialmente distinta.",
        zh = "分子的几何性质,指分子缺乏内部对称面且无法与其镜像重合,从而形成两种生物活性可能不同的对映体。",
        term_es = "quiralidad",
        term_zh = "手性",
        aliases_es = { "quiral", "molécula quiral", "quiralidad molecular" },
        aliases_zh = { "手性分子", "分子手性", "对映异构" },
    }
    
    data["choco-sgd"] = {
        short = "A decentralized SGD algorithm that combines local gradient steps with a compressed gossip averaging step, allowing peer-to-peer training over arbitrary network topologies with bounded communication per round.",
        article = nil,
        aliases = { "Choco-SGD", "CHOCO-SGD", "ChocoSGD" },
        es = "Algoritmo de SGD descentralizado que combina pasos locales de gradiente con un paso de promediado por gossip comprimido, permitiendo entrenamiento entre pares sobre topologías de red arbitrarias con comunicación acotada por ronda.",
        zh = "一种去中心化 SGD 算法,将本地梯度步骤与压缩 gossip 平均步骤相结合,可在任意网络拓扑上进行点对点训练,且每轮通信开销有界。",
        term_es = "Choco-SGD",
        term_zh = "Choco-SGD",
        aliases_es = { "CHOCO-SGD" },
        aliases_zh = { "CHOCO-SGD", "压缩 gossip SGD" },
    }
    
    data["chocolate hpo"] = {
        short = "Chocolate, an open-source asynchronous Python library for hyperparameter optimization that supports random, quasi-random, Bayesian, and CMA-ES search backed by a shared database for distributed runs.",
        article = nil,
        aliases = { "Chocolate", "Chocolate hyperparameter optimization", "chocolate library" },
        es = "Chocolate, biblioteca Python asíncrona de código abierto para optimización de hiperparámetros que admite búsqueda aleatoria, cuasi-aleatoria, bayesiana y CMA-ES respaldadas por una base de datos compartida para ejecuciones distribuidas.",
        zh = "Chocolate,一个开源的异步Python超参数优化库,支持随机、准随机、贝叶斯和CMA-ES等搜索方法,并以共享数据库支持分布式运行。",
        term_es = "Chocolate",
        term_zh = "Chocolate",
        aliases_es = { "biblioteca Chocolate", "optimización de hiperparámetros Chocolate" },
        aliases_zh = { "Chocolate库", "Chocolate超参数优化" },
    }
    
    data["cholesky decomposition"] = {
        short = "The factorization of a symmetric (or Hermitian) positive-definite matrix A as A = LLᵀ, where L is lower triangular with positive diagonal entries. About twice as efficient as LU and numerically stable for SPD systems.",
        article = nil,
        aliases = { "Cholesky factorization", "Cholesky decomposition", "LLT decomposition", "LL^T" },
        es = "Factorización de una matriz simétrica (o hermitiana) definida positiva A como A = LLᵀ, donde L es triangular inferior con elementos diagonales positivos. Aproximadamente el doble de eficiente que LU y numéricamente estable para sistemas SPD.",
        zh = "对称(或厄米)正定矩阵 A 的分解 A = LLᵀ,其中 L 为对角元素为正的下三角矩阵。比 LU 分解效率约高一倍,对 SPD 系统数值稳定。",
        term_es = "descomposición de Cholesky",
        term_zh = "Cholesky 分解",
        aliases_es = { "factorización de Cholesky" },
        aliases_zh = { "乔列斯基分解", "Cholesky 因子分解" },
    }
    
    data["chord recognition"] = {
        short = "A music information retrieval task that automatically identifies the sequence of chords played in an audio recording, typically operating on chroma or learned features and outputting labels such as C major or G7.",
        article = nil,
        aliases = { "automatic chord recognition", "ACR", "chord estimation" },
        es = "Tarea de recuperación de información musical que identifica automáticamente la secuencia de acordes interpretados en una grabación de audio, normalmente a partir de características de croma o aprendidas, produciendo etiquetas como Do mayor o Sol séptima.",
        zh = "一种音乐信息检索任务,自动识别音频录音中演奏的和弦序列,通常基于色度特征或学习特征,输出如 C 大三和弦或 G7 等和弦标签。",
        term_es = "reconocimiento de acordes",
        term_zh = "和弦识别",
        aliases_es = { "reconocimiento automático de acordes", "estimación de acordes" },
        aliases_zh = { "自动和弦识别", "和弦估计" },
    }
    
    data["chordal graph"] = {
        short = "An undirected graph in which every cycle of length four or more has a chord (an edge connecting two non-adjacent vertices in the cycle); equivalently, a graph that admits a perfect elimination ordering.",
        article = nil,
        aliases = { "triangulated graph", "decomposable graph", "rigid circuit graph" },
        es = "Grafo no dirigido en el que todo ciclo de longitud cuatro o más tiene una cuerda (arista que conecta dos vértices no adyacentes del ciclo); equivalentemente, grafo que admite un orden de eliminación perfecto.",
        zh = "一种无向图,其中长度为 4 或以上的每个环都至少有一条弦(连接环中两个不相邻顶点的边);等价地,存在完美消除序的图。",
        term_es = "grafo cordal",
        term_zh = "弦图",
        aliases_es = { "grafo triangulado", "grafo descomponible" },
        aliases_zh = { "三角化图", "可分解图" },
    }
    
    data["chouldechova impossibility"] = {
        short = "A theorem showing that when base rates differ across groups, a classifier cannot simultaneously satisfy calibration, equal false positive rates, and equal false negative rates. Established by Alexandra Chouldechova in 2017 in the context of recidivism prediction.",
        article = nil,
        aliases = { "Chouldechova's impossibility theorem", "Chouldechova theorem", "fairness impossibility theorem" },
        es = "Teorema que demuestra que cuando las tasas base difieren entre grupos, un clasificador no puede satisfacer simultáneamente la calibración, igualdad de tasas de falsos positivos y de falsos negativos. Establecido por Alexandra Chouldechova en 2017 en el contexto de la predicción de reincidencia.",
        zh = "Chouldechova于2017年在再犯预测背景下提出的不可能性定理,表明当各群体的基率不同时,分类器无法同时满足校准、假阳性率相等和假阴性率相等。",
        term_es = "imposibilidad de Chouldechova",
        term_zh = "Chouldechova不可能性定理",
        aliases_es = { "teorema de imposibilidad de Chouldechova", "teorema de imposibilidad de equidad" },
        aliases_zh = { "Chouldechova定理", "公平性不可能定理" },
    }
    
    data["chow-liu tree"] = {
        short = "The maximum-likelihood tree-structured approximation of a discrete joint distribution, found by computing the maximum-weight spanning tree over pairwise mutual information between variables.",
        article = nil,
        aliases = { "Chow-Liu tree", "Chow Liu tree", "Chow-Liu algorithm", "CL tree" },
        es = "Aproximación con estructura de árbol de máxima verosimilitud de una distribución conjunta discreta, obtenida calculando el árbol generador de peso máximo sobre la información mutua por pares entre variables.",
        zh = "对离散联合分布的最大似然树结构近似,通过在变量两两互信息上计算最大权生成树得到。",
        term_es = "árbol de Chow-Liu",
        term_zh = "Chow-Liu 树",
        aliases_es = { "algoritmo de Chow-Liu", "árbol CL" },
        aliases_zh = { "Chow-Liu 算法", "周-刘树" },
    }
    
    data["chrf"] = {
        short = "A character n-gram F-score metric for machine translation evaluation that computes the F-score over character n-grams (typically up to length 6), correlating better with human judgment than BLEU on morphologically rich languages.",
        article = nil,
        aliases = { "chrF", "ChrF", "CHRF", "chrF++", "character F-score", "character n-gram F-score" },
        es = "Métrica basada en F-score de n-gramas de caracteres para evaluación de traducción automática (generalmente hasta longitud 6), con mejor correlación con el juicio humano que BLEU en lenguas morfológicamente ricas.",
        zh = "一种基于字符 n 元语法 F 值的机器翻译评价指标(通常取到 6 元),在形态丰富语言上与人工评价的相关性优于 BLEU。",
        term_es = "chrF",
        term_zh = "chrF",
        aliases_es = { "chrF", "chrF++", "F de caracteres" },
        aliases_zh = { "chrF", "chrF++", "字符 F 值" },
    }
    
    data["chroma protein"] = {
        short = "A diffusion-based generative model for protein structure and sequence (Generate Biomedicines, 2023) that samples backbones with conditional symmetry, shape, and function constraints.",
        article = nil,
        aliases = { "Chroma", "Chroma model", "Chroma generative model", "Chroma protein generative model" },
        es = "Modelo generativo basado en difusión para estructura y secuencia de proteínas (Generate Biomedicines, 2023) que muestrea esqueletos con restricciones condicionales de simetría, forma y función.",
        zh = "一种基于扩散的蛋白质结构与序列生成模型(Generate Biomedicines,2023),能够在对称性、形状和功能约束下采样蛋白质骨架。",
        term_es = "Chroma",
        term_zh = "Chroma",
        aliases_es = { "Chroma", "modelo Chroma", "modelo generativo Chroma" },
        aliases_zh = { "Chroma", "Chroma 模型", "Chroma 生成模型" },
    }
    
    data["chromagram"] = {
        short = "A time-frequency audio representation that projects spectral energy onto the twelve pitch classes of the chromatic scale, widely used for chord and key estimation in music information retrieval.",
        article = nil,
        aliases = { "chroma features", "chroma vector", "chroma representation", "pitch class profile" },
        es = "Representación tiempo-frecuencia del audio que proyecta la energía espectral sobre las doce clases de altura de la escala cromática, ampliamente utilizada para la estimación de acordes y tonalidad en recuperación de información musical.",
        zh = "一种时频音频表示,将频谱能量投影到十二平均律的十二个音级上,广泛用于音乐信息检索中的和弦和调性估计。",
        term_es = "cromagrama",
        term_zh = "色度图",
        aliases_es = { "características de croma", "vector de croma", "perfil de clase de altura" },
        aliases_zh = { "色度特征", "色度向量", "音级特征" },
    }
    
    data["chromatin loop"] = {
        short = "A long-range physical contact between two genomic loci brought together in three-dimensional space, often connecting enhancers to promoters and detected by Hi-C, ChIA-PET, or related conformation capture assays.",
        article = nil,
        aliases = { "chromatin looping", "DNA loop", "enhancer-promoter loop", "chromosomal loop" },
        es = "Contacto físico de largo alcance entre dos loci genómicos que se aproximan en el espacio tridimensional, a menudo conectando potenciadores con promotores y detectado mediante Hi-C, ChIA-PET o ensayos de captura conformacional relacionados.",
        zh = "两个基因组位点在三维空间中靠近形成的长程物理接触,通常连接增强子与启动子,可通过 Hi-C、ChIA-PET 或相关染色质构象捕获实验检测。",
        term_es = "bucle de cromatina",
        term_zh = "染色质环",
        aliases_es = { "loop de cromatina", "bucle ADN", "bucle potenciador-promotor" },
        aliases_zh = { "染色质 loop", "增强子-启动子环", "DNA 环" },
    }
    
    data["chromhmm"] = {
        short = "A hidden Markov model-based tool that segments the genome into chromatin states by jointly modeling combinatorial patterns of histone modifications and other epigenomic marks across cell types.",
        article = nil,
        aliases = { "ChromHMM", "Chrom HMM" },
        es = "Herramienta basada en un modelo oculto de Markov que segmenta el genoma en estados de cromatina modelando conjuntamente patrones combinatorios de modificaciones de histonas y otras marcas epigenómicas en distintos tipos celulares.",
        zh = "一种基于隐马尔可夫模型的工具,通过联合建模组蛋白修饰和其他表观基因组标记在多种细胞类型中的组合模式,将基因组划分为染色质状态。",
        term_es = "ChromHMM",
        term_zh = "ChromHMM",
        aliases_es = { "Chrom HMM" },
        aliases_zh = { "Chrom HMM" },
    }
    
    data["chunk attention"] = {
        short = "An attention mechanism that restricts each query to attend only within a fixed-length chunk of input frames, enabling streaming or low-latency operation in transformer-based speech models.",
        article = nil,
        aliases = { "chunked attention", "block attention", "chunk-based attention" },
        es = "Mecanismo de atención que restringe cada consulta a atender únicamente dentro de un fragmento de longitud fija de tramas de entrada, permitiendo el funcionamiento en streaming o de baja latencia en modelos de habla basados en transformers.",
        zh = "一种注意力机制,限制每个查询仅在固定长度的输入帧块内进行注意力计算,从而在基于 Transformer 的语音模型中实现流式或低延迟运行。",
        term_es = "atención por chunks",
        term_zh = "分块注意力",
        aliases_es = { "atención fragmentada", "atención por bloques" },
        aliases_zh = { "块注意力", "分段注意力" },
    }
    
    data["chunked prefill"] = {
        short = "An LLM inference optimization that splits the prefill phase of a long prompt into smaller chunks and interleaves them with decode steps of other requests, reducing time-to-first-token latency under continuous batching.",
        article = nil,
        aliases = { "chunked-prefill", "prefill chunking", "split prefill" },
        es = "Optimización de inferencia para LLMs que divide la fase de prefill de un prompt largo en bloques más pequeños y los intercala con pasos de decodificación de otras solicitudes, reduciendo la latencia de tiempo hasta el primer token bajo batching continuo.",
        zh = "一种大语言模型推理优化:将长提示的 prefill 阶段切分为较小的块,并与其它请求的 decode 步骤交错执行,从而在连续批处理(continuous batching)下降低首 token 延迟。",
        term_es = "prefill por bloques",
        term_zh = "分块 prefill",
        aliases_es = { "chunked prefill", "particionado del prefill" },
        aliases_zh = { "chunked prefill", "分块预填充", "prefill 切分" },
    }
    
    data["chunking"] = {
        short = "In retrieval pipelines, the process of splitting source documents into smaller passages so each chunk fits within an embedding or context window and serves as an independently retrievable unit.",
        article = nil,
        aliases = { "Chunking", "document chunking", "text chunking", "passage segmentation", "text splitting" },
        es = "En las tuberías de recuperación, el proceso de dividir documentos fuente en pasajes más pequeños para que cada fragmento quepa en una ventana de embedding o de contexto y funcione como una unidad recuperable de forma independiente.",
        zh = "在检索流水线中,将源文档切分为较小段落,使每个片段适配嵌入或上下文窗口大小,并可作为独立可检索单元。",
        term_es = "fragmentación",
        term_zh = "分块",
        aliases_es = { "chunking", "segmentación de pasajes", "división en fragmentos", "fragmentación de documentos" },
        aliases_zh = { "chunking", "切块", "文本切分", "段落分割", "文档分块" },
    }
    
    data["church language"] = {
        short = "A probabilistic programming language based on the Lisp/Scheme dialect that represents generative models as stochastic functional programs and supports general-purpose Monte Carlo inference.",
        article = nil,
        aliases = { "Church", "Church language", "Church PPL" },
        es = "Lenguaje de programación probabilística basado en el dialecto Lisp/Scheme que representa modelos generativos como programas funcionales estocásticos y admite inferencia Monte Carlo de propósito general.",
        zh = "一种基于 Lisp/Scheme 方言的概率编程语言,将生成模型表示为随机的函数式程序,并支持通用的蒙特卡洛推断。",
        term_es = "lenguaje Church",
        term_zh = "Church 语言",
        aliases_es = { "Church", "lenguaje de programación Church" },
        aliases_zh = { "Church", "Church 概率编程语言" },
    }
    
    data["cider score"] = {
        short = "Consensus-based Image Description Evaluation, a metric for image captioning that scores a candidate caption by the cosine similarity of its TF-IDF n-gram vector with those of multiple reference captions, rewarding consensus across humans.",
        article = nil,
        aliases = { "CIDEr", "CIDEr score", "CIDEr-D", "Consensus-based Image Description Evaluation" },
        es = "Consensus-based Image Description Evaluation, una métrica de subtitulado de imágenes que puntúa un subtítulo candidato mediante la similitud del coseno entre su vector TF-IDF de n-gramas y los de múltiples subtítulos de referencia, premiando el consenso humano.",
        zh = "Consensus-based Image Description Evaluation(CIDEr),一种图像字幕评估指标,通过候选字幕与多条参考字幕的TF-IDF n元向量的余弦相似度打分,从而奖励与人类共识一致的描述。",
        term_es = "puntuación CIDEr",
        term_zh = "CIDEr分数",
        aliases_es = { "CIDEr", "métrica CIDEr", "CIDEr-D" },
        aliases_zh = { "CIDEr", "CIDEr-D", "CIDEr指标" },
    }
    
    data["cigar string"] = {
        short = "A compact alignment encoding used in SAM/BAM files (Compact Idiosyncratic Gapped Alignment Report) that describes how a sequencing read aligns to a reference using operators like M (match/mismatch), I (insertion), D (deletion), and S (soft clip).",
        article = nil,
        aliases = { "CIGAR string", "CIGAR", "CIGAR field", "CIGAR notation" },
        es = "Codificación compacta de alineamiento usada en archivos SAM/BAM (Compact Idiosyncratic Gapped Alignment Report) que describe cómo se alinea una lectura de secuenciación a una referencia mediante operadores como M (coincidencia/desajuste), I (inserción), D (deleción) y S (recorte suave).",
        zh = "SAM/BAM 文件中使用的紧凑比对编码(Compact Idiosyncratic Gapped Alignment Report),通过 M(匹配/错配)、I(插入)、D(缺失)、S(软剪切)等操作符描述测序读段与参考序列的比对方式。",
        term_es = "cadena CIGAR",
        term_zh = "CIGAR 字符串",
        aliases_es = { "CIGAR", "campo CIGAR", "notación CIGAR" },
        aliases_zh = { "CIGAR", "CIGAR 字段", "CIGAR 编码" },
    }
    
    data["cinelli hazlett sensitivity"] = {
        short = "A sensitivity analysis framework for causal effects that benchmarks the bias from an unobserved confounder by the partial R-squared it would need with treatment and outcome to nullify or reverse the estimate, with results summarized by robustness values and contour plots.",
        article = nil,
        aliases = { "Cinelli-Hazlett sensitivity analysis", "Cinelli and Hazlett sensitivity", "robustness value sensitivity analysis", "sensemakr framework", "omitted variable bias sensitivity (Cinelli-Hazlett)" },
        es = "Marco de análisis de sensibilidad para efectos causales que cuantifica el sesgo de un confusor no observado mediante el R-cuadrado parcial que tendría que tener con el tratamiento y con el resultado para anular o invertir la estimación; los resultados se resumen mediante valores de robustez y gráficos de contorno.",
        zh = "针对因果效应的一种敏感性分析框架,用未观测混杂因子与处理和结果之间所需的偏决定系数来衡量足以抵消或反转估计值的偏差,结果通过稳健性值和等高线图加以呈现。",
        term_es = "análisis de sensibilidad de Cinelli-Hazlett",
        term_zh = "Cinelli-Hazlett 敏感性分析",
        aliases_es = { "análisis de sensibilidad Cinelli y Hazlett", "valores de robustez (Cinelli-Hazlett)", "marco sensemakr" },
        aliases_zh = { "Cinelli 与 Hazlett 敏感性分析", "稳健性值敏感性分析", "sensemakr 框架" },
    }
    
    data["circle loss"] = {
        short = "Pair-similarity loss that re-weights each similarity score's gradient based on its distance from an optimum, unifying triplet- and softmax-based metric-learning losses under a single formulation.",
        article = nil,
        aliases = { "Circle Loss" },
        es = "Pérdida basada en similitud por pares que repondera el gradiente de cada puntuación de similitud según su distancia al óptimo, unificando pérdidas de aprendizaje métrico basadas en tripletes y en softmax bajo una única formulación.",
        zh = "基于成对相似度的损失,根据每个相似度分数与最优值的距离重新加权其梯度,将基于三元组和基于 softmax 的度量学习损失统一在同一框架下。",
        term_es = "pérdida Circle",
        term_zh = "Circle 损失",
        aliases_es = { "Circle Loss" },
        aliases_zh = { "Circle Loss", "圆形损失" },
    }
    
    data["circrna detection"] = {
        short = "Identification of circular RNAs from RNA-seq data by detecting back-splice junctions, where the 3' end of a downstream exon is joined to the 5' end of an upstream exon, using tools such as CIRCexplorer, CIRI, or find_circ.",
        article = nil,
        aliases = { "circRNA detection", "circular RNA detection", "back-splice junction detection", "circRNA identification" },
        es = "Identificación de RNAs circulares a partir de datos de RNA-seq detectando uniones de retrosplicing (back-splice), donde el extremo 3' de un exón corriente abajo se une al extremo 5' de un exón corriente arriba, mediante herramientas como CIRCexplorer, CIRI o find_circ.",
        zh = "通过检测反向剪接位点(下游外显子的 3' 端与上游外显子的 5' 端连接)从 RNA-seq 数据中识别环状 RNA,常用工具包括 CIRCexplorer、CIRI 和 find_circ。",
        term_es = "detección de circRNA",
        term_zh = "环状 RNA 检测",
        aliases_es = { "detección de RNA circular", "identificación de circRNA", "detección de uniones back-splice" },
        aliases_zh = { "circRNA 检测", "环状 RNA 鉴定", "反向剪接位点检测" },
    }
    
    data["circuit analysis"] = {
        short = "A mechanistic interpretability technique that identifies and characterizes small computational subgraphs (circuits) within a neural network responsible for specific behaviors. Common in studies of attention heads and MLP neurons in transformers.",
        article = nil,
        aliases = { "mechanistic circuit analysis", "circuits analysis", "neural circuit analysis" },
        es = "Técnica de interpretabilidad mecanicista que identifica y caracteriza pequeños subgrafos computacionales (circuitos) dentro de una red neuronal responsables de comportamientos específicos. Común en el estudio de cabezas de atención y neuronas MLP en transformadores.",
        zh = "一种机械可解释性技术,用于识别并刻画神经网络中负责特定行为的小型计算子图(电路),常用于研究 Transformer 中的注意力头与 MLP 神经元。",
        term_es = "análisis de circuitos",
        term_zh = "电路分析",
        aliases_es = { "análisis mecanicista de circuitos" },
        aliases_zh = { "神经电路分析", "机械电路分析" },
    }
    
    data["circuit discovery"] = {
        short = "The automated identification of circuits within a neural network through systematic ablation, activation patching, or causal tracing. Methods include ACDC and edge attribution patching.",
        article = nil,
        aliases = { "automated circuit discovery", "ACDC", "circuits discovery" },
        es = "Identificación automatizada de circuitos dentro de una red neuronal mediante ablación sistemática, parcheo de activaciones o trazado causal. Entre los métodos se cuentan ACDC y el parcheo por atribución de aristas.",
        zh = "通过系统消融、激活补丁或因果追踪等方法自动识别神经网络中电路的过程,常见方法包括 ACDC 和边归因补丁。",
        term_es = "descubrimiento de circuitos",
        term_zh = "电路发现",
        aliases_es = { "descubrimiento automatizado de circuitos", "ACDC" },
        aliases_zh = { "ACDC", "自动电路发现" },
    }
    
    data["circuit sparsity"] = {
        short = "A property describing how few model components (heads, neurons, or edges) are needed to reproduce a target behavior. Sparse circuits are easier to interpret and indicate localized computation.",
        article = nil,
        aliases = { "sparsity of circuits", "sparse circuit" },
        es = "Propiedad que describe cuán pocos componentes del modelo (cabezas, neuronas o aristas) bastan para reproducir un comportamiento objetivo. Los circuitos dispersos son más fáciles de interpretar e indican un cómputo localizado.",
        zh = "描述再现目标行为所需的模型组件(注意力头、神经元或边)数量之少的性质。稀疏的电路更易解释,并表明计算具有局部性。",
        term_es = "esparsidad de circuitos",
        term_zh = "电路稀疏性",
        aliases_es = { "circuitos dispersos", "esparsidad de los circuitos" },
        aliases_zh = { "稀疏电路", "电路的稀疏性" },
    }
    
    data["circuit-sat"] = {
        short = "The decision problem of determining whether there exists an input assignment that makes a given Boolean circuit output true; a canonical NP-complete problem closely related to SAT and used in neuro-symbolic learning of solvers.",
        article = nil,
        aliases = { "Circuit-SAT", "circuit satisfiability", "CircuitSAT" },
        es = "El problema de decisión consistente en determinar si existe una asignación de entradas que haga que un circuito booleano dado produzca la salida verdadera; un problema NP-completo canónico, estrechamente relacionado con SAT y usado en el aprendizaje neuro-simbólico de solvers.",
        zh = "判定是否存在使给定布尔电路输出为真的输入赋值的判定问题;这是一个典型的 NP 完全问题,与 SAT 密切相关,常用于神经符号求解器的学习。",
        term_es = "Circuit-SAT",
        term_zh = "电路可满足性",
        aliases_es = { "Circuit-SAT", "satisfacibilidad de circuitos" },
        aliases_zh = { "Circuit-SAT", "电路 SAT", "电路满足性问题" },
    }
    
    data["circuits"] = {
        short = "In mechanistic interpretability, identifiable subgraphs of a neural network that implement a specific algorithm or feature, composed of attention heads, neurons, and the edges connecting them. Popularized by Olah et al. (2020) and Anthropic.",
        article = nil,
        aliases = { "neural circuits", "interpretability circuits", "mechanistic circuits" },
        es = "En interpretabilidad mecanicista, subgrafos identificables de una red neuronal que implementan un algoritmo o característica específica, compuestos por cabezas de atención, neuronas y las aristas que las conectan. Popularizados por Olah et al. (2020) y Anthropic.",
        zh = "在机械可解释性中,神经网络中可被识别出的、实现特定算法或特征的子图,由注意力头、神经元及其连边构成。由 Olah 等人(2020)与 Anthropic 推广。",
        term_es = "circuitos",
        term_zh = "电路",
        aliases_es = { "circuitos neuronales", "circuitos de interpretabilidad" },
        aliases_zh = { "神经电路", "可解释性电路" },
    }
    
    data["citrinet"] = {
        short = "An end-to-end convolutional speech recognition architecture from NVIDIA that extends QuartzNet with squeeze-and-excitation modules and subword tokenization, trained with CTC loss for streaming-friendly ASR.",
        article = nil,
        aliases = { "Citrinet", "CitriNet" },
        es = "Arquitectura convolucional de extremo a extremo para reconocimiento del habla de NVIDIA que extiende QuartzNet con módulos squeeze-and-excitation y tokenización por subpalabras, entrenada con pérdida CTC para ASR compatible con streaming.",
        zh = "NVIDIA 提出的端到端卷积语音识别架构,在 QuartzNet 基础上引入 squeeze-and-excitation 模块和子词分词,采用 CTC 损失训练,适合流式 ASR。",
        term_es = "Citrinet",
        term_zh = "Citrinet",
        aliases_es = { "CitriNet" },
        aliases_zh = { "CitriNet" },
    }
    
    data["ciwae"] = {
        short = "Combination Importance Weighted Autoencoder, a variational objective that linearly mixes the standard ELBO with the importance-weighted IWAE bound, intended to recover tighter likelihoods of IWAE while preserving the inference-network signal of the ELBO.",
        article = nil,
        aliases = { "CIWAE", "combination IWAE", "combination importance weighted autoencoder" },
        es = "Combination Importance Weighted Autoencoder, un objetivo variacional que mezcla linealmente el ELBO estándar con la cota IWAE ponderada por importancia, con el fin de recuperar las verosimilitudes más ajustadas de IWAE conservando la señal para la red de inferencia del ELBO.",
        zh = "组合式重要性加权自编码器,一种变分目标,将标准ELBO与重要性加权的IWAE界做线性组合,以在保留ELBO对推断网络的训练信号的同时获得IWAE更紧的似然估计。",
        term_es = "CIWAE",
        term_zh = "CIWAE",
        aliases_es = { "CIWAE", "IWAE combinado", "Combination IWAE" },
        aliases_zh = { "CIWAE", "组合IWAE", "Combination IWAE" },
    }
    
    data["ckks scheme"] = {
        short = "A fully homomorphic encryption scheme (Cheon–Kim–Kim–Song) that encodes vectors of complex or real numbers and supports approximate arithmetic, widely used for privacy-preserving aggregation and inference in federated learning.",
        article = nil,
        aliases = { "CKKS", "CKKS scheme", "CKKS encryption", "Cheon-Kim-Kim-Song scheme", "Cheon–Kim–Kim–Song scheme" },
        es = "Esquema de cifrado totalmente homomórfico (Cheon–Kim–Kim–Song) que codifica vectores de números complejos o reales y admite aritmética aproximada, ampliamente utilizado para agregación e inferencia con preservación de la privacidad en aprendizaje federado.",
        zh = "一种全同态加密方案(Cheon–Kim–Kim–Song),可将复数或实数向量编码后进行近似算术运算,广泛用于联邦学习中的隐私保护聚合与推理。",
        term_es = "esquema CKKS",
        term_zh = "CKKS 方案",
        aliases_es = { "CKKS", "cifrado CKKS" },
        aliases_zh = { "CKKS", "CKKS 加密", "CKKS 同态加密方案" },
    }
    
    data["clap"] = {
        short = "Contrastive Language-Audio Pretraining, a framework that trains paired audio and text encoders with a contrastive objective on large-scale (audio, caption) data to produce a joint embedding space supporting zero-shot audio classification and retrieval.",
        article = nil,
        aliases = { "CLAP", "Contrastive Language-Audio Pretraining", "Contrastive Language-Audio Pre-training" },
        es = "Contrastive Language-Audio Pretraining, un marco que entrena codificadores emparejados de audio y texto con un objetivo contrastivo sobre datos a gran escala de (audio, subtítulo) para producir un espacio de embeddings conjunto que admite clasificación y recuperación de audio en cero disparos.",
        zh = "Contrastive Language-Audio Pretraining(CLAP),通过在大规模(音频,文本)数据上以对比目标联合训练音频和文本编码器,构建支持零样本音频分类与检索的共享嵌入空间。",
        term_es = "CLAP",
        term_zh = "CLAP",
        aliases_es = { "preentrenamiento contrastivo lenguaje-audio" },
        aliases_zh = { "CLAP", "对比语言-音频预训练" },
    }
    
    data["class activation mapping"] = {
        short = "A visualization technique that produces a heatmap over an image highlighting the regions most influential for a CNN's predicted class, computed from the weighted sum of feature maps before global average pooling. Introduced by Zhou et al. (2016).",
        article = nil,
        aliases = { "CAM", "class activation map", "class activation maps" },
        es = "Técnica de visualización que genera un mapa de calor sobre una imagen destacando las regiones más influyentes para la clase predicha por una CNN, calculado a partir de la suma ponderada de los mapas de características antes del agrupamiento promedio global. Propuesta por Zhou et al. (2016).",
        zh = "一种可视化技术,通过对全局平均池化前的特征图加权求和,在图像上生成热力图,突出对 CNN 预测类别贡献最大的区域。由 Zhou 等人(2016)提出。",
        term_es = "mapeo de activación de clase",
        term_zh = "类激活映射",
        aliases_es = { "CAM", "mapa de activación de clase" },
        aliases_zh = { "CAM", "类激活图" },
    }
    
    data["class imbalance"] = {
        short = "A condition in classification problems where the distribution of class labels is highly skewed, causing standard learners to favor the majority class and under-perform on minority classes.",
        article = nil,
        aliases = { "imbalanced classes", "class imbalance problem", "imbalanced data", "imbalanced classification", "skewed classes" },
        es = "Condición en problemas de clasificación en la que la distribución de las etiquetas está muy desbalanceada, lo que provoca que los algoritmos estándar favorezcan a la clase mayoritaria y rindan peor en las clases minoritarias.",
        zh = "在分类问题中类别标签分布严重失衡的情况,导致标准学习算法偏向多数类,并在少数类上表现较差。",
        term_es = "desbalance de clases",
        term_zh = "类别不平衡",
        aliases_es = { "clases desbalanceadas", "desequilibrio de clases", "datos desbalanceados", "clasificación desbalanceada" },
        aliases_zh = { "类不平衡", "类别失衡", "样本不平衡" },
    }
    
    data["class weighting"] = {
        short = "A strategy for handling class imbalance that scales the loss contribution of each example by a per-class weight (typically inversely proportional to class frequency), giving minority classes greater influence on parameter updates.",
        article = nil,
        aliases = { "class weights", "weighted loss", "cost-sensitive learning", "class-weighted loss" },
        es = "Estrategia para tratar el desbalance de clases que escala la contribución a la pérdida de cada ejemplo mediante un peso por clase (normalmente inversamente proporcional a la frecuencia), otorgando a las clases minoritarias mayor influencia en las actualizaciones de parámetros.",
        zh = "一种处理类别不平衡的策略,按每个类别的权重(通常与类别频率成反比)对每个样本的损失贡献进行缩放,使少数类对参数更新具有更大的影响。",
        term_es = "ponderación de clases",
        term_zh = "类别加权",
        aliases_es = { "pesos por clase", "pérdida ponderada por clase", "aprendizaje sensible al costo" },
        aliases_zh = { "类别权重", "加权损失", "代价敏感学习" },
    }
    
    data["class-wise calibration"] = {
        short = "A calibration criterion that requires predicted probabilities to be calibrated separately for each class, ensuring that for every class the predicted probability matches the empirical frequency conditional on the prediction.",
        article = nil,
        aliases = { "classwise calibration", "per-class calibration", "marginal class calibration" },
        es = "Criterio de calibración que exige que las probabilidades predichas estén calibradas por separado para cada clase, garantizando que para toda clase la probabilidad predicha coincida con la frecuencia empírica condicionada a la predicción.",
        zh = "一种校准准则,要求对每个类别分别校准其预测概率,确保对每个类别,给定预测时其预测概率都与经验频率匹配。",
        term_es = "calibración por clase",
        term_zh = "按类校准",
        aliases_es = { "calibración clase a clase", "calibración marginal por clase", "class-wise calibration" },
        aliases_zh = { "类别级校准", "逐类校准", "边缘类别校准" },
    }
    
    data["classifier guidance"] = {
        short = "A diffusion sampling technique that pushes generation toward a class label by adding the gradient of an external classifier's log-probability of that class to the diffusion model's score during each denoising step.",
        article = nil,
        aliases = { "classifier-guided diffusion", "classifier guided sampling" },
        es = "Técnica de muestreo en modelos de difusión que dirige la generación hacia una clase añadiendo, en cada paso de denoising, el gradiente del log-probabilidad de esa clase calculado por un clasificador externo a la puntuación del modelo de difusión.",
        zh = "一种扩散模型采样技术:在每个去噪步骤中,将外部分类器对目标类别对数概率的梯度加到扩散模型的得分上,使生成结果偏向给定类别。",
        term_es = "guía por clasificador",
        term_zh = "分类器引导",
        aliases_es = { "guía de clasificador", "muestreo guiado por clasificador" },
        aliases_zh = { "分类器引导扩散", "分类器引导采样" },
    }
    
    data["classifier parity"] = {
        short = "A family of group fairness criteria requiring that some classifier statistic (accuracy, error rate, predictive value) be equal across protected groups. Includes accuracy parity, false positive rate parity, and equalized odds.",
        article = nil,
        aliases = { "classification parity", "predictive parity" },
        es = "Familia de criterios de equidad grupal que exige que alguna estadística del clasificador (precisión, tasa de error, valor predictivo) sea igual entre grupos protegidos. Incluye paridad de precisión, paridad de tasa de falsos positivos y equalized odds.",
        zh = "一类群体公平性准则,要求分类器的某种统计量(准确率、错误率、预测值)在受保护群体间相等。包括准确率平等、假阳性率平等和均等几率。",
        term_es = "paridad del clasificador",
        term_zh = "分类器平等",
        aliases_es = { "paridad de clasificación", "paridad predictiva" },
        aliases_zh = { "分类平等", "预测平等" },
    }
    
    data["classifier-free guidance"] = {
        short = "A diffusion sampling technique that combines a single model's conditional and unconditional predictions via a guidance-scale extrapolation, steering generation toward the conditioning signal without needing a separate classifier.",
        article = nil,
        aliases = { "CFG", "classifier free guidance", "CFG sampling" },
        es = "Técnica de muestreo en modelos de difusión que combina las predicciones condicional e incondicional de un mismo modelo mediante una extrapolación con escala de guía, dirigiendo la generación hacia la señal de condicionamiento sin necesidad de un clasificador externo.",
        zh = "一种扩散模型采样技术:通过引导强度对同一模型的条件预测与无条件预测进行外推组合,将生成结果引导至条件信号,而无需额外的分类器。",
        term_es = "guía sin clasificador",
        term_zh = "无分类器引导",
        aliases_es = { "CFG", "guía libre de clasificador", "classifier-free guidance" },
        aliases_zh = { "CFG", "免分类器引导", "无分类器指导", "classifier-free guidance" },
    }
    
    data["claude"] = {
        short = "A family of large language models developed by Anthropic, designed with an emphasis on safety, helpfulness, and honesty using techniques such as Constitutional AI and reinforcement learning from human feedback.",
        article = nil,
        aliases = { "Claude", "Anthropic Claude", "Claude model", "Claude family" },
        es = "Familia de grandes modelos de lenguaje desarrollada por Anthropic, diseñada con énfasis en la seguridad, la utilidad y la honestidad mediante técnicas como Constitutional AI y aprendizaje por refuerzo a partir de retroalimentación humana.",
        zh = "由 Anthropic 开发的大型语言模型系列,强调安全性、有用性和诚实性,采用了 Constitutional AI 和基于人类反馈的强化学习等技术。",
        term_es = "Claude",
        term_zh = "Claude",
        aliases_es = { "modelo Claude", "Claude de Anthropic" },
        aliases_zh = { "Claude 模型", "Anthropic Claude" },
    }
    
    data["claude 3 haiku"] = {
        short = "The fastest and most compact model in Anthropic's Claude 3 family, released in March 2024, designed for low-latency, high-throughput chat, classification and summarization workloads.",
        article = nil,
        aliases = { "Claude 3 Haiku", "claude-3-haiku" },
        es = "Modelo más rápido y compacto de la familia Claude 3 de Anthropic, lanzado en marzo de 2024, diseñado para cargas de trabajo de chat, clasificación y resumen con baja latencia y alto rendimiento.",
        zh = "Anthropic Claude 3 系列中最快、最轻量的模型,于 2024 年 3 月发布,面向低延迟、高吞吐的对话、分类与摘要等任务。",
        term_es = "Claude 3 Haiku",
        term_zh = "Claude 3 Haiku",
        aliases_es = { "claude-3-haiku" },
        aliases_zh = { "claude-3-haiku" },
    }
    
    data["claude 3 opus"] = {
        short = "The largest and highest-capability model in Anthropic's original Claude 3 family, released in March 2024, targeting complex reasoning, analysis and long-context tasks.",
        article = nil,
        aliases = { "Claude 3 Opus", "claude-3-opus" },
        es = "Modelo más grande y de mayor capacidad de la familia original Claude 3 de Anthropic, lanzado en marzo de 2024, orientado a razonamiento complejo, análisis y tareas con contexto largo.",
        zh = "Anthropic 最初发布的 Claude 3 系列中规模最大、能力最强的模型,于 2024 年 3 月发布,面向复杂推理、分析与长上下文任务。",
        term_es = "Claude 3 Opus",
        term_zh = "Claude 3 Opus",
        aliases_es = { "claude-3-opus" },
        aliases_zh = { "claude-3-opus" },
    }
    
    data["claude 3 sonnet"] = {
        short = "The mid-tier model in Anthropic's Claude 3 family, released in March 2024, balancing capability and inference cost for general-purpose enterprise and developer workloads.",
        article = nil,
        aliases = { "Claude 3 Sonnet", "claude-3-sonnet" },
        es = "Modelo de gama intermedia de la familia Claude 3 de Anthropic, lanzado en marzo de 2024, que equilibra capacidad y costo de inferencia para cargas de trabajo empresariales y de desarrollo de propósito general.",
        zh = "Anthropic Claude 3 系列中的中端模型,于 2024 年 3 月发布,在能力与推理成本之间取得平衡,面向通用的企业与开发者工作负载。",
        term_es = "Claude 3 Sonnet",
        term_zh = "Claude 3 Sonnet",
        aliases_es = { "claude-3-sonnet" },
        aliases_zh = { "claude-3-sonnet" },
    }
    
    data["claude 3.5 haiku"] = {
        short = "Anthropic's compact and low-latency model in the Claude 3.5 family, released in 2024 and optimized for high-throughput tasks such as classification, content moderation, and code completion.",
        article = nil,
        aliases = { "Claude 3.5 Haiku", "claude-3-5-haiku", "claude-3.5-haiku" },
        es = "Modelo compacto y de baja latencia de Anthropic en la familia Claude 3.5, lanzado en 2024 y optimizado para tareas de alto rendimiento como clasificación, moderación de contenido y completado de código.",
        zh = "Anthropic 在 Claude 3.5 系列中推出的紧凑型低延迟模型,于 2024 年发布,针对分类、内容审核和代码补全等高吞吐量任务进行了优化。",
        term_es = "Claude 3.5 Haiku",
        term_zh = "Claude 3.5 Haiku",
        aliases_es = { "Claude 3.5 Haiku" },
        aliases_zh = { "Claude 3.5 Haiku" },
    }
    
    data["claude 3.5 sonnet"] = {
        short = "Anthropic's mid-tier model in the Claude 3.5 family, released in 2024 with strong reasoning and coding performance and the introduction of the artifacts and computer-use features.",
        article = nil,
        aliases = { "Claude 3.5 Sonnet", "claude-3-5-sonnet", "claude-3.5-sonnet", "Sonnet 3.5" },
        es = "Modelo de gama media de Anthropic en la familia Claude 3.5, lanzado en 2024 con un sólido desempeño en razonamiento y programación, e introdujo las funcionalidades de artefactos y uso de computadora.",
        zh = "Anthropic 在 Claude 3.5 系列中的中端模型,于 2024 年发布,具有强大的推理和编码能力,并首次引入了 artifacts 和计算机使用(computer use)功能。",
        term_es = "Claude 3.5 Sonnet",
        term_zh = "Claude 3.5 Sonnet",
        aliases_es = { "Claude 3.5 Sonnet", "Sonnet 3.5" },
        aliases_zh = { "Claude 3.5 Sonnet" },
    }
    
    data["claude 3.7 sonnet"] = {
        short = "Anthropic's Claude 3.7 Sonnet, released in 2025, the first Claude model to offer extended thinking, allowing the model to allocate visible reasoning tokens before producing a final answer.",
        article = nil,
        aliases = { "Claude 3.7 Sonnet", "claude-3-7-sonnet", "claude-3.7-sonnet", "Sonnet 3.7" },
        es = "Modelo Claude 3.7 Sonnet de Anthropic, lanzado en 2025; primer modelo Claude en ofrecer pensamiento extendido, lo que le permite asignar tokens de razonamiento visibles antes de producir una respuesta final.",
        zh = "Anthropic 于 2025 年发布的 Claude 3.7 Sonnet,是首个支持扩展思考(extended thinking)的 Claude 模型,可在生成最终答案前分配可见的推理 token。",
        term_es = "Claude 3.7 Sonnet",
        term_zh = "Claude 3.7 Sonnet",
        aliases_es = { "Claude 3.7 Sonnet", "Sonnet 3.7" },
        aliases_zh = { "Claude 3.7 Sonnet" },
    }
    
    data["claude agent sdk"] = {
        short = "Anthropic's official software development kit for building autonomous agents on top of Claude models, providing tool use, file system access, sandboxed code execution, and long-running task management.",
        article = nil,
        aliases = { "Claude Agent SDK", "Anthropic Agent SDK", "claude-agent-sdk" },
        es = "Kit de desarrollo de software oficial de Anthropic para construir agentes autónomos sobre modelos Claude; proporciona uso de herramientas, acceso al sistema de archivos, ejecución de código en sandbox y gestión de tareas de larga duración.",
        zh = "Anthropic 官方推出的软件开发工具包,用于在 Claude 模型之上构建自主智能体,提供工具调用、文件系统访问、沙箱代码执行以及长时任务管理等能力。",
        term_es = "Claude Agent SDK",
        term_zh = "Claude Agent SDK",
        aliases_es = { "Claude Agent SDK", "SDK de Agentes Claude" },
        aliases_zh = { "Claude Agent SDK", "Claude 智能体 SDK" },
    }
    
    data["claude haiku 4.5"] = {
        short = "Anthropic's Claude Haiku 4.5, the smallest and fastest model in the Claude 4.X family, released in October 2025 and matching prior frontier-class models on many benchmarks at a fraction of the cost.",
        article = nil,
        aliases = { "Claude Haiku 4.5", "Haiku 4.5", "claude-haiku-4-5", "claude-haiku-4.5" },
        es = "Claude Haiku 4.5 de Anthropic, el modelo más pequeño y rápido de la familia Claude 4.X, lanzado en octubre de 2025; iguala a modelos de frontera anteriores en muchos benchmarks a una fracción del coste.",
        zh = "Anthropic 于 2025 年 10 月发布的 Claude Haiku 4.5,是 Claude 4.X 系列中体量最小、速度最快的模型,在多项基准测试中以极低成本达到此前前沿模型的水平。",
        term_es = "Claude Haiku 4.5",
        term_zh = "Claude Haiku 4.5",
        aliases_es = { "Claude Haiku 4.5", "Haiku 4.5" },
        aliases_zh = { "Claude Haiku 4.5", "Haiku 4.5" },
    }
    
    data["claude opus 4"] = {
        short = "Anthropic's Claude Opus 4, released in 2025 as the flagship model of the Claude 4 generation, focused on long-horizon agentic tasks, advanced coding, and complex reasoning.",
        article = nil,
        aliases = { "Claude Opus 4", "Opus 4", "claude-opus-4" },
        es = "Claude Opus 4 de Anthropic, lanzado en 2025 como modelo insignia de la generación Claude 4, orientado a tareas agénticas de horizonte largo, programación avanzada y razonamiento complejo.",
        zh = "Anthropic 于 2025 年发布的 Claude Opus 4,是 Claude 4 代的旗舰模型,专注于长时序智能体任务、高级编程和复杂推理。",
        term_es = "Claude Opus 4",
        term_zh = "Claude Opus 4",
        aliases_es = { "Claude Opus 4", "Opus 4" },
        aliases_zh = { "Claude Opus 4", "Opus 4" },
    }
    
    data["claude opus 4.5"] = {
        short = "Anthropic's Claude Opus 4.5, the flagship model of the Claude 4.X family, offering frontier reasoning, coding, and agentic capabilities for the most demanding tasks.",
        article = nil,
        aliases = { "Claude Opus 4.5", "Opus 4.5", "claude-opus-4-5", "claude-opus-4.5" },
        es = "Claude Opus 4.5 de Anthropic, el modelo insignia de la familia Claude 4.X, que ofrece capacidades de frontera en razonamiento, programación y agentes para las tareas más exigentes.",
        zh = "Anthropic 的 Claude Opus 4.5,是 Claude 4.X 系列的旗舰模型,在推理、编码和智能体能力上达到前沿水平,适用于最具挑战性的任务。",
        term_es = "Claude Opus 4.5",
        term_zh = "Claude Opus 4.5",
        aliases_es = { "Claude Opus 4.5", "Opus 4.5" },
        aliases_zh = { "Claude Opus 4.5", "Opus 4.5" },
    }
    
    data["claude sonnet 4"] = {
        short = "Anthropic's Claude Sonnet 4, the mid-tier model of the Claude 4 generation released in 2025, balancing intelligence and cost for general production workloads including coding and tool use.",
        article = nil,
        aliases = { "Claude Sonnet 4", "Sonnet 4", "claude-sonnet-4" },
        es = "Claude Sonnet 4 de Anthropic, modelo de gama media de la generación Claude 4 lanzado en 2025; equilibra inteligencia y coste para cargas de producción generales, incluida programación y uso de herramientas.",
        zh = "Anthropic 于 2025 年发布的 Claude Sonnet 4,是 Claude 4 代的中端模型,在智能与成本之间取得平衡,适用于包括编码与工具调用在内的常规生产负载。",
        term_es = "Claude Sonnet 4",
        term_zh = "Claude Sonnet 4",
        aliases_es = { "Claude Sonnet 4", "Sonnet 4" },
        aliases_zh = { "Claude Sonnet 4", "Sonnet 4" },
    }
    
    data["claude sonnet 4.5"] = {
        short = "Anthropic's Claude Sonnet 4.5, an upgraded mid-tier model in the Claude 4.X family, with improved coding, reasoning, and agentic performance over Sonnet 4 at similar cost.",
        article = nil,
        aliases = { "Claude Sonnet 4.5", "Sonnet 4.5", "claude-sonnet-4-5", "claude-sonnet-4.5" },
        es = "Claude Sonnet 4.5 de Anthropic, un modelo de gama media mejorado dentro de la familia Claude 4.X, con mejor desempeño en programación, razonamiento y capacidades agénticas frente a Sonnet 4 a un coste similar.",
        zh = "Anthropic 的 Claude Sonnet 4.5,是 Claude 4.X 系列中升级的中端模型,在编码、推理与智能体能力上较 Sonnet 4 有所提升,而成本相近。",
        term_es = "Claude Sonnet 4.5",
        term_zh = "Claude Sonnet 4.5",
        aliases_es = { "Claude Sonnet 4.5", "Sonnet 4.5" },
        aliases_zh = { "Claude Sonnet 4.5", "Sonnet 4.5" },
    }
    
    data["clausal form"] = {
        short = "A normal form in propositional or first-order logic in which a formula is expressed as a conjunction of clauses, each clause a disjunction of literals; required as input by resolution-based theorem provers and SAT solvers.",
        article = nil,
        aliases = { "clause form", "conjunctive normal form", "CNF", "clausal normal form" },
        es = "Una forma normal en lógica proposicional o de primer orden en la que una fórmula se expresa como una conjunción de cláusulas, donde cada cláusula es una disyunción de literales; requerida como entrada por los demostradores basados en resolución y los solvers SAT.",
        zh = "命题逻辑或一阶逻辑中的一种范式,将公式表示为子句的合取,而每个子句是若干文字的析取;基于归结的定理证明器和 SAT 求解器要求输入此种形式。",
        term_es = "forma clausal",
        term_zh = "子句形式",
        aliases_es = { "forma clausular", "forma normal conjuntiva", "FNC", "forma normal clausal" },
        aliases_zh = { "子句范式", "合取范式", "CNF", "子句标准形" },
    }
    
    data["clevr"] = {
        short = "A diagnostic visual question answering benchmark of rendered 3D scenes with objects of varying shape, color, size, and material, paired with templated questions designed to test compositional visual reasoning.",
        article = nil,
        aliases = { "CLEVR", "CLEVR benchmark", "CLEVR dataset", "CLEVR VQA" },
        es = "Un benchmark de diagnóstico de respuesta visual a preguntas formado por escenas 3D renderizadas con objetos de distinta forma, color, tamaño y material, junto con preguntas plantilladas diseñadas para evaluar el razonamiento visual composicional.",
        zh = "一个用于视觉问答的诊断性基准,由渲染的 3D 场景组成,场景中物体在形状、颜色、大小和材质上各异,并配有模板化问题以测试组合式视觉推理。",
        term_es = "CLEVR",
        term_zh = "CLEVR",
        aliases_es = { "CLEVR", "benchmark CLEVR", "conjunto CLEVR" },
        aliases_zh = { "CLEVR", "CLEVR 基准", "CLEVR 数据集" },
    }
    
    data["clevrer"] = {
        short = "A video benchmark of colliding objects in 3D scenes designed to evaluate descriptive, explanatory, predictive, and counterfactual reasoning about physical events, extending CLEVR from images to dynamics.",
        article = nil,
        aliases = { "CLEVRER", "CLEVRER benchmark", "CLEVRER dataset" },
        es = "Un benchmark de video con objetos que colisionan en escenas 3D, diseñado para evaluar razonamiento descriptivo, explicativo, predictivo y contrafactual sobre eventos físicos, extendiendo CLEVR de imágenes a dinámica.",
        zh = "一个视频基准,场景中的 3D 物体相互碰撞,用于评估对物理事件的描述性、解释性、预测性和反事实推理,将 CLEVR 从图像扩展到动力学。",
        term_es = "CLEVRER",
        term_zh = "CLEVRER",
        aliases_es = { "CLEVRER", "benchmark CLEVRER", "conjunto CLEVRER" },
        aliases_zh = { "CLEVRER", "CLEVRER 基准", "CLEVRER 数据集" },
    }
    
    data["click-through rate"] = {
        short = "The fraction of impressions that result in a click; the canonical objective metric in online advertising and recommendation ranking.",
        article = nil,
        aliases = { "CTR", "click through rate" },
        es = "Fracción de impresiones que resultan en un clic; la métrica objetiva canónica en publicidad en línea y clasificación de recomendaciones.",
        zh = "导致点击的展示次数比例;在线广告和推荐排序中的经典目标指标。",
        term_es = "tasa de clics",
        term_zh = "点击率",
        aliases_es = { "CTR" },
        aliases_zh = { "CTR" },
    }
    
    data["client drift"] = {
        short = "In federated learning, the divergence of locally optimized client models from the global optimum caused by multiple local SGD steps on heterogeneous (non-IID) data, which biases the aggregated update.",
        article = nil,
        aliases = { "local drift", "client-drift", "FedAvg drift" },
        es = "En aprendizaje federado, la desviación de los modelos optimizados localmente respecto al óptimo global, causada por múltiples pasos locales de SGD sobre datos heterogéneos (no IID), que sesga la actualización agregada.",
        zh = "联邦学习中,客户端在异构(非独立同分布)数据上进行多步本地 SGD 后,其优化结果与全局最优解之间的偏移,会使聚合后的更新出现偏差。",
        term_es = "desviación del cliente",
        term_zh = "客户端漂移",
        aliases_es = { "drift del cliente", "deriva del cliente", "client drift" },
        aliases_zh = { "客户端偏移", "本地漂移", "client drift" },
    }
    
    data["client drift bound"] = {
        short = "A theoretical upper bound on the distance between local client iterates and the global model after a fixed number of local steps, used in convergence proofs for federated optimization algorithms such as FedAvg and SCAFFOLD.",
        article = nil,
        aliases = { "drift bound", "local drift bound", "client-drift bound" },
        es = "Cota teórica superior sobre la distancia entre los iterados locales del cliente y el modelo global tras un número fijo de pasos locales, empleada en pruebas de convergencia de algoritmos de optimización federada como FedAvg y SCAFFOLD.",
        zh = "对客户端在若干次本地迭代后,其本地参数与全局模型之间距离的理论上界,常用于 FedAvg、SCAFFOLD 等联邦优化算法的收敛性证明。",
        term_es = "cota de desviación del cliente",
        term_zh = "客户端漂移上界",
        aliases_es = { "cota de drift del cliente", "cota de deriva local" },
        aliases_zh = { "客户端偏移上界", "本地漂移界" },
    }
    
    data["client model"] = {
        short = "The copy of the model parameters held and updated by a single participant in a federated learning round, typically initialized from the latest global model and refined via local SGD on private data.",
        article = nil,
        aliases = { "local model", "participant model" },
        es = "Copia de los parámetros del modelo que mantiene y actualiza un participante individual durante una ronda de aprendizaje federado, normalmente inicializada con el modelo global más reciente y refinada mediante SGD local sobre datos privados.",
        zh = "联邦学习中由单个参与方在一轮训练中持有并更新的模型参数副本,通常以最新的全局模型作为初始化,在本地私有数据上通过 SGD 微调。",
        term_es = "modelo del cliente",
        term_zh = "客户端模型",
        aliases_es = { "modelo local", "modelo del participante" },
        aliases_zh = { "本地模型", "参与方模型" },
    }
    
    data["client sampling"] = {
        short = "The procedure of selecting a subset of available clients to participate in each federated learning round, often uniformly at random or weighted by data size, availability, or system constraints.",
        article = nil,
        aliases = { "client selection", "participant sampling", "device sampling" },
        es = "Procedimiento de seleccionar un subconjunto de clientes disponibles para participar en cada ronda de aprendizaje federado, habitualmente de forma uniforme al azar o ponderada por tamaño de datos, disponibilidad o restricciones del sistema.",
        zh = "联邦学习中,在每一轮选取可用客户端的一个子集参与训练的过程,通常采用均匀随机抽样或按数据规模、可用性、系统约束等加权抽样。",
        term_es = "muestreo de clientes",
        term_zh = "客户端采样",
        aliases_es = { "selección de clientes", "muestreo de participantes" },
        aliases_zh = { "客户端选择", "参与方采样", "设备采样" },
    }
    
    data["client validation"] = {
        short = "Server-side checks on client-submitted updates or contributions in federated learning — e.g. norm bounding, statistical anomaly detection, or attestation — used to filter out malformed or malicious participants before aggregation.",
        article = nil,
        aliases = { "client-side validation", "update validation", "contribution validation" },
        es = "Verificaciones realizadas por el servidor sobre las actualizaciones o contribuciones enviadas por los clientes en aprendizaje federado —por ejemplo, acotamiento de norma, detección de anomalías estadísticas o atestación— para descartar participantes mal formados o maliciosos antes de la agregación.",
        zh = "联邦学习中服务器对客户端提交的更新或贡献所做的检查(如范数裁剪、统计异常检测或远程证明),用于在聚合之前过滤掉格式异常或恶意的参与者。",
        term_es = "validación de clientes",
        term_zh = "客户端验证",
        aliases_es = { "validación de actualizaciones", "validación de contribuciones" },
        aliases_zh = { "客户端校验", "更新验证", "贡献验证" },
    }
    
    data["cline agent"] = {
        short = "An open-source autonomous coding agent integrated as a Visual Studio Code extension, capable of reading and editing files, running shell commands, and using a browser under user approval.",
        article = nil,
        aliases = { "Cline", "Cline Agent", "cline" },
        es = "Agente de programación autónomo de código abierto integrado como extensión de Visual Studio Code, capaz de leer y editar archivos, ejecutar comandos de shell y usar el navegador bajo aprobación del usuario.",
        zh = "一款开源的自主编程智能体,作为 Visual Studio Code 扩展集成,可在用户批准下读取和编辑文件、运行 shell 命令以及使用浏览器。",
        term_es = "Cline",
        term_zh = "Cline",
        aliases_es = { "Cline", "agente Cline" },
        aliases_zh = { "Cline", "Cline 智能体" },
    }
    
    data["clintox"] = {
        short = "A benchmark dataset of small molecules labeled with FDA-approval status and clinical-trial toxicity outcomes, widely used to evaluate molecular property prediction models.",
        article = nil,
        aliases = { "ClinTox", "ClinTox dataset", "ClinTox benchmark" },
        es = "Conjunto de datos de referencia de moléculas pequeñas etiquetadas con su estado de aprobación por la FDA y los resultados de toxicidad en ensayos clínicos, ampliamente usado para evaluar modelos de predicción de propiedades moleculares.",
        zh = "一个小分子基准数据集,标注 FDA 批准状态和临床试验毒性结果,广泛用于评估分子性质预测模型。",
        term_es = "ClinTox",
        term_zh = "ClinTox",
        aliases_es = { "ClinTox", "conjunto ClinTox", "benchmark ClinTox" },
        aliases_zh = { "ClinTox", "ClinTox 数据集", "ClinTox 基准" },
    }
    
    data["clinvar"] = {
        short = "A public NCBI database that aggregates reports of human genetic variants and their clinical significance, supporting variant interpretation in clinical genetics and diagnostic workflows.",
        article = nil,
        aliases = { "ClinVar", "NCBI ClinVar" },
        es = "Base de datos pública del NCBI que agrega reportes de variantes genéticas humanas y su significado clínico, apoyando la interpretación de variantes en genética clínica y flujos diagnósticos.",
        zh = "美国国家生物技术信息中心(NCBI)维护的公开数据库,汇集人类遗传变异及其临床意义的报告,支持临床遗传学和诊断流程中的变异解读。",
        term_es = "ClinVar",
        term_zh = "ClinVar",
        aliases_es = { "NCBI ClinVar" },
        aliases_zh = { "NCBI ClinVar" },
    }
    
    data["clip"] = {
        short = "Contrastive Language-Image Pre-training — a model introduced by Radford et al. (OpenAI) in 2021 that jointly trains image and text encoders on 400M image-caption pairs with a contrastive objective, enabling strong zero-shot image classification.",
        article = nil,
        aliases = { "CLIP", "Contrastive Language-Image Pre-training", "Contrastive Language Image Pretraining", "OpenAI CLIP" },
        es = "Contrastive Language-Image Pre-training — modelo presentado por Radford et al. (OpenAI) en 2021 que entrena conjuntamente codificadores de imagen y texto sobre 400 millones de pares imagen-descripción con un objetivo contrastivo, permitiendo una sólida clasificación de imágenes en zero-shot.",
        zh = "Contrastive Language-Image Pre-training——由 Radford 等人(OpenAI)于 2021 年提出的模型,使用对比学习目标在 4 亿对图像-文本对上联合训练图像和文本编码器,实现强大的零样本图像分类能力。",
        term_es = "CLIP",
        term_zh = "CLIP",
        aliases_es = { "Contrastive Language-Image Pre-training", "CLIP de OpenAI" },
        aliases_zh = { "对比语言-图像预训练", "OpenAI CLIP" },
    }
    
    data["clip-fields"] = {
        short = "A method that builds an open-vocabulary 3D semantic memory of a scene by lifting CLIP and DINO features from posed RGB-D frames into a neural field, enabling natural-language queries for navigation and manipulation.",
        article = nil,
        aliases = { "CLIP-Fields", "CLIPFields" },
        es = "Método que construye una memoria semántica 3D de vocabulario abierto de una escena al elevar características de CLIP y DINO desde fotogramas RGB-D con pose conocida hacia un campo neuronal, permitiendo consultas en lenguaje natural para navegación y manipulación.",
        zh = "一种为场景构建开放词汇三维语义记忆的方法,将带姿态的RGB-D帧中CLIP与DINO特征提升到神经场中,支持以自然语言查询用于导航与操作。",
        term_es = "CLIP-Fields",
        term_zh = "CLIP-Fields",
        aliases_es = { "CLIP-Fields" },
        aliases_zh = { "CLIP-Fields" },
    }
    
    data["clip-forge"] = {
        short = "A text-to-shape generation method that learns a normalizing flow over CLIP image-feature embeddings of rendered shapes, then conditions an implicit shape decoder on text-derived CLIP embeddings at inference without paired text-shape supervision.",
        article = nil,
        aliases = { "CLIP-Forge", "CLIPForge" },
        es = "Método de generación de forma a partir de texto que aprende un flujo normalizante sobre las representaciones de CLIP de formas renderizadas y luego condiciona un decodificador implícito de forma con embeddings CLIP derivados del texto, sin requerir supervisión emparejada texto-forma.",
        zh = "一种文本到三维形状生成方法,先在渲染形状的CLIP图像特征上学习归一化流,推理时再以文本派生的CLIP嵌入条件化隐式形状解码器,无需文本-形状配对监督。",
        term_es = "CLIP-Forge",
        term_zh = "CLIP-Forge",
        aliases_es = { "CLIP-Forge" },
        aliases_zh = { "CLIP-Forge" },
    }
    
    data["clip-italian"] = {
        short = "An Italian-language adaptation of CLIP trained on Italian image-text pairs, providing zero-shot image classification and cross-modal retrieval for Italian text without relying on machine-translated English captions.",
        article = nil,
        aliases = { "CLIP-Italian", "Italian CLIP", "clip italian" },
        es = "Adaptación al italiano de CLIP entrenada sobre pares imagen-texto en italiano, que ofrece clasificación de imágenes y recuperación intermodal en cero disparos para texto en italiano sin depender de subtítulos en inglés traducidos automáticamente.",
        zh = "面向意大利语的CLIP改编模型,使用意大利语图文对训练,可在意大利语文本上进行零样本图像分类与跨模态检索,无需依赖机器翻译的英文字幕。",
        term_es = "CLIP-Italian",
        term_zh = "CLIP-Italian",
        aliases_es = { "CLIP italiano", "CLIP en italiano" },
        aliases_zh = { "意大利语CLIP" },
    }
    
    data["clip-mesh"] = {
        short = "A text-driven 3D content generation method that optimizes the vertex positions, texture map, and normal map of a mesh so that views rendered through a differentiable renderer maximize CLIP similarity to a target text prompt.",
        article = nil,
        aliases = { "CLIP-Mesh", "CLIPMesh" },
        es = "Método de generación de contenido 3D guiado por texto que optimiza las posiciones de vértices, el mapa de textura y el mapa de normales de una malla para que las vistas renderizadas mediante un renderizador diferenciable maximicen la similitud CLIP con un texto objetivo.",
        zh = "一种由文本驱动的三维内容生成方法,通过可微渲染器渲染网格视图,并对其顶点位置、纹理贴图和法线贴图进行优化,使其与目标文本提示的CLIP相似度最大化。",
        term_es = "CLIP-Mesh",
        term_zh = "CLIP-Mesh",
        aliases_es = { "CLIP-Mesh" },
        aliases_zh = { "CLIP-Mesh" },
    }
    
    data["clip-seq"] = {
        short = "Crosslinking and immunoprecipitation followed by sequencing, a family of techniques (HITS-CLIP, PAR-CLIP, iCLIP, eCLIP) that map RNA-protein binding sites transcriptome-wide at near-nucleotide resolution.",
        article = nil,
        aliases = { "CLIP-seq", "CLIP sequencing", "crosslinking immunoprecipitation sequencing" },
        es = "Entrecruzamiento e inmunoprecipitación seguidos de secuenciación, familia de técnicas (HITS-CLIP, PAR-CLIP, iCLIP, eCLIP) que mapean sitios de unión RNA-proteína en todo el transcriptoma con resolución cercana al nucleótido.",
        zh = "交联免疫共沉淀结合测序,一组技术(HITS-CLIP、PAR-CLIP、iCLIP、eCLIP)以接近核苷酸的分辨率在全转录组范围内绘制 RNA-蛋白质结合位点。",
        term_es = "CLIP-seq",
        term_zh = "CLIP-seq",
        aliases_es = { "secuenciación CLIP", "inmunoprecipitación con entrecruzamiento y secuenciación" },
        aliases_zh = { "交联免疫共沉淀测序", "CLIP 测序" },
    }
    
    data["clip4caption"] = {
        short = "A video captioning framework that uses CLIP image-text matching to fine-tune a video encoder for caption generation, producing visual features that are well aligned with caption-style text.",
        article = nil,
        aliases = { "CLIP4Caption" },
        es = "Marco de generación de subtítulos de vídeo que utiliza el emparejamiento imagen-texto de CLIP para ajustar un codificador de vídeo, produciendo características visuales bien alineadas con texto en estilo de subtítulo.",
        zh = "一种视频字幕生成框架,利用CLIP的图文匹配信号微调视频编码器,使其产生与字幕风格文本良好对齐的视觉特征。",
        term_es = "CLIP4Caption",
        term_zh = "CLIP4Caption",
        aliases_es = { "CLIP4Caption" },
        aliases_zh = { "CLIP4Caption" },
    }
    
    data["clip4clip"] = {
        short = "A video-text retrieval model that transfers CLIP's image-text representations to video by aggregating per-frame CLIP features through mean pooling, sequential transformers, or tight cross-attention.",
        article = nil,
        aliases = { "CLIP4Clip" },
        es = "Modelo de recuperación vídeo-texto que transfiere las representaciones imagen-texto de CLIP al vídeo agregando características CLIP por fotograma mediante promediado, transformadores secuenciales o atención cruzada estrecha.",
        zh = "一种视频-文本检索模型,将CLIP的图文表示迁移到视频,通过均值池化、序列Transformer或紧耦合的交叉注意力聚合逐帧CLIP特征。",
        term_es = "CLIP4Clip",
        term_zh = "CLIP4Clip",
        aliases_es = { "CLIP4Clip" },
        aliases_zh = { "CLIP4Clip" },
    }
    
    data["clipasso"] = {
        short = "A photo-to-sketch method that represents a sketch as a set of differentiable Bézier curves and optimizes their parameters to minimize a CLIP-based perceptual distance to the input image, producing semantically faithful abstract sketches.",
        article = nil,
        aliases = { "CLIPasso", "CLIPAsso" },
        es = "Método de conversión de foto a boceto que representa el boceto como un conjunto de curvas de Bézier diferenciables y optimiza sus parámetros para minimizar una distancia perceptual basada en CLIP frente a la imagen de entrada, produciendo bocetos abstractos semánticamente fieles.",
        zh = "一种由照片生成草图的方法,将草图表示为一组可微贝塞尔曲线,通过优化其参数最小化与输入图像的CLIP感知距离,从而生成语义忠实的抽象草图。",
        term_es = "CLIPasso",
        term_zh = "CLIPasso",
        aliases_es = { "CLIPasso" },
        aliases_zh = { "CLIPasso" },
    }
    
    data["clipbert"] = {
        short = "A video-and-language learning framework that fine-tunes end-to-end from raw video frames using sparse clip sampling, demonstrating that a few short clips per video are sufficient and outperform dense pre-extracted features.",
        article = nil,
        aliases = { "ClipBERT" },
        es = "Marco de aprendizaje vídeo-lenguaje que ajusta de extremo a extremo a partir de fotogramas de vídeo crudos mediante muestreo disperso de clips, demostrando que basta con unos pocos clips cortos por vídeo y que superan a las características preextraídas densas.",
        zh = "一种视频-语言学习框架,从原始视频帧端到端微调,采用稀疏片段采样,证明每个视频只需少量短片段即可,且优于密集预提取特征。",
        term_es = "ClipBERT",
        term_zh = "ClipBERT",
        aliases_es = { "ClipBERT" },
        aliases_zh = { "ClipBERT" },
    }
    
    data["clipcap"] = {
        short = "An image captioning model that maps CLIP image embeddings into a sequence of pseudo-token prefixes via a small mapping network and feeds them to a frozen GPT-2 to autoregressively generate captions.",
        article = nil,
        aliases = { "ClipCap", "CLIPCap" },
        es = "Modelo de generación de subtítulos de imágenes que mapea los embeddings de imagen de CLIP a una secuencia de prefijos pseudo-token mediante una pequeña red de mapeo y los entrega a un GPT-2 congelado para generar subtítulos de forma autorregresiva.",
        zh = "一种图像描述生成模型,通过一个小型映射网络将CLIP图像嵌入映射为一组伪token前缀,再输入冻结的GPT-2自回归地生成描述。",
        term_es = "ClipCap",
        term_zh = "ClipCap",
        aliases_es = { "ClipCap" },
        aliases_zh = { "ClipCap" },
    }
    
    data["clipdraw"] = {
        short = "A text-to-drawing synthesis method that optimizes the parameters of differentiable vector strokes so that the rasterized image maximizes CLIP cosine similarity with a target text prompt, requiring no training.",
        article = nil,
        aliases = { "CLIPDraw", "CLIP-Draw" },
        es = "Método de síntesis de dibujo a partir de texto que optimiza los parámetros de trazos vectoriales diferenciables para que la imagen rasterizada maximice la similitud coseno de CLIP con un texto objetivo, sin necesidad de entrenamiento.",
        zh = "一种文本到绘画合成方法,对可微矢量笔触的参数进行优化,使其栅格化图像与目标文本提示的CLIP余弦相似度最大化,且无需训练。",
        term_es = "CLIPDraw",
        term_zh = "CLIPDraw",
        aliases_es = { "CLIPDraw" },
        aliases_zh = { "CLIPDraw" },
    }
    
    data["clipping weights"] = {
        short = "A stabilization technique in inverse-probability and importance-sampling estimators that caps extreme weights at a threshold to reduce variance, at the cost of introducing bias; common in propensity-score and off-policy evaluation methods.",
        article = nil,
        aliases = { "weight clipping", "clipped weights", "trimmed weights", "winsorized weights", "weight truncation", "truncated IPW", "clipped IPW", "clipped importance weights" },
        es = "Técnica de estabilización empleada en estimadores de probabilidad inversa y de muestreo de importancia que recorta los pesos extremos en un umbral para reducir la varianza, a costa de introducir sesgo; es común en los métodos de puntaje de propensión y en la evaluación fuera de política.",
        zh = "一种用于逆概率加权和重要性采样估计器的稳定化技术,将极端权重在某一阈值处截断以降低方差,但会引入偏差;在倾向得分方法和离线策略评估中较为常见。",
        term_es = "recorte de pesos",
        term_zh = "权重截断",
        aliases_es = { "pesos recortados", "truncamiento de pesos", "winsorización de pesos", "IPW truncado" },
        aliases_zh = { "截断权重", "权重裁剪", "重要性权重截断", "截断 IPW" },
    }
    
    data["clipscore"] = {
        short = "A reference-free image captioning evaluation metric defined as a rescaled cosine similarity between CLIP embeddings of the candidate caption and the image, correlating well with human judgments of caption quality.",
        article = nil,
        aliases = { "CLIPScore", "CLIP-S", "CLIP score" },
        es = "Métrica de evaluación de subtítulos de imágenes sin referencia, definida como una similitud coseno reescalada entre los embeddings CLIP del subtítulo candidato y de la imagen, que correlaciona bien con los juicios humanos de calidad del subtítulo.",
        zh = "一种无需参考字幕的图像描述评估指标,定义为候选字幕与图像的CLIP嵌入之间的重缩放余弦相似度,与人类对字幕质量的判断有较高相关性。",
        term_es = "CLIPScore",
        term_zh = "CLIPScore",
        aliases_es = { "CLIPScore", "puntuación CLIP" },
        aliases_zh = { "CLIPScore", "CLIP分数" },
    }
    
    data["clique"] = {
        short = "In a graph, a subset of vertices in which every pair is connected by an edge; in undirected probabilistic graphical models, cliques (typically maximal ones) define the factor scopes of a Gibbs distribution.",
        article = nil,
        aliases = { "complete subgraph", "maximal clique" },
        es = "En un grafo, un subconjunto de vértices en el que cada par está conectado por una arista; en modelos gráficos no dirigidos, las cliques (típicamente las maximales) definen los ámbitos de los factores de una distribución de Gibbs.",
        zh = "在图中,每对顶点都有边相连的顶点子集;在无向概率图模型中,团(通常为极大团)定义吉布斯分布的因子作用域。",
        term_es = "clique",
        term_zh = "团",
        aliases_es = { "subgrafo completo", "clique maximal" },
        aliases_zh = { "完全子图", "极大团", "clique" },
    }
    
    data["clique potential"] = {
        short = "A non-negative function over the variables of a clique in a Markov network whose product across cliques (after normalization) yields the joint distribution.",
        article = nil,
        aliases = { "potential function", "clique factor", "Markov network potential" },
        es = "Función no negativa sobre las variables de una clique de una red de Markov cuyo producto sobre las cliques (tras normalización) define la distribución conjunta.",
        zh = "马尔可夫网络中定义在团变量上的非负函数,所有团势函数的乘积经归一化后给出联合分布。",
        term_es = "potencial de clique",
        term_zh = "团势函数",
        aliases_es = { "función potencial", "factor de clique" },
        aliases_zh = { "势函数", "团因子", "clique 势" },
    }
    
    data["clique tree"] = {
        short = "A tree-structured cluster graph whose nodes are cliques covering the factors of a graphical model and that satisfies the running-intersection property; used for exact inference via belief propagation.",
        article = nil,
        aliases = { "junction tree", "join tree", "tree of cliques" },
        es = "Grafo de clusters con estructura de árbol cuyos nodos son cliques que cubren los factores de un modelo gráfico y que satisface la propiedad de intersección continua; se usa para inferencia exacta mediante propagación de creencias.",
        zh = "一种树状簇图,其节点为覆盖图模型因子的团并满足运行交集性质,用于通过信念传播进行精确推断。",
        term_es = "árbol de cliques",
        term_zh = "团树",
        aliases_es = { "árbol de unión", "junction tree" },
        aliases_zh = { "联合树", "junction tree", "连接树" },
    }
    
    data["clique tree calibration"] = {
        short = "The state of a clique tree in which the marginals computed at every clique agree on their shared separator variables; achieved by two passes of sum-product or belief-propagation messages.",
        article = nil,
        aliases = { "junction tree calibration", "calibrated clique tree", "tree calibration" },
        es = "Estado de un árbol de cliques en el que los marginales calculados en cada clique coinciden en las variables separadoras compartidas; se alcanza mediante dos pasadas de mensajes suma-producto o de propagación de creencias.",
        zh = "团树的一种状态,在该状态下每个团上计算的边缘分布在共享分隔变量上一致;通过两次和-积或信念传播消息传递实现。",
        term_es = "calibración del árbol de cliques",
        term_zh = "团树校准",
        aliases_es = { "calibración del árbol de unión", "árbol de cliques calibrado" },
        aliases_zh = { "联合树校准", "团树标定" },
    }
    
    data["clonal analysis"] = {
        short = "The reconstruction and quantification of clonal lineages within a tumor or tissue, typically using somatic mutations, copy-number changes, or lineage barcodes to infer subclonal structure and evolution.",
        article = nil,
        aliases = { "clonality analysis", "subclonal analysis", "tumor clonality analysis", "clonal reconstruction" },
        es = "Reconstrucción y cuantificación de linajes clonales dentro de un tumor o tejido, típicamente usando mutaciones somáticas, cambios en el número de copias o códigos de barras de linaje para inferir la estructura y evolución subclonal.",
        zh = "重建并量化肿瘤或组织内克隆谱系的过程,通常利用体细胞突变、拷贝数变化或谱系条形码推断亚克隆结构与演化。",
        term_es = "análisis clonal",
        term_zh = "克隆分析",
        aliases_es = { "análisis de clonalidad", "análisis subclonal", "reconstrucción clonal" },
        aliases_zh = { "克隆性分析", "亚克隆分析", "克隆重建" },
    }
    
    data["closed-loop drug discovery"] = {
        short = "An iterative discovery paradigm in which machine-learning models, automated synthesis, and biological assays are coupled into a feedback loop that proposes, makes, and tests molecules with minimal human intervention.",
        article = nil,
        aliases = { "closed loop drug discovery", "autonomous drug discovery", "self-driving lab for drug discovery", "DMTA loop", "design-make-test-analyze loop" },
        es = "Paradigma iterativo en el que modelos de aprendizaje automático, síntesis automatizada y ensayos biológicos se acoplan en un bucle de retroalimentación que propone, sintetiza y evalúa moléculas con mínima intervención humana.",
        zh = "一种迭代式药物发现范式,将机器学习模型、自动化合成和生物测定耦合为反馈闭环,在最少人工干预下提出、合成并测试分子。",
        term_es = "descubrimiento de fármacos en bucle cerrado",
        term_zh = "闭环药物发现",
        aliases_es = { "descubrimiento autónomo de fármacos", "bucle DMTA", "ciclo diseño-síntesis-prueba-análisis" },
        aliases_zh = { "自主药物发现", "DMTA 循环", "设计-合成-测试-分析循环" },
    }
    
    data["closed-world assumption"] = {
        short = "An inference convention in databases and knowledge bases under which any fact not explicitly known to be true is treated as false; contrasts with the open-world assumption used in OWL and many knowledge graphs.",
        article = nil,
        aliases = { "CWA", "closed world assumption", "closed-world reasoning" },
        es = "Una convención de inferencia en bases de datos y bases de conocimiento según la cual cualquier hecho que no se sepa explícitamente como verdadero se considera falso; se contrapone a la hipótesis del mundo abierto usada en OWL y en muchos grafos de conocimiento.",
        zh = "数据库和知识库中的一种推理约定,认为任何未被显式标记为真的事实都视为假;与 OWL 及许多知识图谱所采用的开放世界假设相对。",
        term_es = "hipótesis del mundo cerrado",
        term_zh = "封闭世界假设",
        aliases_es = { "CWA", "asunción del mundo cerrado", "supuesto del mundo cerrado" },
        aliases_zh = { "CWA", "封闭世界假定", "闭世界假设" },
    }
    
    data["clrs benchmark"] = {
        short = "The CLRS Algorithmic Reasoning Benchmark, a DeepMind suite of 30 classical algorithms (sorting, graph search, dynamic programming, etc., from the CLRS textbook) used to evaluate neural networks' ability to learn algorithmic procedures.",
        article = nil,
        aliases = { "CLRS", "CLRS-30", "CLRS Algorithmic Reasoning Benchmark", "CLRS benchmark" },
        es = "El CLRS Algorithmic Reasoning Benchmark, una suite de DeepMind con 30 algoritmos clásicos (ordenación, búsqueda en grafos, programación dinámica, etc., del libro CLRS) utilizada para evaluar la capacidad de las redes neuronales de aprender procedimientos algorítmicos.",
        zh = "DeepMind 提出的 CLRS 算法推理基准,包含 30 个经典算法(排序、图搜索、动态规划等,均出自《算法导论》CLRS),用于评估神经网络学习算法过程的能力。",
        term_es = "benchmark CLRS",
        term_zh = "CLRS 基准",
        aliases_es = { "CLRS", "CLRS-30", "benchmark de razonamiento algorítmico CLRS" },
        aliases_zh = { "CLRS", "CLRS-30", "CLRS 算法推理基准" },
    }
    
    data["cls token"] = {
        short = "A special classification token prepended to the input of transformer encoders such as BERT, whose final hidden state is used as an aggregate sequence representation for downstream classification tasks.",
        article = nil,
        aliases = { "[CLS]", "CLS token", "[CLS] token", "classification token" },
        es = "Token especial de clasificación que se antepone a la entrada de codificadores transformer como BERT, cuyo estado oculto final se usa como representación agregada de la secuencia para tareas de clasificación posteriores.",
        zh = "在 BERT 等 Transformer 编码器输入前添加的特殊分类 token,其最终隐藏状态用作整段序列的聚合表示,用于下游分类任务。",
        term_es = "token CLS",
        term_zh = "CLS token",
        aliases_es = { "[CLS]", "token de clasificación", "token [CLS]" },
        aliases_zh = { "[CLS]", "[CLS] 标记", "分类标记", "分类 token" },
    }
    
    data["clustal omega"] = {
        short = "A widely used multiple sequence alignment program that aligns DNA, RNA, or protein sequences using seeded guide trees and HMM profile-profile techniques, scaling to thousands of sequences.",
        article = nil,
        aliases = { "Clustal Omega", "ClustalO", "clustalo", "Clustal-Omega" },
        es = "Programa de alineamiento múltiple de secuencias ampliamente utilizado que alinea secuencias de ADN, ARN o proteínas mediante árboles guía seedados y técnicas perfil-perfil basadas en HMM, escalando a miles de secuencias.",
        zh = "一种广泛使用的多序列比对程序,使用种子化引导树和基于 HMM 的 profile-profile 技术比对 DNA、RNA 或蛋白质序列,可扩展至数千条序列。",
        term_es = "Clustal Omega",
        term_zh = "Clustal Omega",
        aliases_es = { "ClustalO", "clustalo" },
        aliases_zh = { "ClustalO", "clustalo" },
    }
    
    data["cluster graph"] = {
        short = "An undirected graph whose nodes are clusters of variables and whose edges carry separator sets, used as a generalized message-passing data structure for exact (clique tree) or approximate (loopy) inference.",
        article = nil,
        aliases = { "generalized cluster graph", "region graph" },
        es = "Grafo no dirigido cuyos nodos son clusters de variables y cuyas aristas portan conjuntos separadores, utilizado como estructura generalizada de paso de mensajes para inferencia exacta (árbol de cliques) o aproximada (loopy).",
        zh = "一种无向图,其节点为变量簇、边附带分隔集,作为广义消息传递的数据结构用于精确(团树)或近似(带环)推断。",
        term_es = "grafo de clusters",
        term_zh = "簇图",
        aliases_es = { "grafo de regiones", "cluster graph" },
        aliases_zh = { "聚类图", "区域图", "cluster graph" },
    }
    
    data["cluster randomized trial"] = {
        short = "A randomized experiment in which intact groups (clusters) such as schools, clinics, or villages are assigned to treatment or control rather than individuals, requiring analyses that account for within-cluster correlation.",
        article = nil,
        aliases = { "CRT", "cluster RCT", "group randomized trial", "cluster randomised trial", "cluster-randomized trial", "cluster randomized controlled trial" },
        es = "Ensayo aleatorizado en el que se asignan al tratamiento o al control grupos completos (clústeres), como escuelas, clínicas o aldeas, en lugar de individuos, lo que exige análisis que tengan en cuenta la correlación intraclúster.",
        zh = "一种将完整群体(例如学校、诊所或村庄)而非个体随机分配到处理组或对照组的随机试验,分析时必须考虑群内相关性。",
        term_es = "ensayo aleatorizado por conglomerados",
        term_zh = "整群随机试验",
        aliases_es = { "ECA por conglomerados", "ensayo aleatorizado de grupos", "ensayo aleatorizado por clústeres", "ensayo aleatorizado por grupos" },
        aliases_zh = { "整群随机对照试验", "群组随机试验", "集群随机试验", "整群 RCT" },
    }
    
    data["cluster variation method"] = {
        short = "A region-based generalization of mean-field approximation that minimizes the Kikuchi free energy over overlapping clusters, recovering Bethe and exact free energies as special cases.",
        article = nil,
        aliases = { "CVM", "Kikuchi approximation", "Kikuchi free energy method", "region-based free energy" },
        es = "Generalización del campo medio basada en regiones que minimiza la energía libre de Kikuchi sobre clusters solapados, recuperando como casos especiales las energías libres de Bethe y exacta.",
        zh = "基于区域的均场近似推广方法,在重叠簇上最小化菊池自由能,并将贝特自由能和精确自由能作为特例。",
        term_es = "método de variación de clusters",
        term_zh = "簇变分法",
        aliases_es = { "aproximación de Kikuchi", "energía libre de Kikuchi" },
        aliases_zh = { "菊池近似", "Kikuchi 自由能法", "区域自由能法" },
    }
    
    data["cluster-level treatment"] = {
        short = "An intervention assigned at the cluster (group) level rather than to individual units, so that all members of a cluster receive the same treatment status; central to cluster randomized trials and group-level policy evaluations.",
        article = nil,
        aliases = { "cluster-level intervention", "group-level treatment", "cluster level treatment", "cluster-level exposure", "group-assigned treatment" },
        es = "Intervención asignada a nivel de clúster (grupo) y no a nivel individual, de modo que todos los miembros de un clúster reciben el mismo estado de tratamiento; es central en los ensayos aleatorizados por conglomerados y en las evaluaciones de políticas a nivel de grupo.",
        zh = "在群体(簇)层面而非个体层面分配的干预,使同一群体内所有成员处于相同的处理状态;是整群随机试验和群体层面政策评估的核心概念。",
        term_es = "tratamiento a nivel de conglomerado",
        term_zh = "群体层面处理",
        aliases_es = { "intervención a nivel de clúster", "tratamiento de grupo", "tratamiento asignado por conglomerado" },
        aliases_zh = { "整群处理", "簇级处理", "组级处理", "集群层面干预" },
    }
    
    data["clustered federated learning"] = {
        short = "A personalized federated learning paradigm that partitions clients into clusters of similar data distributions and trains a separate model per cluster, balancing collaboration with heterogeneity.",
        article = nil,
        aliases = { "CFL", "clustered FL", "federated clustering" },
        es = "Paradigma de aprendizaje federado personalizado que agrupa a los clientes en grupos con distribuciones de datos similares y entrena un modelo separado por grupo, equilibrando la colaboración con la heterogeneidad.",
        zh = "一种个性化联邦学习范式:将数据分布相似的客户端划分为若干簇,并为每个簇训练一个独立的模型,在协作与异构性之间取得平衡。",
        term_es = "aprendizaje federado por clústeres",
        term_zh = "聚类联邦学习",
        aliases_es = { "CFL", "FL por clústeres", "aprendizaje federado agrupado" },
        aliases_zh = { "CFL", "簇式联邦学习", "分簇联邦学习" },
    }
    
    data["clustering-based diarization"] = {
        short = "A speaker diarization approach that segments audio into short windows, extracts speaker embeddings, and groups them with clustering algorithms (such as agglomerative or spectral clustering) to assign speaker labels.",
        article = nil,
        aliases = { "clustering based diarization", "embedding clustering diarization", "cluster-based speaker diarization" },
        es = "Enfoque de diarización de hablantes que segmenta el audio en ventanas cortas, extrae representaciones de hablante y las agrupa mediante algoritmos de clustering (por ejemplo, aglomerativo o espectral) para asignar etiquetas de hablante.",
        zh = "一种基于聚类的说话人日志方法,将音频切分为短窗口,提取说话人嵌入,并通过聚类算法(如层次聚类或谱聚类)对其进行分组以分配说话人标签。",
        term_es = "diarización basada en clustering",
        term_zh = "基于聚类的说话人日志",
        aliases_es = { "diarización por clustering", "diarización basada en agrupamiento" },
        aliases_zh = { "聚类说话人日志", "基于聚类的说话人分离" },
    }
    
    data["cluttr benchmark"] = {
        short = "A diagnostic benchmark of short kinship-relation stories that tests systematic generalization of relational reasoning, by evaluating models on relation chains longer than those seen during training.",
        article = nil,
        aliases = { "CLUTRR", "CLUTRR benchmark", "CLUTRR dataset" },
        es = "Un benchmark diagnóstico compuesto por historias cortas de relaciones de parentesco que evalúa la generalización sistemática del razonamiento relacional, sometiendo a los modelos a cadenas de relaciones más largas que las vistas durante el entrenamiento.",
        zh = "一个诊断性基准,由描述亲属关系的短故事组成,通过让模型处理比训练时更长的关系链来测试关系推理的系统性泛化能力。",
        term_es = "CLUTRR",
        term_zh = "CLUTRR",
        aliases_es = { "CLUTRR", "benchmark CLUTRR", "conjunto CLUTRR" },
        aliases_zh = { "CLUTRR", "CLUTRR 基准", "CLUTRR 数据集" },
    }
    
    data["cma-es"] = {
        short = "Covariance Matrix Adaptation Evolution Strategy, a stochastic, derivative-free optimizer for continuous spaces that adapts the covariance of its sampling distribution to track the local geometry of the objective.",
        article = nil,
        aliases = { "CMA-ES", "CMA ES", "Covariance Matrix Adaptation Evolution Strategy", "covariance matrix adaptation" },
        es = "Estrategia de evolución con adaptación de la matriz de covarianza, optimizador estocástico sin derivadas para espacios continuos que adapta la covarianza de su distribución de muestreo para seguir la geometría local del objetivo.",
        zh = "协方差矩阵自适应进化策略,一种用于连续空间的无导数随机优化方法,通过自适应调整采样分布的协方差矩阵来追踪目标函数的局部几何特征。",
        term_es = "CMA-ES",
        term_zh = "CMA-ES",
        aliases_es = { "estrategia evolutiva con adaptación de matriz de covarianza", "adaptación de matriz de covarianza" },
        aliases_zh = { "协方差矩阵自适应进化策略", "协方差矩阵自适应" },
    }
    
    data["cmmlu"] = {
        short = "Chinese Massive Multitask Language Understanding, a benchmark of multiple-choice questions across 67 subjects in Mandarin Chinese designed to evaluate the knowledge and reasoning of LLMs in the Chinese context.",
        article = nil,
        aliases = { "CMMLU", "Chinese Massive Multitask Language Understanding" },
        es = "Chinese Massive Multitask Language Understanding (CMMLU), un benchmark de preguntas de opción múltiple sobre 67 materias en chino mandarín, diseñado para evaluar el conocimiento y razonamiento de LLM en el contexto chino.",
        zh = "中文大规模多任务语言理解评测(CMMLU),涵盖 67 个学科的中文多项选择题基准,用于评估大语言模型在中文语境下的知识与推理能力。",
        term_es = "CMMLU",
        term_zh = "CMMLU",
        aliases_es = { "CMMLU" },
        aliases_zh = { "CMMLU", "中文大规模多任务语言理解" },
    }
    
    data["cmos"] = {
        short = "Comparative Mean Opinion Score: a subjective evaluation metric for speech synthesis in which listeners rate the relative quality of two systems on a scale (typically -3 to +3), reported as the average preference.",
        article = nil,
        aliases = { "CMOS", "comparative mean opinion score", "comparison MOS" },
        es = "Puntuación de opinión media comparativa (Comparative Mean Opinion Score): métrica de evaluación subjetiva de la síntesis del habla en la que los oyentes valoran la calidad relativa de dos sistemas en una escala (normalmente de -3 a +3) y se reporta la preferencia media.",
        zh = "比较平均意见分(Comparative Mean Opinion Score):语音合成的一种主观评测指标,听音者在某个尺度(通常为 -3 到 +3)上对两个系统的相对质量进行评分,报告平均偏好得分。",
        term_es = "CMOS",
        term_zh = "CMOS",
        aliases_es = { "puntuación de opinión media comparativa", "MOS comparativo" },
        aliases_zh = { "比较平均意见分", "对比 MOS", "比较 MOS" },
    }
    
    data["cnaps"] = {
        short = "Conditional Neural Adaptive Processes, a few-shot meta-learning model that adapts a feature extractor to each task by predicting per-layer FiLM-style modulation parameters from the support set.",
        article = nil,
        aliases = { "CNAPs", "Conditional Neural Adaptive Processes" },
        es = "Procesos neuronales adaptativos condicionales, modelo de meta-aprendizaje de pocas muestras que adapta un extractor de características a cada tarea prediciendo parámetros de modulación tipo FiLM por capa a partir del conjunto de soporte.",
        zh = "条件神经自适应过程,一种少样本元学习模型,从支持集中预测每层FiLM式调制参数,从而对每个任务自适应特征提取器。",
        term_es = "CNAPs",
        term_zh = "CNAPs",
        aliases_es = { "procesos neuronales adaptativos condicionales" },
        aliases_zh = { "条件神经自适应过程" },
    }
    
    data["co-attention"] = {
        short = "A multimodal attention mechanism that jointly attends to two modalities by computing affinity between their token sequences and using it to produce attention weights in both directions, widely used in visual question answering.",
        article = nil,
        aliases = { "coattention", "co attention", "joint attention", "parallel co-attention", "alternating co-attention" },
        es = "Mecanismo de atención multimodal que atiende conjuntamente a dos modalidades calculando una afinidad entre sus secuencias de tokens y usándola para producir pesos de atención en ambas direcciones; muy utilizado en respuesta visual a preguntas.",
        zh = "一种多模态注意力机制,通过计算两种模态token序列之间的亲和度,并据此在两个方向上生成注意力权重以同时关注两种模态;在视觉问答中广泛使用。",
        term_es = "co-atención",
        term_zh = "协同注意力",
        aliases_es = { "coatención", "atención conjunta" },
        aliases_zh = { "co-attention", "联合注意力", "共同注意力" },
    }
    
    data["coalescent theory"] = {
        short = "A retrospective population-genetics framework that models the genealogy of sampled lineages backward in time to their most recent common ancestor, underpinning inference of effective population size, migration, and demographic history.",
        article = nil,
        aliases = { "the coalescent", "Kingman coalescent", "coalescent model", "coalescent" },
        es = "Marco retrospectivo de genética de poblaciones que modela la genealogía de los linajes muestreados hacia atrás en el tiempo hasta su ancestro común más reciente, base para la inferencia del tamaño efectivo poblacional, la migración y la historia demográfica.",
        zh = "群体遗传学的回溯性框架,通过将采样谱系沿时间反向追踪至最近共同祖先来建模其家系,是有效种群大小、迁移与人口历史推断的基础。",
        term_es = "teoría del coalescente",
        term_zh = "聚合理论",
        aliases_es = { "coalescente", "modelo coalescente", "coalescente de Kingman" },
        aliases_zh = { "合并理论", "Kingman 聚合", "聚合模型" },
    }
    
    data["coarse-grained md"] = {
        short = "A molecular dynamics simulation in which groups of atoms are represented as single interaction sites (beads), trading atomistic detail for access to longer time and length scales.",
        article = nil,
        aliases = { "coarse-grained molecular dynamics", "CG-MD", "CGMD", "coarse grained MD", "coarse-grained simulation" },
        es = "Simulación de dinámica molecular en la que grupos de átomos se representan como sitios de interacción únicos (perlas), sacrificando detalle atomístico para acceder a escalas de tiempo y longitud mayores.",
        zh = "一种分子动力学模拟,将原子团表示为单个相互作用位点(粗粒珠),以牺牲原子级细节换取更长的时间和空间尺度。",
        term_es = "dinámica molecular de grano grueso",
        term_zh = "粗粒化分子动力学",
        aliases_es = { "dinámica molecular de grano grueso", "MD de grano grueso", "CG-MD" },
        aliases_zh = { "粗粒化 MD", "CG-MD", "粗粒度分子动力学" },
    }
    
    data["coarsened exact matching"] = {
        short = "A nonparametric matching method that temporarily coarsens covariates into bins, performs exact matching on the coarsened values, and then analyzes the original values within matched strata to balance treatment and control groups.",
        article = nil,
        aliases = { "CEM", "coarsened-exact matching", "Iacus King Porro matching", "monotonic imbalance bounding matching" },
        es = "Método no paramétrico de emparejamiento que discretiza temporalmente las covariables en categorías, realiza un emparejamiento exacto sobre los valores discretizados y luego analiza los valores originales dentro de los estratos emparejados para equilibrar los grupos de tratamiento y control.",
        zh = "一种非参数匹配方法:先将协变量临时离散为若干区间,在离散化后的值上进行精确匹配,再在匹配层内使用原始值进行分析,以平衡处理组和对照组。",
        term_es = "emparejamiento exacto coarsened",
        term_zh = "粗化精确匹配",
        aliases_es = { "CEM", "emparejamiento exacto por discretización", "matching exacto coarsened" },
        aliases_zh = { "CEM", "粗化精确配对", "粗化精确匹配方法", "Iacus-King-Porro 匹配" },
    }
    
    data["coca"] = {
        short = "Contrastive Captioner: a vision-language foundation model from Google that jointly trains an image-text contrastive loss and an autoregressive captioning loss in a single encoder-decoder architecture, achieving strong zero-shot and captioning performance.",
        article = nil,
        aliases = { "CoCa", "Contrastive Captioner", "Contrastive Captioners" },
        es = "Contrastive Captioner: modelo fundacional visión-lenguaje de Google que entrena conjuntamente una pérdida contrastiva imagen-texto y una pérdida de generación autorregresiva de subtítulos en una única arquitectura codificador-decodificador, logrando un fuerte desempeño en cero disparos y en generación de subtítulos.",
        zh = "Contrastive Captioner(对比式字幕模型):Google提出的视觉-语言基础模型,在单一编码器-解码器架构中联合训练图文对比损失与自回归字幕损失,在零样本和字幕生成任务上均表现优异。",
        term_es = "CoCa",
        term_zh = "CoCa",
        aliases_es = { "CoCa", "Contrastive Captioner" },
        aliases_zh = { "CoCa", "对比式字幕模型" },
    }
    
    data["coco captions"] = {
        short = "An image captioning dataset built on top of MS-COCO that provides five English captions per image written by human annotators for roughly 123,000 images, widely used as the standard benchmark for caption generation.",
        article = nil,
        aliases = { "COCO Captions", "MS COCO Captions", "MSCOCO Captions", "COCO captioning dataset" },
        es = "Conjunto de datos de generación de subtítulos basado en MS-COCO que proporciona cinco subtítulos en inglés por imagen escritos por anotadores humanos para aproximadamente 123 000 imágenes, ampliamente utilizado como referencia estándar para la generación de subtítulos.",
        zh = "构建在MS-COCO之上的图像描述数据集,约12.3万张图像,每张由人工标注五条英文描述,是图像描述生成任务的标准基准。",
        term_es = "COCO Captions",
        term_zh = "COCO Captions",
        aliases_es = { "COCO Captions", "subtítulos de COCO" },
        aliases_zh = { "COCO Captions", "COCO字幕数据集" },
    }
    
    data["coco karpathy split"] = {
        short = "The de facto train/validation/test partition of the COCO Captions dataset introduced by Andrej Karpathy and Li Fei-Fei, using 113,287 training, 5,000 validation, and 5,000 test images, ensuring comparable results across captioning papers.",
        article = nil,
        aliases = { "Karpathy split", "COCO Karpathy split", "Karpathy splits", "Karpathy COCO split" },
        es = "Partición de facto entrenamiento/validación/prueba del conjunto COCO Captions introducida por Andrej Karpathy y Li Fei-Fei, con 113 287 imágenes de entrenamiento, 5 000 de validación y 5 000 de prueba, que asegura resultados comparables entre distintos trabajos de subtítulos.",
        zh = "由Andrej Karpathy和李飞飞提出的COCO Captions数据集事实标准训练/验证/测试划分:训练集113 287张、验证集5 000张、测试集5 000张,使各字幕生成研究的结果可相互比较。",
        term_es = "partición de Karpathy de COCO",
        term_zh = "COCO Karpathy划分",
        aliases_es = { "Karpathy split", "split de Karpathy" },
        aliases_zh = { "Karpathy划分", "Karpathy split" },
    }
    
    data["coco metric"] = {
        short = "The standard object detection evaluation protocol from the COCO benchmark, which reports mean Average Precision averaged over ten IoU thresholds from 0.5 to 0.95 in steps of 0.05, plus AP at 0.5 and 0.75 and AP for small/medium/large objects.",
        article = nil,
        aliases = { "COCO mAP", "COCO AP", "COCO evaluation", "COCO metric", "COCO benchmark metric" },
        es = "Protocolo estándar de evaluación de detección de objetos del benchmark COCO, que reporta el mean Average Precision promediado sobre diez umbrales de IoU desde 0.5 hasta 0.95 en pasos de 0.05, además de AP a 0.5 y 0.75 y AP para objetos pequeños/medianos/grandes.",
        zh = "COCO 基准的标准目标检测评估协议,报告在 0.5 至 0.95(步长 0.05)十个 IoU 阈值上平均的 mean Average Precision,以及 0.5 和 0.75 处的 AP 和小/中/大目标的 AP。",
        term_es = "métrica COCO",
        term_zh = "COCO 指标",
        aliases_es = { "COCO mAP", "evaluación COCO", "AP de COCO" },
        aliases_zh = { "COCO mAP", "COCO AP", "COCO 评估" },
    }
    
    data["code agent"] = {
        short = "An autonomous LLM-driven system that performs software engineering tasks end-to-end by editing files, running shells and tests, and iterating on a goal until success criteria are met.",
        article = nil,
        aliases = { "code agent", "coding agent", "software engineering agent", "SWE agent" },
        es = "Sistema autónomo guiado por un LLM que realiza tareas de ingeniería de software de extremo a extremo: edita archivos, ejecuta shells y pruebas e itera sobre un objetivo hasta cumplir los criterios de éxito.",
        zh = "由大语言模型驱动的自主系统,通过编辑文件、运行 shell 和测试,并围绕目标反复迭代直到满足成功标准,从端到端完成软件工程任务。",
        term_es = "agente de código",
        term_zh = "代码智能体",
        aliases_es = { "agente de código", "agente de programación", "code agent", "coding agent" },
        aliases_zh = { "代码智能体", "编码智能体", "code agent" },
    }
    
    data["code interpreter"] = {
        short = "A tool that lets a language model write and execute code in a sandboxed environment, typically Python, to perform calculations, data analysis, or file manipulation as part of answering a user query.",
        article = nil,
        aliases = { "Code Interpreter", "code interpreter", "Advanced Data Analysis", "Python tool" },
        es = "Herramienta que permite a un modelo de lenguaje escribir y ejecutar código en un entorno aislado, típicamente Python, para realizar cálculos, análisis de datos o manipulación de archivos como parte de la respuesta a una consulta del usuario.",
        zh = "允许语言模型在沙箱环境(通常是 Python)中编写并执行代码的工具,用于在响应用户查询的过程中进行计算、数据分析或文件处理。",
        term_es = "Code Interpreter",
        term_zh = "代码解释器",
        aliases_es = { "Code Interpreter", "intérprete de código", "Análisis de Datos Avanzado" },
        aliases_zh = { "代码解释器", "Code Interpreter", "高级数据分析" },
    }
    
    data["code llama"] = {
        short = "Meta's family of open-weight code-specialized large language models built on Llama 2, released in 2023 in 7B, 13B, 34B, and 70B sizes with Python and instruction-tuned variants.",
        article = nil,
        aliases = { "Code Llama", "CodeLlama", "code-llama" },
        es = "Familia de modelos de lenguaje grandes especializados en código y de pesos abiertos publicada por Meta, basada en Llama 2; lanzada en 2023 en tamaños de 7B, 13B, 34B y 70B, con variantes para Python y ajustadas por instrucciones.",
        zh = "Meta 基于 Llama 2 推出的开放权重代码专用大语言模型系列,于 2023 年发布,提供 7B、13B、34B 和 70B 等规模,以及 Python 专用和指令微调版本。",
        term_es = "Code Llama",
        term_zh = "Code Llama",
        aliases_es = { "Code Llama", "CodeLlama" },
        aliases_zh = { "Code Llama", "CodeLlama", "代码 Llama" },
    }
    
    data["code-switching asr"] = {
        short = "Automatic speech recognition designed to handle utterances that mix two or more languages within or across sentences, requiring multilingual acoustic and language modeling and balanced code-mixed training data.",
        article = nil,
        aliases = { "code-switching ASR", "code switching ASR", "code-switched speech recognition", "code-mixed ASR", "multilingual code-switching ASR" },
        es = "Reconocimiento automático del habla diseñado para manejar enunciados que mezclan dos o más idiomas dentro de una oración o entre oraciones, lo que requiere modelado acústico y de lenguaje multilingüe y datos de entrenamiento equilibrados con cambio de código.",
        zh = "用于处理在句内或句间混用两种及以上语言的语音识别系统,需要多语言声学和语言建模以及平衡的语码转换训练数据。",
        term_es = "ASR con cambio de código",
        term_zh = "语码转换语音识别",
        aliases_es = { "reconocimiento del habla con cambio de código", "ASR de code-switching", "ASR de cambio de código" },
        aliases_zh = { "code-switching ASR", "混合语言语音识别", "语码混用 ASR" },
    }
    
    data["code-switching tts"] = {
        short = "Text-to-speech synthesis that generates natural-sounding speech for input that mixes two or more languages, requiring multilingual phoneme inventories, shared speaker representations, and consistent prosody across language boundaries.",
        article = nil,
        aliases = { "code-switching TTS", "code switching TTS", "code-mixed TTS", "multilingual code-switching TTS" },
        es = "Síntesis de texto a voz que genera habla con sonido natural a partir de entradas que mezclan dos o más idiomas, lo que requiere inventarios fonémicos multilingües, representaciones de hablante compartidas y una prosodia coherente a través de los límites lingüísticos.",
        zh = "为混用两种及以上语言的输入生成自然语音的文本到语音合成,需具备多语言音素库、共享的说话人表示,以及跨语言边界保持一致的韵律。",
        term_es = "TTS con cambio de código",
        term_zh = "语码转换语音合成",
        aliases_es = { "síntesis de voz con cambio de código", "TTS de code-switching" },
        aliases_zh = { "code-switching TTS", "混合语言语音合成", "语码混用 TTS" },
    }
    
    data["coded bias"] = {
        short = "The phenomenon by which algorithmic systems encode and amplify discriminatory patterns, popularized by Joy Buolamwini's 2020 documentary of the same name. Refers broadly to bias embedded in software, particularly facial recognition.",
        article = nil,
        aliases = { "algorithmic bias documentary", "Coded Bias" },
        es = "Fenómeno por el cual los sistemas algorítmicos codifican y amplifican patrones discriminatorios, popularizado por el documental de Joy Buolamwini de 2020 con el mismo nombre. Se refiere ampliamente al sesgo incrustado en software, particularmente en reconocimiento facial.",
        zh = "算法系统编码并放大歧视性模式的现象,因Joy Buolamwini 2020年同名纪录片而广为人知。泛指嵌入软件(尤其是人脸识别)中的偏见。",
        term_es = "sesgo codificado",
        term_zh = "编码偏见",
        aliases_es = { "Coded Bias", "documental Coded Bias" },
        aliases_zh = { "Coded Bias", "代码偏见" },
    }
    
    data["coded gaze"] = {
        short = "A term coined by Joy Buolamwini for the encoded preferences and biases of software developers that get reflected in algorithmic systems, especially in computer vision and facial analysis.",
        article = nil,
        aliases = { "the coded gaze", "Buolamwini coded gaze" },
        es = "Término acuñado por Joy Buolamwini para las preferencias y sesgos codificados de los desarrolladores de software que se reflejan en los sistemas algorítmicos, especialmente en visión por computadora y análisis facial.",
        zh = "Joy Buolamwini提出的术语,指软件开发者的偏好和偏见被编码并反映在算法系统中,尤其是计算机视觉和人脸分析。",
        term_es = "mirada codificada",
        term_zh = "编码凝视",
        aliases_es = { "coded gaze", "la mirada codificada" },
        aliases_zh = { "coded gaze", "编码目光" },
    }
    
    data["codegemma"] = {
        short = "Google's family of open-weight code generation models built on the Gemma architecture, released in 2024 with base, instruction-tuned, and fill-in-the-middle variants for code completion.",
        article = nil,
        aliases = { "CodeGemma", "Code Gemma", "codegemma" },
        es = "Familia de modelos de generación de código de pesos abiertos publicada por Google, basada en la arquitectura Gemma; lanzada en 2024 con variantes base, ajustadas por instrucciones y de relleno intermedio para autocompletar código.",
        zh = "Google 基于 Gemma 架构推出的开放权重代码生成模型系列,于 2024 年发布,提供基础版、指令微调版和用于代码补全的中间填充(fill-in-the-middle)变体。",
        term_es = "CodeGemma",
        term_zh = "CodeGemma",
        aliases_es = { "CodeGemma" },
        aliases_zh = { "CodeGemma" },
    }
    
    data["codegen"] = {
        short = "Salesforce's family of autoregressive transformer language models for program synthesis, trained on natural language and code and released in 2022 in sizes from 350M to 16B parameters.",
        article = nil,
        aliases = { "CodeGen", "codegen" },
        es = "Familia de modelos de lenguaje transformadores autoregresivos de Salesforce para la síntesis de programas, entrenados con lenguaje natural y código, lanzada en 2022 en tamaños de 350M a 16B de parámetros.",
        zh = "Salesforce 推出的用于程序合成的自回归 Transformer 语言模型系列,在自然语言和代码上联合训练,于 2022 年发布,参数规模从 3.5 亿到 160 亿不等。",
        term_es = "CodeGen",
        term_zh = "CodeGen",
        aliases_es = { "CodeGen" },
        aliases_zh = { "CodeGen" },
    }
    
    data["codeml"] = {
        short = "A program in the PAML package for fitting codon-substitution models to protein-coding sequences, used to estimate dN/dS ratios and detect signatures of positive or purifying selection along phylogenies.",
        article = nil,
        aliases = { "CODEML", "PAML codeml", "codeml program" },
        es = "Programa del paquete PAML para ajustar modelos de sustitución de codones a secuencias codificantes de proteínas, utilizado para estimar relaciones dN/dS y detectar señales de selección positiva o purificadora a lo largo de filogenias.",
        zh = "PAML 软件包中的一个程序,用于将密码子替换模型拟合到蛋白质编码序列,估计 dN/dS 比值并在系统发育上检测正选择或净化选择的信号。",
        term_es = "codeml",
        term_zh = "codeml",
        aliases_es = { "CODEML", "PAML codeml" },
        aliases_zh = { "CODEML", "PAML codeml" },
    }
    
    data["codestral"] = {
        short = "Mistral AI's code-specialized large language model, released in 2024 and trained on more than 80 programming languages with strong fill-in-the-middle and instruction-following code generation capabilities.",
        article = nil,
        aliases = { "Codestral", "codestral" },
        es = "Modelo de lenguaje grande especializado en código de Mistral AI, lanzado en 2024 y entrenado en más de 80 lenguajes de programación, con sólidas capacidades de relleno intermedio y de generación de código siguiendo instrucciones.",
        zh = "Mistral AI 推出的代码专用大语言模型,于 2024 年发布,在 80 多种编程语言上训练,具有出色的中间填充和指令式代码生成能力。",
        term_es = "Codestral",
        term_zh = "Codestral",
        aliases_es = { "Codestral" },
        aliases_zh = { "Codestral" },
    }
    
    data["codon adaptation index"] = {
        short = "A score that quantifies how closely the codon usage of a coding sequence matches that of a reference set of highly expressed genes, used as a proxy for translational efficiency.",
        article = nil,
        aliases = { "CAI", "codon adaptation index (CAI)" },
        es = "Puntuación que cuantifica cuán cercanamente el uso de codones de una secuencia codificante coincide con el de un conjunto de referencia de genes altamente expresados, utilizada como aproximación de la eficiencia traduccional.",
        zh = "一种衡量编码序列的密码子使用情况与高表达基因参考集相似程度的得分,常用作翻译效率的替代指标。",
        term_es = "índice de adaptación de codones",
        term_zh = "密码子适应指数",
        aliases_es = { "CAI", "índice CAI" },
        aliases_zh = { "CAI", "密码子适应性指数" },
    }
    
    data["codon optimization"] = {
        short = "The process of redesigning a coding sequence by substituting synonymous codons to maximize protein expression in a chosen host, typically by improving codon usage, GC content, and removing inhibitory motifs.",
        article = nil,
        aliases = { "codon optimisation", "synonymous codon optimization", "gene codon optimization" },
        es = "Proceso de rediseño de una secuencia codificante mediante la sustitución de codones sinónimos para maximizar la expresión proteica en un hospedero elegido, típicamente mejorando el uso de codones, el contenido GC y eliminando motivos inhibitorios.",
        zh = "通过替换同义密码子来重新设计编码序列以在选定宿主中最大化蛋白质表达的过程,通常包括改进密码子使用、GC 含量并去除抑制性基序。",
        term_es = "optimización de codones",
        term_zh = "密码子优化",
        aliases_es = { "optimización por codones sinónimos", "optimización génica de codones" },
        aliases_zh = { "同义密码子优化", "基因密码子优化" },
    }
    
    data["codon usage"] = {
        short = "The relative frequencies with which an organism uses synonymous codons to encode each amino acid; varies systematically across species and gene-expression levels and influences translation kinetics.",
        article = nil,
        aliases = { "codon usage bias", "codon bias", "synonymous codon usage" },
        es = "Frecuencias relativas con las que un organismo usa codones sinónimos para codificar cada aminoácido; varía sistemáticamente entre especies y niveles de expresión génica e influye en la cinética de la traducción.",
        zh = "生物体编码每种氨基酸时使用同义密码子的相对频率;在不同物种和基因表达水平之间存在系统性差异,并影响翻译动力学。",
        term_es = "uso de codones",
        term_zh = "密码子使用",
        aliases_es = { "sesgo de uso de codones", "sesgo de codones", "uso de codones sinónimos" },
        aliases_zh = { "密码子使用偏好", "密码子偏好性", "同义密码子使用" },
    }
    
    data["cogagent"] = {
        short = "A visual GUI agent built on CogVLM that takes high-resolution screenshots and instructions as input and predicts mouse and keyboard actions, enabling autonomous operation of desktop and web user interfaces.",
        article = nil,
        aliases = { "CogAgent" },
        es = "Agente visual de interfaz gráfica construido sobre CogVLM que recibe capturas de pantalla en alta resolución e instrucciones como entrada y predice acciones de ratón y teclado, permitiendo operar de forma autónoma interfaces de escritorio y web.",
        zh = "构建在CogVLM之上的可视化GUI智能体,以高分辨率屏幕截图与指令为输入,预测鼠标与键盘动作,从而自主操作桌面与网页用户界面。",
        term_es = "CogAgent",
        term_zh = "CogAgent",
        aliases_es = { "CogAgent" },
        aliases_zh = { "CogAgent" },
    }
    
    data["cogs benchmark"] = {
        short = "Compositional Generalization Challenge based on Semantic Interpretation (COGS), a semantic-parsing benchmark in which the test set requires generalizing to novel combinations of primitives and to deeper recursion than seen in training.",
        article = nil,
        aliases = { "COGS", "COGS benchmark", "COGS dataset" },
        es = "Compositional Generalization Challenge based on Semantic Interpretation (COGS), un benchmark de análisis semántico cuyo conjunto de prueba exige generalizar a nuevas combinaciones de primitivas y a una recursión más profunda que la vista en entrenamiento.",
        zh = "基于语义解释的组合泛化挑战(COGS),一个语义解析基准,其测试集要求模型泛化到训练中未见过的原语新组合,以及更深层的递归结构。",
        term_es = "benchmark COGS",
        term_zh = "COGS 基准",
        aliases_es = { "COGS", "benchmark COGS", "conjunto COGS" },
        aliases_zh = { "COGS", "COGS 数据集", "COGS 基准测试" },
    }
    
    data["cogvideox"] = {
        short = "An open-source text-to-video diffusion transformer developed by Zhipu AI and Tsinghua University, released in 2024, capable of generating coherent short videos from natural-language prompts.",
        article = nil,
        aliases = { "CogVideoX", "cogvideox", "CogVideo X" },
        es = "Transformador de difusión de texto a video de código abierto desarrollado por Zhipu AI y la Universidad de Tsinghua, lanzado en 2024, capaz de generar videos cortos coherentes a partir de instrucciones en lenguaje natural.",
        zh = "由智谱 AI 与清华大学联合开发的开源文本到视频扩散 Transformer 模型,于 2024 年发布,可根据自然语言提示生成连贯的短视频。",
        term_es = "CogVideoX",
        term_zh = "CogVideoX",
        aliases_es = { "CogVideoX" },
        aliases_zh = { "CogVideoX" },
    }
    
    data["cogvlm"] = {
        short = "An open-source visual language model from Zhipu AI that augments a frozen language model with a trainable visual expert module of QKV and MLP weights inserted in every transformer layer, achieving strong performance without compromising NLP ability.",
        article = nil,
        aliases = { "CogVLM" },
        es = "Modelo visión-lenguaje de código abierto de Zhipu AI que amplía un modelo de lenguaje congelado con un módulo experto visual entrenable, formado por pesos QKV y MLP insertados en cada capa transformer, logrando un fuerte desempeño sin sacrificar la capacidad de PLN.",
        zh = "智谱AI开源的视觉语言模型,在每层Transformer中向冻结的语言模型注入可训练的视觉专家模块(QKV与MLP权重),在不损害自然语言能力的前提下取得强大性能。",
        term_es = "CogVLM",
        term_zh = "CogVLM",
        aliases_es = { "CogVLM" },
        aliases_zh = { "CogVLM" },
    }
    
    data["cogvlm2"] = {
        short = "The second generation of Zhipu AI's CogVLM family, typically built on a Llama-3 backbone with higher input resolution and improved OCR, document understanding, and video comprehension capabilities.",
        article = nil,
        aliases = { "CogVLM2", "CogVLM 2" },
        es = "Segunda generación de la familia CogVLM de Zhipu AI, normalmente construida sobre una base Llama 3, con mayor resolución de entrada y capacidades mejoradas de OCR, comprensión de documentos y comprensión de vídeo.",
        zh = "智谱AI的CogVLM系列第二代模型,通常基于Llama-3作为语言主干,输入分辨率更高,并在OCR、文档理解与视频理解方面有显著提升。",
        term_es = "CogVLM2",
        term_zh = "CogVLM2",
        aliases_es = { "CogVLM2" },
        aliases_zh = { "CogVLM2" },
    }
    
    data["cohen kappa"] = {
        short = "An inter-rater agreement statistic for two raters on categorical items that corrects observed agreement for the agreement expected by chance; ranges from -1 to 1, with 1 indicating perfect agreement.",
        article = nil,
        aliases = { "Cohen's kappa", "Cohen kappa", "Cohen's κ", "kappa coefficient", "κ", "weighted kappa" },
        es = "Estadístico de acuerdo entre dos evaluadores sobre ítems categóricos que corrige el acuerdo observado por el acuerdo esperado al azar; varía entre -1 y 1, donde 1 indica acuerdo perfecto.",
        zh = "一种用于两位评分者在分类项目上一致性的统计量,对观察到的一致性按机会一致性进行校正;取值范围 −1 到 1,1 表示完全一致。",
        term_es = "kappa de Cohen",
        term_zh = "Cohen κ 系数",
        aliases_es = { "kappa de Cohen", "κ de Cohen", "coeficiente kappa" },
        aliases_zh = { "Cohen kappa", "Cohen 卡帕系数", "κ 系数" },
    }
    
    data["cohort normalization"] = {
        short = "A score-normalization technique in speaker verification that rescales the verification score using statistics gathered from a cohort of impostor speakers, reducing the dependence of decision thresholds on the test trial.",
        article = nil,
        aliases = { "cohort score normalization", "cohort-based score normalization", "T-norm cohort", "Z-norm cohort" },
        es = "Técnica de normalización de puntuaciones en verificación de hablante que reescala la puntuación de verificación utilizando estadísticas obtenidas de una cohorte de hablantes impostores, reduciendo la dependencia de los umbrales de decisión respecto a la prueba específica.",
        zh = "说话人验证中的一种得分归一化技术,利用一组冒认说话人组成的同期群所统计的得分对验证得分进行重新缩放,从而降低决策阈值对具体测试样本的依赖。",
        term_es = "normalización por cohorte",
        term_zh = "同期群归一化",
        aliases_es = { "normalización de puntuaciones por cohorte", "normalización basada en cohortes" },
        aliases_zh = { "队列归一化", "cohort 归一化" },
    }
    
    data["colabfold"] = {
        short = "An accelerated protein structure prediction pipeline that pairs AlphaFold2 (or related models) with the fast MMseqs2 sequence search service, making structure prediction practical in Google Colab notebooks.",
        article = nil,
        aliases = { "ColabFold", "Colab Fold", "colabfold notebook" },
        es = "Pipeline acelerado de predicción de estructura de proteínas que combina AlphaFold2 (o modelos relacionados) con el rápido servicio de búsqueda de secuencias MMseqs2, haciendo viable la predicción de estructuras en notebooks de Google Colab.",
        zh = "一种加速的蛋白质结构预测流程,将 AlphaFold2(或相关模型)与快速的 MMseqs2 序列搜索服务结合,使在 Google Colab 笔记本中进行结构预测变得可行。",
        term_es = "ColabFold",
        term_zh = "ColabFold",
        aliases_es = { "Colab Fold" },
        aliases_zh = { "Colab Fold" },
    }
    
    data["colbert"] = {
        short = "Contextualized Late Interaction over BERT, a neural retrieval model that encodes queries and documents into multi-vector representations and scores relevance via fine-grained late interaction between token embeddings.",
        article = nil,
        aliases = { "ColBERT", "Contextualized Late Interaction over BERT" },
        es = "Contextualized Late Interaction over BERT (ColBERT), modelo de recuperación neuronal que codifica consultas y documentos en representaciones multivectoriales y puntúa su relevancia mediante interacción tardía de grano fino entre los embeddings de los tokens.",
        zh = "Contextualized Late Interaction over BERT(ColBERT),一种神经检索模型,将查询和文档编码为多向量表示,并通过 token 级嵌入之间的细粒度后期交互对相关性进行打分。",
        term_es = "ColBERT",
        term_zh = "ColBERT",
        aliases_es = { "ColBERT" },
        aliases_zh = { "ColBERT" },
    }
    
    data["colbertv2"] = {
        short = "An improved version of ColBERT that uses residual compression and centroid-based indexing to drastically reduce storage and latency while preserving retrieval quality.",
        article = nil,
        aliases = { "ColBERTv2", "ColBERT v2", "ColBERT-v2" },
        es = "Versión mejorada de ColBERT que utiliza compresión residual e indexación basada en centroides para reducir drásticamente el almacenamiento y la latencia preservando la calidad de la recuperación.",
        zh = "ColBERT 的改进版本,采用残差压缩和基于质心的索引,在保持检索质量的同时显著降低存储与延迟。",
        term_es = "ColBERTv2",
        term_zh = "ColBERTv2",
        aliases_es = { "ColBERTv2" },
        aliases_zh = { "ColBERTv2" },
    }
    
    data["cold fusion"] = {
        short = "A technique in encoder-decoder speech recognition that integrates a pretrained external language model into the decoder during training, allowing the acoustic model to learn complementary information rather than re-learning language statistics.",
        article = nil,
        aliases = { "Cold Fusion", "cold-fusion", "cold fusion LM integration" },
        es = "Técnica para reconocimiento del habla con codificador-decodificador que integra un modelo de lenguaje externo preentrenado en el decodificador durante el entrenamiento, permitiendo que el modelo acústico aprenda información complementaria en vez de reaprender la estadística del lenguaje.",
        zh = "一种用于编码器-解码器语音识别的技术,在训练阶段将预训练的外部语言模型整合到解码器中,使声学模型能够学习与之互补的信息,而无需重新学习语言统计规律。",
        term_es = "fusión en frío",
        term_zh = "冷融合",
        aliases_es = { "Cold Fusion", "fusión fría", "integración de LM en frío" },
        aliases_zh = { "Cold Fusion", "冷融合方法" },
    }
    
    data["cold posterior"] = {
        short = "A tempered Bayesian posterior of the form p(theta|D) propto p(D|theta)^{1/T} p(theta) with temperature T<1, which sharpens the likelihood relative to the prior and is observed to improve predictive performance of Bayesian neural networks.",
        article = nil,
        aliases = { "tempered posterior", "low-temperature posterior", "cold Bayesian posterior" },
        es = "Posterior bayesiano templado de la forma p(theta|D) propto p(D|theta)^{1/T} p(theta) con temperatura T<1, que agudiza la verosimilitud frente al prior y se observa que mejora el rendimiento predictivo de las redes neuronales bayesianas.",
        zh = "一种温度小于1的退火贝叶斯后验,形式为 p(theta|D) ∝ p(D|theta)^{1/T} p(theta),相对于先验更突出似然,被观察到能提升贝叶斯神经网络的预测性能。",
        term_es = "posterior frío",
        term_zh = "冷后验",
        aliases_es = { "posterior templado", "posterior a baja temperatura", "cold posterior" },
        aliases_zh = { "退火后验", "低温后验", "冷贝叶斯后验" },
    }
    
    data["cold posterior effect"] = {
        short = "The empirical observation that Bayesian neural networks attain better predictive accuracy and calibration when the posterior is artificially tempered with temperature T<1, departing from the theoretically Bayesian choice T=1.",
        article = nil,
        aliases = { "CPE", "cold posterior phenomenon" },
        es = "Observación empírica de que las redes neuronales bayesianas alcanzan mejor exactitud predictiva y calibración cuando el posterior se templa artificialmente con temperatura T<1, apartándose de la elección teóricamente bayesiana T=1.",
        zh = "一种经验观察:当将贝叶斯神经网络的后验人为退火到温度T<1时,其预测准确率和校准性能优于理论上的贝叶斯选择T=1。",
        term_es = "efecto del posterior frío",
        term_zh = "冷后验效应",
        aliases_es = { "CPE", "fenómeno del posterior frío", "cold posterior effect" },
        aliases_zh = { "CPE", "冷后验现象", "冷后验phenomenon" },
    }
    
    data["collapsed gibbs sampling"] = {
        short = "A Gibbs sampler that analytically marginalizes (integrates out) a subset of variables and only samples the remaining ones, reducing variance and often improving mixing in models like LDA.",
        article = nil,
        aliases = { "collapsed Gibbs sampler", "Rao-Blackwellized Gibbs sampling", "marginalized Gibbs sampling" },
        es = "Muestreador de Gibbs que marginaliza analíticamente un subconjunto de variables y solo muestrea las restantes, reduciendo la varianza y a menudo mejorando la mezcla en modelos como LDA.",
        zh = "一种吉布斯采样器,对部分变量解析地积分掉,仅对其余变量采样,从而降低方差并常提升 LDA 等模型的混合速度。",
        term_es = "muestreo de Gibbs colapsado",
        term_zh = "塌缩吉布斯采样",
        aliases_es = { "Gibbs colapsado", "muestreo de Gibbs Rao-Blackwellizado" },
        aliases_zh = { "collapsed Gibbs", "Rao-Blackwell 化吉布斯采样", "边缘化吉布斯采样" },
    }
    
    data["collapsibility"] = {
        short = "A property of an effect measure such that the marginal effect equals a weighted average of stratum-specific effects when there is no confounding; risk differences and risk ratios are collapsible, while odds ratios and hazard ratios generally are not.",
        article = nil,
        aliases = { "collapsible effect measure", "collapsibility property", "non-collapsibility", "noncollapsibility" },
        es = "Propiedad de una medida de efecto según la cual el efecto marginal es igual a un promedio ponderado de los efectos específicos por estrato cuando no hay confusión; las diferencias de riesgo y los cocientes de riesgo son colapsables, mientras que las razones de momios y las razones de riesgos no suelen serlo.",
        zh = "效应测度的一种性质:在无混杂的情况下,边际效应等于各分层效应的加权平均;风险差和风险比是可坍缩的,而比值比和风险比一般不是。",
        term_es = "colapsabilidad",
        term_zh = "可坍缩性",
        aliases_es = { "propiedad de colapsabilidad", "no colapsabilidad", "medida de efecto colapsable" },
        aliases_zh = { "坍缩性", "可塌缩性", "不可坍缩性", "可塌陷性" },
    }
    
    data["collective communication"] = {
        short = "Group communication primitives — such as all-reduce, broadcast, all-gather, and reduce-scatter — used to synchronize tensors across many workers in distributed and federated training.",
        article = nil,
        aliases = { "collectives", "collective ops", "collective primitives" },
        es = "Primitivas de comunicación grupal —como all-reduce, broadcast, all-gather y reduce-scatter— utilizadas para sincronizar tensores entre múltiples nodos en entrenamiento distribuido y federado.",
        zh = "一类群体通信原语(如 all-reduce、broadcast、all-gather、reduce-scatter),用于在分布式和联邦训练中跨多个工作节点同步张量。",
        term_es = "comunicación colectiva",
        term_zh = "集合通信",
        aliases_es = { "operaciones colectivas", "primitivas colectivas" },
        aliases_zh = { "集体通信", "集合通信原语", "collective communication" },
    }
    
    data["collective variable"] = {
        short = "A low-dimensional function of atomic coordinates used to summarize slow molecular motions in enhanced-sampling methods such as metadynamics and umbrella sampling.",
        article = nil,
        aliases = { "CV", "reaction coordinate", "order parameter", "collective coordinate" },
        es = "Función de baja dimensión de las coordenadas atómicas que resume los movimientos moleculares lentos y se usa en métodos de muestreo mejorado como metadinámica o umbrella sampling.",
        zh = "原子坐标的低维函数,用于概括缓慢的分子运动,常用于元动力学、伞形采样等增强采样方法。",
        term_es = "variable colectiva",
        term_zh = "集体变量",
        aliases_es = { "CV", "coordenada de reacción", "parámetro de orden" },
        aliases_zh = { "CV", "反应坐标", "序参量" },
    }
    
    data["collider"] = {
        short = "In a directed acyclic graph, a node with two or more incoming edges on a path; conditioning on a collider (or any of its descendants) opens the path and can induce dependence between its parents.",
        article = nil,
        aliases = { "v-structure", "common effect", "head-to-head node" },
        es = "En un grafo acíclico dirigido, nodo con dos o más aristas entrantes a lo largo de un camino; condicionar sobre un collider (o cualquiera de sus descendientes) abre el camino y puede inducir dependencia entre sus padres.",
        zh = "在有向无环图中,路径上具有两条或多条入边的节点;对碰撞节点(或其任一后代)进行条件化会打开该路径,并可能在其父节点之间引入依赖。",
        term_es = "collider",
        term_zh = "对撞节点",
        aliases_es = { "estructura en v", "v-structure", "efecto común" },
        aliases_zh = { "v 结构", "共因子节点", "碰撞器", "collider" },
    }
    
    data["collider bias"] = {
        short = "Spurious association introduced between two variables when an analysis conditions on (e.g., stratifies, restricts, or adjusts for) a common effect of both; a primary source of selection bias in observational and case-control studies.",
        article = nil,
        aliases = { "selection-collider bias", "conditioning on a collider", "Berkson bias", "Berkson's bias", "Berkson's paradox", "Berkson paradox", "endogenous selection bias" },
        es = "Asociación espuria introducida entre dos variables cuando un análisis condiciona en (por ejemplo, estratifica, restringe o ajusta por) un efecto común de ambas; es una fuente principal de sesgo de selección en estudios observacionales y de casos y controles.",
        zh = "当分析对两个变量的共同效应进行条件化(如分层、限制或调整)时,在它们之间引入的虚假关联;是观察性研究和病例对照研究中选择偏差的主要来源之一。",
        term_es = "sesgo del colisionador",
        term_zh = "碰撞偏差",
        aliases_es = { "sesgo por colisionador", "condicionamiento en un colisionador", "sesgo de Berkson", "paradoja de Berkson" },
        aliases_zh = { "对撞偏差", "对撞节点偏差", "条件化碰撞节点偏差", "Berkson 偏差", "Berkson 悖论" },
    }
    
    data["collusion detection"] = {
        short = "Mechanisms in federated or multi-party systems that identify groups of clients coordinating to bias the global model, leak information, or game incentive schemes — often via statistical similarity tests on updates.",
        article = nil,
        aliases = { "anti-collusion", "collusion detection mechanism" },
        es = "Mecanismos en sistemas federados o multi-parte que identifican grupos de clientes que se coordinan para sesgar el modelo global, filtrar información o manipular esquemas de incentivos —habitualmente mediante pruebas estadísticas de similitud entre actualizaciones.",
        zh = "联邦或多方系统中用于发现客户端串通行为(联合偏置全局模型、泄露信息或操纵激励机制)的机制,通常基于对更新的统计相似度检验。",
        term_es = "detección de colusión",
        term_zh = "合谋检测",
        aliases_es = { "anti-colusión", "mecanismo de detección de colusión" },
        aliases_zh = { "串通检测", "共谋检测" },
    }
    
    data["color vqa"] = {
        short = "A subcategory of visual question answering focused on questions about object color attributes, used as a diagnostic to probe whether vision-language models reliably perceive and reason about color rather than relying on language priors.",
        article = nil,
        aliases = { "Color VQA", "color visual question answering", "color-based VQA" },
        es = "Subcategoría de respuesta visual a preguntas centrada en preguntas sobre atributos de color de los objetos, utilizada como diagnóstico para comprobar si los modelos visión-lenguaje perciben y razonan de forma fiable sobre el color en lugar de apoyarse en sesgos lingüísticos.",
        zh = "视觉问答的一个子类别,关注关于物体颜色属性的问题,用作诊断手段以检验视觉-语言模型是否真正感知并推理颜色,而非依赖语言先验。",
        term_es = "VQA de color",
        term_zh = "颜色VQA",
        aliases_es = { "Color VQA", "VQA sobre color" },
        aliases_zh = { "Color VQA", "颜色视觉问答" },
    }
    
    data["column space"] = {
        short = "For a matrix A, the linear subspace of the codomain spanned by its columns; equivalently, the image of the linear map x ↦ Ax. Its dimension equals the rank of A.",
        article = nil,
        aliases = { "range", "image", "range of a matrix", "image of a matrix", "Col(A)", "im(A)" },
        es = "Para una matriz A, el subespacio lineal del codominio generado por sus columnas; equivalentemente, la imagen de la aplicación lineal x ↦ Ax. Su dimensión es igual al rango de A.",
        zh = "对于矩阵 A,由其各列张成的、位于值域空间中的线性子空间;等价地,是线性映射 x ↦ Ax 的像。其维数等于 A 的秩。",
        term_es = "espacio columna",
        term_zh = "列空间",
        aliases_es = { "imagen de una matriz", "rango de una matriz (imagen)" },
        aliases_zh = { "列张成空间", "矩阵的像", "值域" },
    }
    
    data["combat"] = {
        short = "An empirical Bayes batch-effect adjustment method that removes systematic technical variation across batches in microarray, RNA-seq, or methylation data while preserving biological signal of interest.",
        article = nil,
        aliases = { "ComBat", "ComBat-seq", "sva ComBat", "ComBat batch correction" },
        es = "Método empírico bayesiano de corrección de efectos de lote que elimina la variación técnica sistemática entre lotes en datos de microarrays, RNA-seq o metilación, preservando la señal biológica de interés.",
        zh = "一种基于经验贝叶斯的批次效应校正方法,能在保留目标生物信号的同时去除微阵列、RNA-seq 或甲基化数据中跨批次的系统性技术变异。",
        term_es = "ComBat",
        term_zh = "ComBat",
        aliases_es = { "ComBat-seq", "corrección por lote ComBat" },
        aliases_zh = { "ComBat-seq", "ComBat 批次校正" },
    }
    
    data["combinatorial optimization layer"] = {
        short = "A differentiable network module that embeds a discrete combinatorial solver (e.g. shortest path, MAP inference, linear assignment) inside a neural network, providing surrogate gradients so the solver can be trained end-to-end.",
        article = nil,
        aliases = { "combinatorial solver layer", "differentiable combinatorial optimization", "differentiable combinatorial layer", "combinatorial optimization module" },
        es = "Un módulo de red diferenciable que embebe un solver combinatorio discreto (p. ej. camino más corto, inferencia MAP, asignación lineal) dentro de una red neuronal, proporcionando gradientes sustitutos para entrenarlo de extremo a extremo.",
        zh = "一种可微网络模块,将离散组合优化求解器(如最短路径、MAP 推断、线性指派)嵌入到神经网络中,并提供代理梯度,使求解器能够端到端训练。",
        term_es = "capa de optimización combinatoria",
        term_zh = "组合优化层",
        aliases_es = { "capa de solver combinatorio", "optimización combinatoria diferenciable", "módulo de optimización combinatoria" },
        aliases_zh = { "组合优化模块", "可微组合优化层", "组合求解器层" },
    }
    
    data["combinatory categorial grammar"] = {
        short = "A lexicalized grammar formalism in which each lexical item carries a syntactic-semantic category and a small set of combinatory rules (function application, composition, type raising) builds derivations together with a logical form.",
        article = nil,
        aliases = { "CCG", "Combinatory Categorial Grammar", "combinatorial categorial grammar" },
        es = "Un formalismo gramatical lexicalizado en el que cada elemento léxico lleva una categoría sintáctico-semántica y un pequeño conjunto de reglas combinatorias (aplicación de función, composición, elevación de tipo) construye derivaciones junto con una forma lógica.",
        zh = "一种词汇化的语法形式体系,每个词项都带有句法-语义范畴,通过一小组组合规则(函数应用、组合、类型提升)构建推导并同时得到逻辑表示。",
        term_es = "gramática categorial combinatoria",
        term_zh = "组合范畴语法",
        aliases_es = { "CCG", "gramática categorial combinatoria (CCG)" },
        aliases_zh = { "CCG", "组合范畴文法" },
    }
    
    data["comenet"] = {
        short = "A complete and efficient message-passing neural network for 3D molecular graphs that encodes local geometry via spherical coordinates while preserving rotational and translational invariance.",
        article = nil,
        aliases = { "ComENet", "Complete and Efficient Message Passing Network", "ComENet GNN" },
        es = "Red neuronal de paso de mensajes completa y eficiente para grafos moleculares 3D que codifica la geometría local mediante coordenadas esféricas conservando la invariancia rotacional y traslacional.",
        zh = "一种用于三维分子图的完备且高效的消息传递神经网络,通过球坐标编码局部几何,同时保持旋转和平移不变性。",
        term_es = "ComENet",
        term_zh = "ComENet",
        aliases_es = { "ComENet", "red ComENet" },
        aliases_zh = { "ComENet", "ComENet 网络" },
    }
    
    data["comet metric"] = {
        short = "A neural framework for machine translation evaluation that fine-tunes a multilingual encoder (e.g. XLM-R) to predict human quality judgments from source, hypothesis, and reference triples.",
        article = nil,
        aliases = { "COMET", "COMET score", "Crosslingual Optimized Metric for Evaluation of Translation" },
        es = "Marco neuronal para evaluación de traducción automática que ajusta un codificador multilingüe (p. ej. XLM-R) para predecir juicios humanos de calidad a partir de tripletas fuente, hipótesis y referencia.",
        zh = "一种用于机器翻译评价的神经框架,通过微调多语言编码器(如 XLM-R),从源句、假设与参考三元组预测人工质量评分。",
        term_es = "COMET",
        term_zh = "COMET",
        aliases_es = { "COMET", "métrica COMET" },
        aliases_zh = { "COMET", "COMET 指标" },
    }
    
    data["comfa"] = {
        short = "Comparative Molecular Field Analysis: a 3D-QSAR method that correlates biological activity with steric and electrostatic fields sampled around aligned ligands on a regular grid.",
        article = nil,
        aliases = { "CoMFA", "Comparative Molecular Field Analysis" },
        es = "Análisis Comparativo de Campos Moleculares: método 3D-QSAR que correlaciona la actividad biológica con campos estéricos y electrostáticos muestreados sobre una rejilla alrededor de ligandos alineados.",
        zh = "比较分子场分析:一种 3D-QSAR 方法,通过在对齐配体周围的规则网格上采样立体场和静电场,将生物活性与这些场关联起来。",
        term_es = "CoMFA",
        term_zh = "CoMFA",
        aliases_es = { "CoMFA", "Análisis Comparativo de Campos Moleculares" },
        aliases_zh = { "CoMFA", "比较分子场分析" },
    }
    
    data["command a"] = {
        short = "Cohere's Command A, a flagship enterprise large language model released in 2025 emphasizing efficient inference, multilingual support, agentic tool use, and retrieval-augmented generation.",
        article = nil,
        aliases = { "Command A", "Cohere Command A", "command-a" },
        es = "Command A de Cohere, modelo de lenguaje grande empresarial insignia lanzado en 2025, que enfatiza inferencia eficiente, soporte multilingüe, uso de herramientas agéntico y generación aumentada por recuperación.",
        zh = "Cohere 于 2025 年发布的旗舰级企业大语言模型 Command A,强调高效推理、多语言支持、智能体式工具调用和检索增强生成。",
        term_es = "Command A",
        term_zh = "Command A",
        aliases_es = { "Command A" },
        aliases_zh = { "Command A" },
    }
    
    data["command r"] = {
        short = "Cohere's Command R, a 35-billion-parameter large language model released in 2024 and optimized for retrieval-augmented generation, multilingual workflows, and tool use in enterprise settings.",
        article = nil,
        aliases = { "Command R", "Cohere Command R", "command-r" },
        es = "Command R de Cohere, modelo de lenguaje grande de 35 mil millones de parámetros lanzado en 2024 y optimizado para generación aumentada por recuperación, flujos de trabajo multilingües y uso de herramientas en entornos empresariales.",
        zh = "Cohere 于 2024 年发布的 350 亿参数大语言模型 Command R,针对检索增强生成、多语言工作流以及企业环境中的工具调用进行了优化。",
        term_es = "Command R",
        term_zh = "Command R",
        aliases_es = { "Command R" },
        aliases_zh = { "Command R" },
    }
    
    data["command r+"] = {
        short = "Cohere's Command R+, a 104-billion-parameter large language model released in 2024 as a higher-capability sibling of Command R, designed for advanced retrieval-augmented generation and multi-step tool use.",
        article = nil,
        aliases = { "Command R+", "Command R Plus", "Cohere Command R+", "command-r-plus" },
        es = "Command R+ de Cohere, modelo de lenguaje grande de 104 mil millones de parámetros lanzado en 2024 como hermano de mayor capacidad de Command R, diseñado para generación aumentada por recuperación avanzada y uso de herramientas en múltiples pasos.",
        zh = "Cohere 于 2024 年发布的 1040 亿参数大语言模型 Command R+,是 Command R 的高能力版本,专为高级检索增强生成和多步工具调用而设计。",
        term_es = "Command R+",
        term_zh = "Command R+",
        aliases_es = { "Command R+", "Command R Plus" },
        aliases_zh = { "Command R+", "Command R Plus" },
    }
    
    data["common cause"] = {
        short = "A variable that causally influences two or more other variables, thereby inducing an association between them even in the absence of a direct effect; the canonical structure of a confounder.",
        article = nil,
        aliases = { "common-cause variable", "shared cause", "common ancestor (causal)", "Reichenbach common cause" },
        es = "Variable que influye causalmente sobre dos o más variables, induciendo una asociación entre ellas incluso en ausencia de un efecto directo; es la estructura canónica de un confusor.",
        zh = "对两个或多个变量产生因果影响的变量,即使它们之间没有直接的因果作用,也会因此引入关联;这是混杂因子的典型结构。",
        term_es = "causa común",
        term_zh = "共同原因",
        aliases_es = { "variable de causa común", "causa compartida", "ancestro común causal" },
        aliases_zh = { "共因", "共同因果原因", "共同祖先", "Reichenbach 共同原因" },
    }
    
    data["common crawl"] = {
        short = "An open repository of monthly web crawl data maintained by the non-profit Common Crawl Foundation since 2008; widely used as a primary source of training text for large language models.",
        article = nil,
        aliases = { "Common Crawl", "CommonCrawl", "CC" },
        es = "Repositorio abierto de datos de rastreo web mensual mantenido desde 2008 por la fundación sin ánimo de lucro Common Crawl; se utiliza ampliamente como fuente principal de texto para entrenar modelos de lenguaje grandes.",
        zh = "由非营利组织 Common Crawl 基金会自 2008 年起维护的每月网页抓取数据开放语料库,被广泛用作训练大语言模型的主要文本来源之一。",
        term_es = "Common Crawl",
        term_zh = "Common Crawl",
        aliases_es = { "Common Crawl" },
        aliases_zh = { "Common Crawl", "Common Crawl 数据集" },
    }
    
    data["common support"] = {
        short = "The region of covariate space where both treated and control units have positive probability of assignment, ensuring that comparisons under positivity are well-defined; causal effects can typically only be identified within this overlap region.",
        article = nil,
        aliases = { "overlap", "overlap assumption", "positivity assumption (overlap)", "covariate overlap", "support overlap", "common support assumption" },
        es = "Región del espacio de covariables en la que tanto las unidades tratadas como las de control tienen probabilidad positiva de asignación, asegurando que las comparaciones bajo positividad estén bien definidas; los efectos causales suelen poderse identificar solo dentro de esta zona de solapamiento.",
        zh = "在协变量空间中,处理组与对照组单位都具有非零分配概率的区域;它确保在正性假设下比较是良定义的,因果效应通常只能在该重叠区域内识别。",
        term_es = "soporte común",
        term_zh = "共同支撑",
        aliases_es = { "solapamiento", "solapamiento de covariables", "supuesto de solapamiento", "supuesto de positividad (solapamiento)" },
        aliases_zh = { "重叠", "重叠假设", "协变量重叠", "公共支撑", "公共支持区域" },
    }
    
    data["common voice"] = {
        short = "An open, multilingual, crowdsourced speech dataset released by Mozilla containing read speech with speaker demographics, widely used for training and evaluating multilingual ASR and TTS systems.",
        article = nil,
        aliases = { "Common Voice", "Mozilla Common Voice", "CV", "Common Voice corpus", "Common Voice dataset" },
        es = "Conjunto de datos de habla abierto, multilingüe y colaborativo publicado por Mozilla que contiene habla leída con datos demográficos de los hablantes, ampliamente utilizado para entrenar y evaluar sistemas multilingües de ASR y TTS.",
        zh = "由 Mozilla 发布的开放、多语言、众包语音数据集,包含带有说话人人口统计信息的朗读语音,广泛用于训练和评测多语言 ASR 与 TTS 系统。",
        term_es = "Common Voice",
        term_zh = "Common Voice",
        aliases_es = { "Common Voice de Mozilla", "corpus Common Voice" },
        aliases_zh = { "Mozilla Common Voice", "Common Voice 数据集", "通用语音数据集" },
    }
    
    data["commonsense reasoning"] = {
        short = "The ability of an AI system to draw inferences using everyday background knowledge about objects, people, and the physical and social world that humans take for granted but is rarely stated explicitly.",
        article = nil,
        aliases = { "common-sense reasoning", "common sense reasoning", "commonsense inference" },
        es = "La capacidad de un sistema de IA para hacer inferencias usando conocimiento de fondo cotidiano sobre objetos, personas y el mundo físico y social que los humanos dan por sentado pero rara vez se enuncia explícitamente.",
        zh = "人工智能系统利用人类对物体、他人以及物理与社会世界中习以为常但极少明示的背景知识进行推理的能力。",
        term_es = "razonamiento de sentido común",
        term_zh = "常识推理",
        aliases_es = { "razonamiento de sentido común", "inferencia de sentido común" },
        aliases_zh = { "常识推断", "常识性推理" },
    }
    
    data["communication efficiency"] = {
        short = "A design objective in distributed and federated learning that minimizes total bytes exchanged per useful unit of progress, typically pursued through compression, sparsification, local steps, or reduced participation.",
        article = nil,
        aliases = { "communication-efficient", "comms efficiency" },
        es = "Objetivo de diseño en aprendizaje distribuido y federado que minimiza el total de bytes intercambiados por unidad útil de progreso, normalmente mediante compresión, esparsificación, pasos locales o participación reducida.",
        zh = "分布式与联邦学习中的设计目标,通过压缩、稀疏化、增加本地步数或降低参与率等手段,在每单位有效训练进展中最小化通信字节量。",
        term_es = "eficiencia de comunicación",
        term_zh = "通信效率",
        aliases_es = { "comunicación eficiente" },
        aliases_zh = { "通信高效性", "通信开销效率" },
    }
    
    data["communication round"] = {
        short = "One iteration of a federated or distributed training protocol consisting of a model broadcast, local computation by clients, and aggregation of returned updates at the server.",
        article = nil,
        aliases = { "round", "training round", "FL round", "federated round", "global round" },
        es = "Una iteración de un protocolo de entrenamiento federado o distribuido que consiste en la difusión del modelo, el cómputo local de los clientes y la agregación de las actualizaciones devueltas en el servidor.",
        zh = "联邦或分布式训练协议中的一次迭代,包含模型下发、客户端本地计算以及服务器对返回更新的聚合。",
        term_es = "ronda de comunicación",
        term_zh = "通信轮",
        aliases_es = { "ronda", "ronda de entrenamiento", "ronda federada", "ronda global" },
        aliases_zh = { "通信轮次", "训练轮", "联邦轮", "全局轮" },
    }
    
    data["communication round complexity"] = {
        short = "The number of communication rounds required by a federated or distributed algorithm to reach a target accuracy, used as a complexity measure that abstracts away per-round computation and bandwidth.",
        article = nil,
        aliases = { "round complexity", "communication-round complexity" },
        es = "Número de rondas de comunicación que necesita un algoritmo federado o distribuido para alcanzar una precisión objetivo, usado como medida de complejidad que abstrae el cómputo y el ancho de banda por ronda.",
        zh = "联邦或分布式算法达到目标精度所需的通信轮数,作为一种抽象掉每轮计算量与带宽的复杂度度量。",
        term_es = "complejidad en rondas de comunicación",
        term_zh = "通信轮复杂度",
        aliases_es = { "complejidad de rondas" },
        aliases_zh = { "轮数复杂度", "通信轮次复杂度" },
    }
    
    data["communication topology"] = {
        short = "The graph that specifies which workers exchange messages with which others in distributed or federated training — e.g. star (server-centric), ring, mesh, or arbitrary peer-to-peer topologies for decentralized SGD.",
        article = nil,
        aliases = { "network topology", "comm topology", "communication graph" },
        es = "Grafo que especifica qué nodos intercambian mensajes con cuáles en entrenamiento distribuido o federado —por ejemplo, estrella (centrada en el servidor), anillo, malla o topologías arbitrarias entre pares para SGD descentralizado.",
        zh = "分布式或联邦训练中描述哪些工作节点之间交换消息的图结构,如以服务器为中心的星型拓扑、环形、网状,或去中心化 SGD 中的任意点对点拓扑。",
        term_es = "topología de comunicación",
        term_zh = "通信拓扑",
        aliases_es = { "topología de red", "grafo de comunicación" },
        aliases_zh = { "通信图", "网络拓扑" },
    }
    
    data["communication-computation lower bound"] = {
        short = "A theoretical bound that characterizes the minimum amount of communication or computation any algorithm must perform — and the unavoidable trade-off between them — to solve a distributed or federated optimization problem to a given accuracy.",
        article = nil,
        aliases = { "communication-computation tradeoff lower bound", "comm-comp lower bound" },
        es = "Cota teórica que caracteriza la cantidad mínima de comunicación o cómputo que debe realizar cualquier algoritmo —y el compromiso inevitable entre ambos— para resolver un problema de optimización distribuida o federada con una precisión dada.",
        zh = "刻画任意算法在求解分布式或联邦优化问题至给定精度时,所需通信量或计算量的最小值及二者之间不可避免权衡的理论下界。",
        term_es = "cota inferior comunicación-cómputo",
        term_zh = "通信-计算下界",
        aliases_es = { "cota inferior de compromiso comunicación-cómputo" },
        aliases_zh = { "通信-计算复杂度下界", "communication-computation lower bound" },
    }
    
    data["communication-computation trade-off"] = {
        short = "The empirical and theoretical trade-off in distributed and federated learning between bytes exchanged per round and local compute per round — e.g. more local SGD steps reduce rounds but raise client drift.",
        article = nil,
        aliases = { "communication-computation tradeoff", "comm-comp trade-off", "comm-compute trade-off" },
        es = "Compromiso empírico y teórico en aprendizaje distribuido y federado entre los bytes intercambiados por ronda y el cómputo local por ronda; por ejemplo, más pasos locales de SGD reducen rondas pero aumentan la desviación del cliente.",
        zh = "分布式与联邦学习中,每轮通信字节量与每轮本地计算量之间的经验性与理论性权衡——例如增加本地 SGD 步数可减少通信轮数,但会加剧客户端漂移。",
        term_es = "compromiso comunicación-cómputo",
        term_zh = "通信-计算权衡",
        aliases_es = { "trade-off comunicación-cómputo", "compromiso comunicación-computación" },
        aliases_zh = { "通信与计算权衡", "communication-computation tradeoff" },
    }
    
    data["community involvement"] = {
        short = "The practice of engaging affected communities in the design, deployment, and evaluation of AI systems to ensure their values, needs, and concerns shape technical decisions and governance.",
        article = nil,
        aliases = { "community engagement", "stakeholder involvement", "community participation" },
        es = "Práctica de involucrar a las comunidades afectadas en el diseño, despliegue y evaluación de sistemas de IA para garantizar que sus valores, necesidades y preocupaciones moldeen las decisiones técnicas y la gobernanza.",
        zh = "在AI系统的设计、部署和评估中让受影响社区参与的做法,以确保其价值观、需求和关切能够塑造技术决策与治理。",
        term_es = "participación comunitaria",
        term_zh = "社区参与",
        aliases_es = { "involucramiento de la comunidad", "participación de partes interesadas" },
        aliases_zh = { "社区介入", "利益相关方参与" },
    }
    
    data["community-based participatory ai"] = {
        short = "An approach that brings community members into AI development as co-designers and decision makers throughout the lifecycle, drawing on community-based participatory research traditions from public health and social science.",
        article = nil,
        aliases = { "CBPAI", "participatory AI", "community-based participatory AI development" },
        es = "Enfoque que incorpora a miembros de la comunidad como codiseñadores y tomadores de decisiones a lo largo del ciclo de vida del desarrollo de IA, inspirado en las tradiciones de investigación participativa basada en la comunidad de salud pública y ciencias sociales.",
        zh = "一种将社区成员作为共同设计者和决策者纳入AI开发全生命周期的方法,借鉴了公共卫生和社会科学中以社区为基础的参与式研究传统。",
        term_es = "IA participativa basada en la comunidad",
        term_zh = "基于社区的参与式人工智能",
        aliases_es = { "CBPAI", "IA participativa", "desarrollo de IA participativo basado en la comunidad" },
        aliases_zh = { "CBPAI", "参与式AI", "社区参与式AI" },
    }
    
    data["comparative modeling"] = {
        short = "A protein structure prediction approach that builds a model of a target sequence using one or more experimentally solved homologous structures as templates. Also known as homology modeling.",
        article = nil,
        aliases = { "homology modeling", "homology modelling", "template-based modeling", "comparative protein modeling" },
        es = "Enfoque de predicción de la estructura proteica que construye un modelo de una secuencia diana usando como plantilla una o más estructuras homólogas resueltas experimentalmente. También conocido como modelado por homología.",
        zh = "一种蛋白质结构预测方法,使用一个或多个实验解析的同源结构作为模板来构建目标序列的模型,又称同源建模。",
        term_es = "modelado comparativo",
        term_zh = "比较建模",
        aliases_es = { "modelado por homología", "modelado basado en plantilla" },
        aliases_zh = { "同源建模", "基于模板的建模" },
    }
    
    data["comparison mos"] = {
        short = "A subjective speech-quality evaluation in which listeners directly compare two stimuli (typically a baseline and a test system) and rate the relative quality on a preference scale, averaged into a comparative mean opinion score.",
        article = nil,
        aliases = { "CMOS", "comparative MOS", "Comparative Mean Opinion Score", "comparison MOS" },
        es = "Evaluación subjetiva de la calidad del habla en la que los oyentes comparan directamente dos estímulos (normalmente un sistema de referencia y uno de prueba) y valoran la calidad relativa en una escala de preferencia, promediada en una puntuación de opinión media comparativa.",
        zh = "一种主观语音质量评测方法,听音者直接比较两个语音样本(通常为基线系统与测试系统),在偏好量表上对相对质量进行打分,并取平均得到比较平均意见分。",
        term_es = "MOS comparativo",
        term_zh = "比较 MOS",
        aliases_es = { "CMOS", "puntuación de opinión media comparativa" },
        aliases_zh = { "CMOS", "对比 MOS", "比较平均意见分" },
    }
    
    data["compartment a/b"] = {
        short = "Two megabase-scale chromatin compartments revealed by Hi-C: A compartments are gene-rich, transcriptionally active, and open, while B compartments are gene-poor, repressive, and enriched in heterochromatin.",
        article = nil,
        aliases = { "A/B compartments", "A and B compartments", "Hi-C A/B compartments", "compartment A", "compartment B" },
        es = "Dos compartimentos de cromatina a escala de megabase revelados por Hi-C: los compartimentos A son ricos en genes, transcripcionalmente activos y de cromatina abierta, mientras que los B son pobres en genes, represivos y enriquecidos en heterocromatina.",
        zh = "Hi-C 揭示的两类兆碱基级染色质区室:A 区室富含基因、转录活跃且染色质开放,而 B 区室基因稀少、呈抑制状态并富集异染色质。",
        term_es = "compartimentos A/B",
        term_zh = "A/B 区室",
        aliases_es = { "compartimentos A y B", "compartimento A", "compartimento B", "compartimentos A/B Hi-C" },
        aliases_zh = { "A 与 B 区室", "Hi-C A/B 区室", "A 区室", "B 区室" },
    }
    
    data["compas recidivism"] = {
        short = "The Correctional Offender Management Profiling for Alternative Sanctions tool used by US courts to predict recidivism risk. A 2016 ProPublica investigation found it produced higher false positive rates for Black defendants, becoming a landmark case in algorithmic fairness.",
        article = nil,
        aliases = { "COMPAS", "COMPAS algorithm", "COMPAS risk score", "Correctional Offender Management Profiling for Alternative Sanctions" },
        es = "Herramienta Correctional Offender Management Profiling for Alternative Sanctions usada por tribunales de EE. UU. para predecir el riesgo de reincidencia. Una investigación de ProPublica de 2016 reveló que producía mayores tasas de falsos positivos para acusados afroamericanos, convirtiéndose en un caso emblemático de equidad algorítmica.",
        zh = "美国法院用于预测再犯风险的Correctional Offender Management Profiling for Alternative Sanctions工具。ProPublica于2016年的调查发现该工具对黑人被告的假阳性率更高,成为算法公平性的标志性案例。",
        term_es = "reincidencia COMPAS",
        term_zh = "COMPAS再犯预测",
        aliases_es = { "COMPAS", "algoritmo COMPAS", "puntaje de riesgo COMPAS" },
        aliases_zh = { "COMPAS", "COMPAS算法", "COMPAS风险评分" },
    }
    
    data["compgcn"] = {
        short = "A multi-relational graph convolutional network in which entity and relation embeddings are jointly learned and updated using composition operators (subtraction, multiplication, or circular correlation) borrowed from knowledge-graph embedding models.",
        article = nil,
        aliases = { "CompGCN", "Composition GCN", "Composition-based GCN", "Composition-based Graph Convolutional Network" },
        es = "Una red convolucional sobre grafos multirelacional en la que las representaciones de entidades y relaciones se aprenden y actualizan conjuntamente mediante operadores de composición (resta, multiplicación o correlación circular) tomados de modelos de embedding de grafos de conocimiento.",
        zh = "一种多关系图卷积网络,实体和关系的嵌入联合学习并通过来自知识图谱嵌入模型的组合算子(减法、乘法或循环相关)进行更新。",
        term_es = "CompGCN",
        term_zh = "CompGCN",
        aliases_es = { "CompGCN", "GCN basada en composición" },
        aliases_zh = { "CompGCN", "基于组合的 GCN", "组合式图卷积网络" },
    }
    
    data["compiled inference"] = {
        short = "An approach in which a probabilistic model is compiled into a tractable data structure (e.g., arithmetic circuit, sentential decision diagram) so that subsequent queries can be answered in time linear in the circuit size.",
        article = nil,
        aliases = { "knowledge compilation inference", "circuit-based inference", "arithmetic circuit inference" },
        es = "Enfoque en el que un modelo probabilístico se compila en una estructura tratable (por ejemplo, un circuito aritmético o un diagrama de decisión sentencial) de modo que las consultas posteriores se respondan en tiempo lineal en el tamaño del circuito.",
        zh = "将概率模型编译为可处理的数据结构(如算术电路、句子决策图)的推断方法,使后续查询可在与电路规模线性相关的时间内完成。",
        term_es = "inferencia compilada",
        term_zh = "编译式推断",
        aliases_es = { "inferencia por compilación de conocimiento", "inferencia basada en circuitos" },
        aliases_zh = { "知识编译推断", "基于电路的推断", "算术电路推断" },
    }
    
    data["complete data parameter learning"] = {
        short = "Estimation of the parameters of a probabilistic graphical model when every variable in every training instance is observed, allowing closed-form maximum-likelihood (or Bayesian) estimates that decompose along the graph.",
        article = nil,
        aliases = { "fully observed parameter learning", "complete-data MLE", "parameter estimation with complete data" },
        es = "Estimación de los parámetros de un modelo gráfico probabilístico cuando cada variable está observada en cada instancia de entrenamiento, permitiendo estimaciones de máxima verosimilitud (o bayesianas) en forma cerrada que se descomponen a lo largo del grafo.",
        zh = "在每个训练样例中所有变量均被观测的情形下对概率图模型参数进行估计,可得到沿图分解的闭式极大似然(或贝叶斯)估计。",
        term_es = "aprendizaje de parámetros con datos completos",
        term_zh = "完全数据的参数学习",
        aliases_es = { "MLE con datos completos", "estimación de parámetros con datos completamente observados" },
        aliases_zh = { "完全观测下的参数学习", "完整数据 MLE", "完整数据参数估计" },
    }
    
    data["complete iou loss"] = {
        short = "Bounding-box loss that combines IoU, center-point distance, and aspect-ratio consistency into a single objective for object detection.",
        article = nil,
        aliases = { "CIoU loss", "CIoU" },
        es = "Pérdida para cajas que combina IoU, distancia entre centros y consistencia de la relación de aspecto en un único objetivo de detección de objetos.",
        zh = "将 IoU、中心点距离与长宽比一致性融合为单一目标的边界框损失,用于目标检测。",
        term_es = "pérdida CIoU",
        term_zh = "CIoU 损失",
        aliases_es = { "CIoU", "IoU completa" },
        aliases_zh = { "CIoU", "完整 IoU 损失" },
    }
    
    data["completed partially directed acyclic graph"] = {
        short = "A partially directed acyclic graph that represents a Markov equivalence class of DAGs: edges whose direction is shared by every member of the class are oriented, while edges that vary in direction remain undirected.",
        article = nil,
        aliases = { "CPDAG", "essential graph", "Markov equivalence class graph", "completed PDAG" },
        es = "Grafo acíclico parcialmente dirigido que representa una clase de equivalencia de Markov de DAG: las aristas cuya dirección comparte cada miembro de la clase aparecen orientadas, y las que varían en dirección quedan sin orientar.",
        zh = "表示有向无环图的马尔可夫等价类的部分有向无环图:方向在等价类各成员中一致的边被定向,方向不一致的边保持无向。",
        term_es = "grafo acíclico parcialmente dirigido completado",
        term_zh = "完备部分有向无环图",
        aliases_es = { "CPDAG", "grafo esencial", "grafo de la clase de equivalencia de Markov" },
        aliases_zh = { "CPDAG", "本质图", "马尔可夫等价类图" },
    }
    
    data["completeness axiom"] = {
        short = "An axiom for feature attribution methods requiring that the sum of attributions over all input features equals the difference between the model's output at the input and at a chosen baseline. Satisfied by Integrated Gradients and Shapley values.",
        article = nil,
        aliases = { "completeness", "completeness property", "efficiency axiom", "attribution completeness" },
        es = "Axioma para los métodos de atribución de características que exige que la suma de las atribuciones sobre todas las entradas iguale la diferencia entre la salida del modelo en la entrada y en una línea base elegida. Lo satisfacen los gradientes integrados y los valores de Shapley.",
        zh = "特征归因方法的一条公理,要求所有输入特征的归因之和等于模型在输入处与所选基线处输出之差。积分梯度和 Shapley 值满足该性质。",
        term_es = "axioma de completitud",
        term_zh = "完备性公理",
        aliases_es = { "propiedad de completitud", "axioma de eficiencia" },
        aliases_zh = { "完备性", "效率公理" },
    }
    
    data["completeness of d-separation"] = {
        short = "The property that, for any DAG, every conditional independence implied by d-separation in the graph holds in the corresponding distribution and, under faithfulness, no further independences hold.",
        article = nil,
        aliases = { "d-separation completeness", "soundness and completeness of d-separation", "faithfulness of d-separation" },
        es = "Propiedad por la que, para cualquier DAG, toda independencia condicional implicada por la d-separación en el grafo se cumple en la distribución correspondiente y, bajo fidelidad, no se cumplen independencias adicionales.",
        zh = "对任意有向无环图而言,d-分离在图中所蕴含的任何条件独立性在对应分布中均成立,并在忠实性假设下不再有其他独立性的性质。",
        term_es = "completitud de la d-separación",
        term_zh = "d-分离的完备性",
        aliases_es = { "completitud de d-separación", "validez y completitud de d-separación" },
        aliases_zh = { "d-分离完备性", "d-分离的健全性与完备性", "d-分离忠实性" },
    }
    
    data["complex embedding"] = {
        short = "A knowledge-graph embedding (ComplEx) that represents entities and relations as complex-valued vectors, scoring triples via the real part of a Hermitian dot product so that the model can capture both symmetric and antisymmetric relations.",
        article = nil,
        aliases = { "ComplEx", "ComplEx embedding", "complex-valued embedding", "Complex Embeddings" },
        es = "Un embedding de grafos de conocimiento (ComplEx) que representa entidades y relaciones como vectores de valores complejos, puntuando las tripletas mediante la parte real de un producto interno hermítico, lo que permite modelar relaciones tanto simétricas como antisimétricas.",
        zh = "一种知识图谱嵌入方法(ComplEx),将实体和关系表示为复值向量,通过厄米内积的实部对三元组打分,从而能够同时建模对称与反对称关系。",
        term_es = "ComplEx",
        term_zh = "ComplEx",
        aliases_es = { "ComplEx", "embedding ComplEx", "embedding de valores complejos" },
        aliases_zh = { "ComplEx", "复值嵌入", "ComplEx 嵌入" },
    }
    
    data["complex question answering"] = {
        short = "Question answering over knowledge bases or text where each question requires multi-hop reasoning, aggregation, comparison, or composition of multiple facts rather than a single direct lookup.",
        article = nil,
        aliases = { "complex QA", "CQA", "multi-hop question answering", "complex KBQA" },
        es = "Respuesta a preguntas sobre bases de conocimiento o texto en la que cada pregunta requiere razonamiento multisalto, agregación, comparación o composición de varios hechos, en lugar de una única consulta directa.",
        zh = "一种面向知识库或文本的问答任务,每个问题需要多跳推理、聚合、比较或多个事实的组合,而不能仅靠一次直接检索得到答案。",
        term_es = "respuesta a preguntas complejas",
        term_zh = "复杂问答",
        aliases_es = { "QA compleja", "CQA", "respuesta multisalto a preguntas", "complex QA" },
        aliases_zh = { "复杂 QA", "多跳问答", "复杂知识库问答" },
    }
    
    data["complexity term"] = {
        short = "In a regularized objective, the term that penalizes model complexity — for instance the KL divergence to the prior in the ELBO, or a norm of the parameters — and trades off against the data-fit term to control overfitting.",
        article = nil,
        aliases = { "regularization term", "penalty term", "KL term", "complexity penalty" },
        es = "En un objetivo regularizado, término que penaliza la complejidad del modelo —por ejemplo la divergencia KL al prior en el ELBO o una norma de los parámetros— y compensa con el término de ajuste a los datos para controlar el sobreajuste.",
        zh = "在带正则化的目标函数中,惩罚模型复杂度的项——例如ELBO中相对于先验的KL散度或参数的范数——与数据拟合项进行权衡以控制过拟合。",
        term_es = "término de complejidad",
        term_zh = "复杂度项",
        aliases_es = { "término de regularización", "término de penalización", "término KL", "penalización de complejidad" },
        aliases_zh = { "正则化项", "惩罚项", "KL项", "复杂度惩罚" },
    }
    
    data["complexwebquestions"] = {
        short = "A benchmark for complex question answering over Freebase consisting of natural-language questions paired with SPARQL queries that require multi-hop, comparison, or aggregation operations, derived by extending WebQuestionsSP.",
        article = nil,
        aliases = { "ComplexWebQuestions", "CWQ", "Complex Web Questions" },
        es = "Un benchmark de respuesta a preguntas complejas sobre Freebase compuesto por preguntas en lenguaje natural emparejadas con consultas SPARQL que requieren operaciones multisalto, de comparación o de agregación, derivado al extender WebQuestionsSP.",
        zh = "一个面向 Freebase 的复杂问答基准,由自然语言问题与对应的 SPARQL 查询组成,涉及多跳、比较或聚合操作,由 WebQuestionsSP 扩展而来。",
        term_es = "ComplexWebQuestions",
        term_zh = "ComplexWebQuestions",
        aliases_es = { "ComplexWebQuestions", "CWQ" },
        aliases_zh = { "ComplexWebQuestions", "CWQ" },
    }
    
    data["compliance class"] = {
        short = "In instrumental-variable analysis with a binary instrument and binary treatment, one of the latent strata defined by potential treatment under the instrument's two values: always-takers, never-takers, compliers, and defiers.",
        article = nil,
        aliases = { "principal stratum (compliance)", "compliance type", "compliance stratum", "principal strata of compliance", "Angrist-Imbens-Rubin strata" },
        es = "En el análisis de variables instrumentales con un instrumento binario y un tratamiento binario, uno de los estratos latentes definidos por el tratamiento potencial bajo los dos valores del instrumento: siempre tomadores, nunca tomadores, cumplidores y desafiantes.",
        zh = "在以二元工具变量和二元处理为对象的工具变量分析中,由工具取两值时的潜在处理取值所定义的潜在分层之一:始终接受者、从不接受者、依从者和反抗者。",
        term_es = "clase de cumplimiento",
        term_zh = "依从类",
        aliases_es = { "estrato principal de cumplimiento", "tipo de cumplimiento", "estrato de cumplimiento" },
        aliases_zh = { "依从类型", "主分层", "依从分层", "Angrist-Imbens-Rubin 分层" },
    }
    
    data["complier"] = {
        short = "In an instrumental-variable framework with binary instrument and treatment, a unit whose treatment status would change in the same direction as a change in the instrument; i.e., would take treatment if encouraged and not otherwise.",
        article = nil,
        aliases = { "compliers", "complying unit", "compliant unit", "compliant subject", "responsive subject (IV)" },
        es = "En un marco de variables instrumentales con instrumento y tratamiento binarios, una unidad cuyo estado de tratamiento cambiaría en la misma dirección que un cambio en el instrumento; es decir, recibiría el tratamiento si fuera incentivada y no lo recibiría en caso contrario.",
        zh = "在二元工具变量与二元处理的工具变量框架中,处理状态会随工具变化朝相同方向变化的个体;即在受到鼓励时接受处理,在未鼓励时不接受处理。",
        term_es = "cumplidor",
        term_zh = "依从者",
        aliases_es = { "cumplidores", "unidad cumplidora", "sujeto cumplidor" },
        aliases_zh = { "依从个体", "顺从者", "顺从个体", "工具变量依从者" },
    }
    
    data["complier average causal effect"] = {
        short = "The local average treatment effect identified by an instrumental variable, equal to the average causal effect of treatment on outcome among the subpopulation of compliers; under standard IV assumptions it equals the Wald estimand.",
        article = nil,
        aliases = { "CACE", "LATE", "local average treatment effect", "complier ATE", "complier-average causal effect", "Wald estimand", "Imbens-Angrist LATE" },
        es = "Efecto causal promedio local identificado por una variable instrumental, igual al efecto causal promedio del tratamiento sobre el resultado dentro de la subpoblación de cumplidores; bajo las hipótesis estándar de VI coincide con el estimando de Wald.",
        zh = "由工具变量识别的局部平均处理效应,等于处理对结果在依从者子总体中的平均因果效应;在标准工具变量假设下与 Wald 估计量相等。",
        term_es = "efecto causal promedio en cumplidores",
        term_zh = "依从者平均因果效应",
        aliases_es = { "CACE", "LATE", "efecto causal medio local", "ATE en cumplidores", "estimando de Wald" },
        aliases_zh = { "CACE", "LATE", "局部平均处理效应", "依从者平均处理效应", "Wald 估计量" },
    }
    
    data["composite fairness"] = {
        short = "Fairness criteria defined over the joint behavior of multiple models, decisions, or pipeline stages rather than a single classifier, addressing how individual fair components can combine into an unfair system.",
        article = nil,
        aliases = { "compositional fairness", "pipeline fairness" },
        es = "Criterios de equidad definidos sobre el comportamiento conjunto de múltiples modelos, decisiones o etapas de tubería en lugar de un solo clasificador, abordando cómo componentes individualmente justos pueden combinarse en un sistema injusto.",
        zh = "在多个模型、决策或流水线阶段联合行为上定义的公平性准则,而非单一分类器,旨在解决单独公平的组件如何组合成不公平系统的问题。",
        term_es = "equidad compuesta",
        term_zh = "复合公平性",
        aliases_es = { "equidad composicional", "equidad de tubería" },
        aliases_zh = { "组合公平性", "流水线公平性" },
    }
    
    data["composite likelihood"] = {
        short = "An inference objective formed as a product (or weighted sum of logs) of low-dimensional conditional or marginal densities, used as a tractable surrogate for the full likelihood when the latter is intractable.",
        article = nil,
        aliases = { "pseudo-likelihood", "composite likelihood estimation", "marginal composite likelihood" },
        es = "Objetivo de inferencia formado como producto (o suma ponderada de logaritmos) de densidades condicionales o marginales de baja dimensión, utilizado como sustituto tratable de la verosimilitud completa cuando esta es intratable.",
        zh = "由低维条件或边缘密度的乘积(或加权对数和)构成的推断目标,在完整似然难以处理时作为其可计算的替代。",
        term_es = "verosimilitud compuesta",
        term_zh = "复合似然",
        aliases_es = { "pseudo-verosimilitud", "estimación por verosimilitud compuesta" },
        aliases_zh = { "伪似然", "复合似然估计", "边缘复合似然" },
    }
    
    data["composition of pipelines"] = {
        short = "In AutoML, the construction of an end-to-end machine learning pipeline by chaining preprocessing, feature engineering, model, and post-processing stages, often searched jointly with their hyperparameters.",
        article = nil,
        aliases = { "pipeline composition", "ML pipeline composition", "AutoML pipeline composition" },
        es = "En AutoML, construcción de un pipeline de aprendizaje automático de extremo a extremo encadenando etapas de preprocesamiento, ingeniería de características, modelo y post-procesamiento, normalmente buscadas junto con sus hiperparámetros.",
        zh = "在AutoML中,通过串联预处理、特征工程、模型和后处理等阶段构建端到端机器学习流水线,通常与其超参数联合搜索。",
        term_es = "composición de pipelines",
        term_zh = "流水线组合",
        aliases_es = { "composición de pipeline", "composición de pipelines de ML", "composición de pipelines en AutoML" },
        aliases_zh = { "管道组合", "ML流水线组合", "AutoML流水线组合" },
    }
    
    data["compositional generalization"] = {
        short = "The ability of a learned model to systematically generalize to novel combinations of primitives it has seen individually during training, such as understanding new sentences built from familiar words and structures.",
        article = nil,
        aliases = { "systematic generalization", "compositional generalisation", "compositional systematicity" },
        es = "La capacidad de un modelo aprendido para generalizar sistemáticamente a nuevas combinaciones de primitivas vistas individualmente durante el entrenamiento, como comprender oraciones nuevas construidas a partir de palabras y estructuras conocidas.",
        zh = "已训练模型在测试时系统地泛化到训练中分别见过的原语的新组合的能力,例如理解由熟悉词汇和结构组成的新句子。",
        term_es = "generalización composicional",
        term_zh = "组合泛化",
        aliases_es = { "generalización sistemática", "generalización composicional sistemática" },
        aliases_zh = { "系统性泛化", "组合性泛化" },
    }
    
    data["compositional grounding"] = {
        short = "The task of localizing in an image the entities, attributes, and relations specified by a complex referring expression by composing the meaning of its constituents rather than treating the phrase as a single label.",
        article = nil,
        aliases = { "compositional visual grounding", "compositional phrase grounding" },
        es = "Tarea de localizar en una imagen las entidades, atributos y relaciones especificadas por una expresión referencial compleja componiendo el significado de sus partes, en lugar de tratar la frase como una sola etiqueta.",
        zh = "在图像中根据复杂指代表达式定位其指定的实体、属性与关系的任务,需要组合其各组成部分的语义,而非将整个短语作为单一标签处理。",
        term_es = "anclaje composicional",
        term_zh = "组合式视觉定位",
        aliases_es = { "anclaje visual composicional", "grounding composicional" },
        aliases_zh = { "组合式grounding", "组合式短语定位" },
    }
    
    data["compositional reasoning"] = {
        short = "Reasoning that derives the answer to a complex query by combining the meanings or results of simpler sub-queries according to a recursive structure, central to language understanding, math, and program synthesis.",
        article = nil,
        aliases = { "compositional inference", "compositional thinking" },
        es = "Razonamiento que deriva la respuesta a una consulta compleja combinando los significados o resultados de subconsultas más simples según una estructura recursiva; es central en la comprensión del lenguaje, las matemáticas y la síntesis de programas.",
        zh = "一种推理方式,通过按递归结构组合更简单子问题的含义或结果来得到复杂问题的答案,是语言理解、数学和程序综合的核心能力。",
        term_es = "razonamiento composicional",
        term_zh = "组合推理",
        aliases_es = { "razonamiento composicional", "inferencia composicional" },
        aliases_zh = { "组合式推理", "组合性推理" },
    }
    
    data["compositional reasoning multimodal"] = {
        short = "The ability of a multimodal model to combine concepts, attributes, and relations across vision and language in a systematic way, evaluated by benchmarks such as Winoground, ARO, and SugarCrepe that probe sensitivity to word order and binding.",
        article = nil,
        aliases = { "multimodal compositional reasoning", "compositional reasoning in multimodal models", "vision-language compositionality" },
        es = "Capacidad de un modelo multimodal para combinar conceptos, atributos y relaciones entre visión y lenguaje de forma sistemática, evaluada por benchmarks como Winoground, ARO y SugarCrepe que sondean la sensibilidad al orden de las palabras y al ligado de atributos.",
        zh = "多模态模型在视觉与语言之间系统性地组合概念、属性与关系的能力,由Winoground、ARO、SugarCrepe等基准评估,检验其对词序与属性绑定的敏感性。",
        term_es = "razonamiento composicional multimodal",
        term_zh = "多模态组合推理",
        aliases_es = { "razonamiento composicional en modelos multimodales", "composicionalidad visión-lenguaje" },
        aliases_zh = { "多模态组合性推理", "视觉-语言组合性" },
    }
    
    data["compositional t2i"] = {
        short = "Text-to-image generation tasks that require correctly rendering multiple objects with their specified attributes, counts, and spatial or relational arrangements, evaluated by benchmarks such as T2I-CompBench and DrawBench.",
        article = nil,
        aliases = { "compositional text-to-image", "compositional T2I generation", "compositional text-to-image generation" },
        es = "Tareas de generación de imagen a partir de texto que requieren representar correctamente múltiples objetos con sus atributos, recuentos y disposiciones espaciales o relacionales especificadas, evaluadas mediante benchmarks como T2I-CompBench y DrawBench.",
        zh = "要求正确渲染多个对象及其指定属性、数量和空间或关系布局的文本到图像生成任务,由T2I-CompBench、DrawBench等基准评估。",
        term_es = "T2I composicional",
        term_zh = "组合式文本到图像生成",
        aliases_es = { "generación texto-imagen composicional", "T2I composicional" },
        aliases_zh = { "组合式T2I", "组合式文生图" },
    }
    
    data["compositional vqa"] = {
        short = "A family of visual question answering tasks and models in which questions are decomposed into a sequence of reasoning steps over visual primitives (objects, attributes, relations), as exemplified by CLEVR and Neural Module Networks.",
        article = nil,
        aliases = { "compositional VQA", "compositional visual question answering", "compositional visual QA" },
        es = "Una familia de tareas y modelos de respuesta visual a preguntas en los que las preguntas se descomponen en una secuencia de pasos de razonamiento sobre primitivas visuales (objetos, atributos, relaciones), como ejemplifican CLEVR y las Neural Module Networks.",
        zh = "一类视觉问答任务和模型,将问题分解为针对视觉原语(物体、属性、关系)的一系列推理步骤,以 CLEVR 和神经模块网络为代表。",
        term_es = "VQA composicional",
        term_zh = "组合式视觉问答",
        aliases_es = { "VQA composicional", "respuesta visual composicional a preguntas" },
        aliases_zh = { "组合式 VQA", "组合视觉问答", "compositional VQA" },
    }
    
    data["compound scaling"] = {
        short = "A model-scaling principle, popularized by EfficientNet, that uniformly scales network depth, width, and input resolution by fixed coefficients tied to a single compound parameter.",
        article = nil,
        aliases = { "compound model scaling", "EfficientNet compound scaling" },
        es = "Principio de escalado de modelos, popularizado por EfficientNet, que escala uniformemente la profundidad, el ancho y la resolución de entrada de la red mediante coeficientes fijos vinculados a un único parámetro compuesto.",
        zh = "由EfficientNet推广的模型缩放原则,使用与单一复合参数挂钩的固定系数同时按比例缩放网络深度、宽度和输入分辨率。",
        term_es = "escalado compuesto",
        term_zh = "复合缩放",
        aliases_es = { "escalado compuesto de modelos", "escalado compuesto de EfficientNet" },
        aliases_zh = { "复合模型缩放", "EfficientNet复合缩放" },
    }
    
    data["compound-protein interaction"] = {
        short = "The binding event or predicted affinity between a small-molecule compound and a target protein; a core prediction task in computational drug discovery.",
        article = nil,
        aliases = { "CPI", "compound protein interaction", "compound-target interaction", "drug-target interaction", "DTI", "ligand-protein interaction" },
        es = "Evento de unión o afinidad predicha entre un compuesto de molécula pequeña y una proteína diana; una tarea central de predicción en el descubrimiento computacional de fármacos.",
        zh = "小分子化合物与靶蛋白之间的结合事件或预测亲和力;计算药物发现中的核心预测任务。",
        term_es = "interacción compuesto-proteína",
        term_zh = "化合物-蛋白相互作用",
        aliases_es = { "CPI", "interacción fármaco-diana", "DTI", "interacción ligando-proteína" },
        aliases_zh = { "CPI", "化合物-蛋白质相互作用", "药物-靶点相互作用", "DTI" },
    }
    
    data["compounding bias"] = {
        short = "The amplification of bias as it propagates through successive stages of a system or feedback loop, where small disparities at one step are reinforced and magnified at later steps.",
        article = nil,
        aliases = { "cumulative bias", "bias amplification", "bias compounding" },
        es = "Amplificación del sesgo a medida que se propaga a través de etapas sucesivas de un sistema o ciclo de retroalimentación, donde pequeñas disparidades en un paso se refuerzan y magnifican en pasos posteriores.",
        zh = "偏见在系统或反馈循环的连续阶段中传播时被放大的现象,某一步的微小差异在后续步骤中被强化和放大。",
        term_es = "sesgo acumulativo",
        term_zh = "累积偏见",
        aliases_es = { "sesgo compuesto", "amplificación del sesgo" },
        aliases_zh = { "复合偏见", "偏见放大" },
    }
    
    data["comprehensiveness aopc"] = {
        short = "An evaluation metric for saliency-based explanations measuring the average drop in predicted probability when the most-important tokens (according to the explanation) are progressively removed. Higher AOPC indicates a more faithful rationale.",
        article = nil,
        aliases = { "AOPC comprehensiveness", "AOPC", "area over perturbation curve", "comprehensiveness AOPC score" },
        es = "Métrica de evaluación para explicaciones basadas en saliencia que mide la caída promedio en la probabilidad predicha al eliminar progresivamente los tokens más importantes según la explicación. Un AOPC más alto indica una racionalización más fiel.",
        zh = "用于评估显著性解释的指标,衡量按解释逐步移除最重要的若干 token 后预测概率的平均下降幅度。AOPC 越高,说明解释越忠实。",
        term_es = "comprehensiveness AOPC",
        term_zh = "comprehensiveness AOPC",
        aliases_es = { "AOPC", "área sobre la curva de perturbación" },
        aliases_zh = { "AOPC", "扰动曲线上方面积" },
    }
    
    data["comprehensiveness metric"] = {
        short = "An interpretability metric that quantifies how much a model's prediction changes when the features identified as important by an explanation are removed. Larger drops indicate that the explanation captures genuinely influential features.",
        article = nil,
        aliases = { "comprehensiveness", "comprehensiveness score", "explanation comprehensiveness" },
        es = "Métrica de interpretabilidad que cuantifica cuánto cambia la predicción de un modelo al eliminar las características identificadas como importantes por una explicación. Caídas mayores indican que la explicación captura características genuinamente influyentes.",
        zh = "一种可解释性指标,量化在移除解释认定为重要的特征后模型预测的变化幅度。变化越大,说明解释捕捉到了真正具有影响力的特征。",
        term_es = "métrica de exhaustividad",
        term_zh = "全面性指标",
        aliases_es = { "exhaustividad", "puntaje de exhaustividad" },
        aliases_zh = { "全面性", "全面性得分" },
    }
    
    data["compressed gossip sgd"] = {
        short = "A family of decentralized SGD algorithms in which workers exchange compressed (quantized or sparsified) updates with neighbors over a peer-to-peer graph, reducing per-round bandwidth in the absence of a central server.",
        article = nil,
        aliases = { "compressed gossip SGD", "compressed-gossip SGD", "gossip SGD with compression" },
        es = "Familia de algoritmos de SGD descentralizado en los que los nodos intercambian con sus vecinos actualizaciones comprimidas (cuantizadas o esparsificadas) sobre un grafo entre pares, reduciendo el ancho de banda por ronda sin necesidad de un servidor central.",
        zh = "一类去中心化 SGD 算法:在没有中心服务器的情况下,各节点通过点对点图与邻居交换经过压缩(量化或稀疏化)的更新,从而降低每轮通信带宽。",
        term_es = "SGD por gossip comprimido",
        term_zh = "压缩 gossip SGD",
        aliases_es = { "SGD descentralizado con gossip comprimido", "gossip SGD comprimido" },
        aliases_zh = { "压缩流言 SGD", "带压缩的 gossip SGD" },
    }
    
    data["compute budget"] = {
        short = "The total amount of computational resources—commonly measured in FLOPs, GPU-hours, or wall-clock time—available for training, hyperparameter search, or architecture search.",
        article = nil,
        aliases = { "computational budget", "compute constraint", "training budget" },
        es = "Cantidad total de recursos computacionales —habitualmente medida en FLOPs, horas-GPU o tiempo de reloj— disponible para entrenamiento, búsqueda de hiperparámetros o búsqueda de arquitecturas.",
        zh = "可用于训练、超参数搜索或架构搜索的全部计算资源总量,通常以FLOPs、GPU小时或挂钟时间衡量。",
        term_es = "presupuesto de cómputo",
        term_zh = "计算预算",
        aliases_es = { "presupuesto computacional", "restricción de cómputo", "presupuesto de entrenamiento" },
        aliases_zh = { "计算资源预算", "算力预算", "训练预算" },
    }
    
    data["compute heterogeneity"] = {
        short = "Variation across federated clients in available CPU/GPU power, memory, or energy budget, which causes stragglers and motivates asynchronous, partial-work, or model-pruning techniques.",
        article = nil,
        aliases = { "system heterogeneity", "device heterogeneity", "hardware heterogeneity", "computational heterogeneity" },
        es = "Variación entre clientes federados en cuanto a CPU/GPU disponible, memoria o presupuesto energético, que provoca rezagados y motiva técnicas asíncronas, de trabajo parcial o de poda de modelos.",
        zh = "联邦学习中各客户端在可用 CPU/GPU 算力、内存或能耗预算上的差异,会产生掉队者,并促使采用异步训练、部分工作量或模型剪枝等技术。",
        term_es = "heterogeneidad de cómputo",
        term_zh = "计算异构性",
        aliases_es = { "heterogeneidad de sistema", "heterogeneidad de dispositivos", "heterogeneidad de hardware" },
        aliases_zh = { "系统异构性", "设备异构性", "硬件异构性", "算力异构性" },
    }
    
    data["compute multiplier"] = {
        short = "A way to quantify algorithmic progress in machine learning by expressing how much less compute a newer technique requires to match the performance of an older baseline at the same task.",
        article = nil,
        aliases = { "compute multiplier", "compute equivalent", "effective compute multiplier" },
        es = "Forma de cuantificar el progreso algorítmico en aprendizaje automático expresando cuánta menos cómputo necesita una técnica más reciente para igualar el rendimiento de una línea base anterior en la misma tarea.",
        zh = "一种用于量化机器学习算法进步的指标,表示新技术相对于旧基线在同一任务上达到相同性能所需算力的减少倍数。",
        term_es = "multiplicador de cómputo",
        term_zh = "算力倍增因子",
        aliases_es = { "multiplicador de cómputo", "compute multiplier" },
        aliases_zh = { "算力倍增因子", "compute multiplier", "等效算力倍数" },
    }
    
    data["compute-optimal scaling"] = {
        short = "Scaling laws, popularized by the Chinchilla paper, that prescribe the model size and training-token count that jointly minimize loss for a fixed compute budget; for transformer LLMs, this implies roughly 20 training tokens per parameter.",
        article = nil,
        aliases = { "compute-optimal scaling", "Chinchilla scaling", "Chinchilla scaling laws", "compute optimal scaling" },
        es = "Leyes de escalado, popularizadas por el artículo de Chinchilla, que indican el tamaño del modelo y el número de tokens de entrenamiento que minimizan conjuntamente la pérdida para un presupuesto de cómputo fijo; para LLM de tipo transformador implican aproximadamente 20 tokens de entrenamiento por parámetro.",
        zh = "由 Chinchilla 论文提出的缩放定律,在固定算力预算下共同最小化损失所对应的最优模型规模与训练 token 数量;对 Transformer 大语言模型而言,大致意味着每个参数约 20 个训练 token。",
        term_es = "escalado óptimo en cómputo",
        term_zh = "算力最优缩放",
        aliases_es = { "escalado óptimo en cómputo", "leyes de escalado de Chinchilla", "compute-optimal scaling" },
        aliases_zh = { "算力最优缩放", "Chinchilla 缩放定律", "compute-optimal scaling" },
    }
    
    data["computer use"] = {
        short = "An Anthropic capability, introduced in 2024 with Claude 3.5 Sonnet, that lets a model operate a computer by viewing screenshots and emitting mouse, keyboard, and shell actions to complete tasks in arbitrary GUI applications.",
        article = nil,
        aliases = { "Computer Use", "computer use", "Claude Computer Use" },
        es = "Capacidad de Anthropic, introducida en 2024 con Claude 3.5 Sonnet, que permite a un modelo operar una computadora visualizando capturas de pantalla y emitiendo acciones de ratón, teclado y shell para completar tareas en aplicaciones gráficas arbitrarias.",
        zh = "Anthropic 于 2024 年随 Claude 3.5 Sonnet 推出的能力,允许模型通过查看屏幕截图并发出鼠标、键盘和 shell 操作来操控计算机,从而在任意图形界面应用中完成任务。",
        term_es = "Computer Use",
        term_zh = "Computer Use",
        aliases_es = { "Computer Use", "uso de computadora" },
        aliases_zh = { "Computer Use", "计算机使用" },
    }
    
    data["comsia"] = {
        short = "Comparative Molecular Similarity Indices Analysis: a 3D-QSAR method that uses Gaussian-shaped similarity fields (steric, electrostatic, hydrophobic, hydrogen-bond) instead of CoMFA's Lennard-Jones potentials.",
        article = nil,
        aliases = { "CoMSIA", "Comparative Molecular Similarity Indices Analysis" },
        es = "Análisis Comparativo de Índices de Similitud Molecular: método 3D-QSAR que emplea campos de similitud gaussianos (estéricos, electrostáticos, hidrofóbicos y de enlace de hidrógeno) en lugar de los potenciales Lennard-Jones de CoMFA.",
        zh = "比较分子相似性指数分析:一种 3D-QSAR 方法,使用高斯形相似性场(立体、静电、疏水、氢键)取代 CoMFA 中的 Lennard-Jones 势。",
        term_es = "CoMSIA",
        term_zh = "CoMSIA",
        aliases_es = { "CoMSIA", "Análisis Comparativo de Índices de Similitud Molecular" },
        aliases_zh = { "CoMSIA", "比较分子相似性指数分析" },
    }
    
    data["concatenative tts"] = {
        short = "A text-to-speech approach that synthesizes speech by selecting and concatenating short pre-recorded units (phones, diphones, or larger segments) from a database, producing high naturalness but limited flexibility.",
        article = nil,
        aliases = { "concatenative speech synthesis", "unit-selection TTS", "unit selection synthesis", "concatenative synthesis" },
        es = "Enfoque de síntesis de texto a voz que genera habla seleccionando y concatenando unidades cortas pregrabadas (fonos, difonos o segmentos mayores) de una base de datos, produciendo una alta naturalidad pero con flexibilidad limitada.",
        zh = "一种文本到语音方法,通过从数据库中选择并拼接预录的短单元(音素、双音素或更长的语音片段)来合成语音,自然度较高但灵活性有限。",
        term_es = "TTS concatenativa",
        term_zh = "拼接式语音合成",
        aliases_es = { "síntesis concatenativa", "TTS por selección de unidades" },
        aliases_zh = { "拼接合成", "单元选择合成", "拼接 TTS" },
    }
    
    data["concentration inequality"] = {
        short = "Any inequality that bounds the probability that a random variable (typically a sum or function of independent variables) deviates from its expected value, including Markov, Chebyshev, Chernoff, Hoeffding, Bernstein, and McDiarmid bounds.",
        article = nil,
        aliases = { "concentration bound", "concentration inequalities", "tail bound", "deviation inequality" },
        es = "Cualquier desigualdad que acota la probabilidad de que una variable aleatoria (típicamente una suma o función de variables independientes) se desvíe de su valor esperado, incluyendo las cotas de Markov, Chebyshev, Chernoff, Hoeffding, Bernstein y McDiarmid.",
        zh = "任何对随机变量(通常为独立变量之和或函数)偏离其期望值的概率给出界限的不等式,包括 Markov、Chebyshev、Chernoff、Hoeffding、Bernstein 和 McDiarmid 等界。",
        term_es = "desigualdad de concentración",
        term_zh = "集中不等式",
        aliases_es = { "cota de concentración", "desigualdades de concentración", "cota de cola", "desigualdad de desviación" },
        aliases_zh = { "集中界", "尾部不等式", "偏差不等式" },
    }
    
    data["concept activation region"] = {
        short = "A generalization of concept activation vectors that represents a concept as a region (e.g., a Gaussian or convex set) in a neural network's activation space rather than a single direction, allowing richer concept geometry.",
        article = nil,
        aliases = { "CAR", "concept activation regions" },
        es = "Generalización de los vectores de activación de conceptos que representa un concepto como una región (por ejemplo, una gaussiana o un conjunto convexo) en el espacio de activaciones de una red neuronal, en lugar de una única dirección, permitiendo una geometría conceptual más rica.",
        zh = "概念激活向量的一种推广,将概念表示为神经网络激活空间中的一个区域(例如高斯分布或凸集),而非单一方向,从而刻画更丰富的概念几何结构。",
        term_es = "región de activación de concepto",
        term_zh = "概念激活区域",
        aliases_es = { "CAR", "regiones de activación de concepto" },
        aliases_zh = { "CAR", "概念激活区" },
    }
    
    data["concept activation vector"] = {
        short = "A direction in a neural network's activation space corresponding to a human-interpretable concept, learned by training a linear classifier to separate examples that exemplify the concept from random examples. Used in TCAV to quantify concept influence on predictions.",
        article = nil,
        aliases = { "CAV", "concept activation vectors", "concept-activation vector" },
        es = "Vector en el espacio de activaciones de una red neuronal que representa un concepto interpretable, aprendido entrenando un clasificador lineal entre ejemplos del concepto y ejemplos aleatorios. Base del método TCAV para cuantificar la influencia de conceptos.",
        zh = "神经网络激活空间中表示可解释概念的方向向量,通过训练线性分类器区分概念示例与随机示例得到。是TCAV方法量化概念对预测影响的基础。",
        term_es = "vector de activación de concepto",
        term_zh = "概念激活向量",
        aliases_es = { "CAV", "vectores de activación de concepto" },
        aliases_zh = { "CAV", "概念激活方向" },
    }
    
    data["concept attribution"] = {
        short = "The assignment of importance scores at the level of human-interpretable concepts rather than raw input features, quantifying how much each concept contributed to a model's output.",
        article = nil,
        aliases = { "concept-level attribution", "concept importance", "concept attribution score" },
        es = "Asignación de puntuaciones de importancia a nivel de conceptos interpretables, en vez de a las características de entrada, cuantificando cuánto contribuyó cada concepto a la salida del modelo.",
        zh = "在可解释概念层面(而非原始输入特征层面)分配重要性分数,用以量化每个概念对模型输出的贡献。",
        term_es = "atribución por conceptos",
        term_zh = "概念归因",
        aliases_es = { "atribución a nivel de concepto", "importancia de concepto" },
        aliases_zh = { "概念级归因", "概念重要性" },
    }
    
    data["concept bottleneck model"] = {
        short = "A model architecture that first predicts a set of human-interpretable concepts from the input and then predicts the final label from those concepts alone, enabling intervention and inspection at the concept layer.",
        article = nil,
        aliases = { "CBM", "concept bottleneck models", "concept-bottleneck model" },
        es = "Arquitectura que primero predice un conjunto de conceptos interpretables a partir de la entrada y luego predice la etiqueta final únicamente a partir de esos conceptos, permitiendo intervención e inspección en la capa conceptual.",
        zh = "一种模型架构,先从输入预测一组可解释的概念,再仅根据这些概念预测最终标签,从而支持在概念层进行干预和检查。",
        term_es = "modelo de cuello de botella conceptual",
        term_zh = "概念瓶颈模型",
        aliases_es = { "CBM", "modelo de cuello de botella de conceptos" },
        aliases_zh = { "CBM" },
    }
    
    data["concept discovery"] = {
        short = "The automated identification of human-interpretable concepts learned by a neural network, typically via clustering of activations, matrix factorization, or sparse autoencoders. Contrasts with supervised concept methods that require labeled concepts.",
        article = nil,
        aliases = { "automatic concept discovery", "ACE", "unsupervised concept discovery" },
        es = "Identificación automatizada de conceptos interpretables aprendidos por una red neuronal, típicamente mediante el agrupamiento de activaciones, factorización de matrices o autoencoders dispersos. Contrasta con los métodos supervisados que requieren conceptos etiquetados.",
        zh = "自动识别神经网络所习得的人类可理解概念,通常通过对激活进行聚类、矩阵分解或稀疏自编码器实现。与需要带标签概念的监督方法形成对照。",
        term_es = "descubrimiento de conceptos",
        term_zh = "概念发现",
        aliases_es = { "descubrimiento automático de conceptos", "ACE" },
        aliases_zh = { "ACE", "自动概念发现" },
    }
    
    data["concept drift"] = {
        short = "A form of distribution shift in which the conditional relationship between inputs and outputs changes over time, so that previously learned mappings become stale even if the input distribution is unchanged.",
        article = nil,
        aliases = { "concept shift", "label shift over time", "conditional drift" },
        es = "Tipo de desplazamiento de distribución en el que la relación condicional entre entradas y salidas cambia con el tiempo, lo que vuelve obsoletas las correspondencias aprendidas previamente aunque la distribución de entrada no cambie.",
        zh = "一种分布偏移形式,输入与输出之间的条件关系随时间变化,导致先前学到的映射即使在输入分布不变的情况下也会失效。",
        term_es = "deriva de conceptos",
        term_zh = "概念漂移",
        aliases_es = { "deriva conceptual", "cambio de concepto" },
        aliases_zh = { "概念偏移", "条件漂移" },
    }
    
    data["concept drift fairness"] = {
        short = "The study of how fairness properties degrade when the underlying data distribution shifts over time, and methods for monitoring and re-establishing fairness as the deployed model encounters drifted populations.",
        article = nil,
        aliases = { "fairness under concept drift", "fairness drift" },
        es = "Estudio de cómo las propiedades de equidad se degradan cuando la distribución de datos subyacente cambia con el tiempo, y métodos para monitorear y restablecer la equidad cuando el modelo desplegado encuentra poblaciones con deriva.",
        zh = "研究当底层数据分布随时间变化时公平性如何退化,以及当部署模型遇到漂移人群时监测和重新建立公平性的方法。",
        term_es = "equidad ante deriva conceptual",
        term_zh = "概念漂移下的公平性",
        aliases_es = { "equidad bajo deriva conceptual", "deriva de equidad" },
        aliases_zh = { "概念漂移公平性", "公平性漂移" },
    }
    
    data["concept embedding model"] = {
        short = "An extension of concept bottleneck models that represents each concept as a high-dimensional embedding rather than a scalar activation, improving downstream accuracy while preserving the ability to intervene on concepts.",
        article = nil,
        aliases = { "CEM", "concept embedding models" },
        es = "Extensión de los modelos de cuello de botella conceptual que representa cada concepto como un embedding de alta dimensión en lugar de una activación escalar, mejorando la precisión y conservando la capacidad de intervenir sobre conceptos.",
        zh = "概念瓶颈模型的扩展,将每个概念表示为高维嵌入而非标量激活,在保留概念干预能力的同时提升下游精度。",
        term_es = "modelo de embedding de conceptos",
        term_zh = "概念嵌入模型",
        aliases_es = { "CEM", "modelo de incrustación de conceptos" },
        aliases_zh = { "CEM" },
    }
    
    data["concept gradient"] = {
        short = "The gradient of a model's output with respect to the activation level of a human-interpretable concept, used to measure local sensitivity to that concept and to extend gradient-based attribution to concept space.",
        article = nil,
        aliases = { "concept gradients", "gradient with respect to concept" },
        es = "Gradiente de la salida del modelo respecto al nivel de activación de un concepto interpretable, utilizado para medir la sensibilidad local a ese concepto y extender la atribución basada en gradientes al espacio de conceptos.",
        zh = "模型输出对某个可解释概念激活水平的梯度,用于度量对该概念的局部敏感度,并将基于梯度的归因方法扩展到概念空间。",
        term_es = "gradiente conceptual",
        term_zh = "概念梯度",
        aliases_es = { "gradientes conceptuales", "gradiente respecto al concepto" },
        aliases_zh = { "概念梯度", "对概念的梯度" },
    }
    
    data["concept relevance propagation"] = {
        short = "An extension of layer-wise relevance propagation that decomposes a model's prediction into contributions from human-interpretable concepts, propagating relevance through the network in concept space. Introduced by Achtibat et al. (2023).",
        article = nil,
        aliases = { "CRP", "concept LRP" },
        es = "Extensión de la propagación de relevancia por capas que descompone la predicción de un modelo en contribuciones de conceptos interpretables, propagando la relevancia por la red en el espacio de conceptos. Propuesto por Achtibat et al. (2023).",
        zh = "分层相关性传播的扩展,将模型预测分解为可解释概念的贡献,并在概念空间中沿网络传播相关性。由 Achtibat 等人(2023)提出。",
        term_es = "propagación de relevancia por conceptos",
        term_zh = "概念相关性传播",
        aliases_es = { "CRP", "LRP por conceptos" },
        aliases_zh = { "CRP", "概念 LRP" },
    }
    
    data["concept shift federated"] = {
        short = "A form of non-IID data heterogeneity in federated learning where the conditional label distribution P(y|x) differs across clients even when input distributions overlap, breaking the assumption of a shared task.",
        article = nil,
        aliases = { "concept shift in federated learning", "federated concept shift", "P(y|x) heterogeneity" },
        es = "Forma de heterogeneidad de datos no IID en aprendizaje federado en la que la distribución condicional de etiquetas P(y|x) difiere entre clientes incluso cuando las distribuciones de entrada se solapan, rompiendo la suposición de una tarea compartida.",
        zh = "联邦学习中一种非独立同分布的数据异构形式:即使各客户端的输入分布重叠,条件标签分布 P(y|x) 仍存在差异,违背了客户端共享同一任务的假设。",
        term_es = "cambio de concepto federado",
        term_zh = "联邦概念漂移",
        aliases_es = { "deriva de concepto federada", "heterogeneidad P(y|x) federada" },
        aliases_zh = { "联邦学习中的概念漂移", "concept shift" },
    }
    
    data["concept whitening"] = {
        short = "A normalization layer that decorrelates and rotates a CNN's latent space so that individual axes align with predefined human-interpretable concepts, replacing batch normalization to make feature axes directly inspectable.",
        article = nil,
        aliases = { "CW" },
        es = "Capa de normalización que descorrela y rota el espacio latente de una CNN para que los ejes coincidan con conceptos interpretables predefinidos, sustituyendo a batch normalization y haciendo los ejes directamente inspeccionables.",
        zh = "一种归一化层,对CNN的潜在空间进行去相关和旋转,使各坐标轴对齐到预定义的可解释概念,取代批归一化以使特征轴可直接检查。",
        term_es = "blanqueamiento de conceptos",
        term_zh = "概念白化",
        aliases_es = { "concept whitening" },
        aliases_zh = { "concept whitening" },
    }
    
    data["concept-based explanation"] = {
        short = "An interpretability approach that explains model predictions in terms of human-understandable high-level concepts (e.g. \"striped\", \"wheel\") rather than low-level pixels or features.",
        article = nil,
        aliases = { "concept-based explanations", "concept based explanation", "concept-based interpretability" },
        es = "Enfoque de interpretabilidad que explica las predicciones de un modelo en términos de conceptos de alto nivel comprensibles para humanos (p. ej. \"a rayas\", \"rueda\") en lugar de píxeles o características de bajo nivel.",
        zh = "一种可解释性方法,使用人类可理解的高级概念(如\"条纹\"、\"车轮\")而非低级像素或特征来解释模型预测。",
        term_es = "explicación basada en conceptos",
        term_zh = "基于概念的解释",
        aliases_es = { "explicaciones basadas en conceptos", "interpretabilidad basada en conceptos" },
        aliases_zh = { "概念解释", "基于概念的可解释性" },
    }
    
    data["conceptshap"] = {
        short = "A concept-based explanation method that assigns Shapley-value scores to discovered concepts, measuring each concept's marginal contribution to a model's predictive performance. Introduced by Yeh et al. (2020).",
        article = nil,
        aliases = { "ConceptSHAP", "concept SHAP", "concept Shapley" },
        es = "Método de explicación basado en conceptos que asigna valores de Shapley a conceptos descubiertos, midiendo la contribución marginal de cada concepto al desempeño predictivo del modelo. Propuesto por Yeh et al. (2020).",
        zh = "一种基于概念的解释方法,对所发现的概念赋予 Shapley 值分数,衡量每个概念对模型预测性能的边际贡献。由 Yeh 等人(2020)提出。",
        term_es = "ConceptSHAP",
        term_zh = "ConceptSHAP",
        aliases_es = { "concept SHAP", "Shapley de conceptos" },
        aliases_zh = { "概念 SHAP", "概念 Shapley" },
    }
    
    data["conceptual captions"] = {
        short = "A web-scale image-caption dataset released by Google with about 3.3 million image-text pairs harvested from HTML alt-text and filtered through a hypernym-substitution pipeline, widely used to pretrain vision-language models.",
        article = nil,
        aliases = { "Conceptual Captions", "CC3M", "CC-3M", "Conceptual Captions 3M" },
        es = "Conjunto de datos imagen-subtítulo a escala web publicado por Google con cerca de 3,3 millones de pares imagen-texto extraídos del texto alternativo HTML y filtrados mediante una canalización de sustitución por hiperónimos, ampliamente utilizado para preentrenar modelos visión-lenguaje.",
        zh = "Google发布的网络规模图文数据集,约330万对图文取自HTML alt文本,经过上位词替换流水线过滤,广泛用于视觉-语言模型的预训练。",
        term_es = "Conceptual Captions",
        term_zh = "Conceptual Captions",
        aliases_es = { "Conceptual Captions", "CC3M" },
        aliases_zh = { "Conceptual Captions", "CC3M" },
    }
    
    data["conceptual captions 12m"] = {
        short = "A larger and noisier follow-up to Conceptual Captions containing about 12 million image-text pairs collected from the web with relaxed filtering, intended to support larger-scale vision-language pretraining.",
        article = nil,
        aliases = { "Conceptual Captions 12M", "CC12M", "CC-12M", "Conceptual 12M" },
        es = "Continuación más grande y ruidosa de Conceptual Captions con cerca de 12 millones de pares imagen-texto recopilados de la web con filtrado más laxo, pensada para apoyar el preentrenamiento de modelos visión-lenguaje a mayor escala.",
        zh = "Conceptual Captions的更大、更嘈杂后续版本,包含约1200万对从网络收集、过滤更宽松的图文对,旨在支持更大规模的视觉-语言预训练。",
        term_es = "Conceptual Captions 12M",
        term_zh = "Conceptual Captions 12M",
        aliases_es = { "CC12M" },
        aliases_zh = { "CC12M" },
    }
    
    data["concrete dropout"] = {
        short = "A variant of dropout in which the binary mask is replaced by a continuous Concrete (Gumbel-softmax) relaxation, so the dropout probability becomes a learnable parameter trained via the ELBO, providing automatic per-layer rate tuning.",
        article = nil,
        aliases = { "Concrete Dropout", "learnable dropout", "Gal-Ghahramani concrete dropout" },
        es = "Variante del dropout en la que la máscara binaria se sustituye por una relajación continua Concrete (Gumbel-softmax), de modo que la probabilidad de dropout se convierte en un parámetro aprendible entrenado mediante el ELBO, ofreciendo un ajuste automático de la tasa por capa.",
        zh = "一种dropout变体,将二值掩码替换为连续的Concrete(Gumbel-softmax)松弛,使dropout概率成为可通过ELBO训练的可学习参数,从而实现按层自动调节dropout率。",
        term_es = "concrete dropout",
        term_zh = "Concrete Dropout",
        aliases_es = { "Concrete Dropout", "dropout aprendible", "dropout concreto" },
        aliases_zh = { "Concrete dropout", "可学习dropout", "Gal-Ghahramani concrete dropout" },
    }
    
    data["condensed graph of reaction"] = {
        short = "A single-graph representation of a chemical reaction in which reactant and product atoms are merged and bond-order changes are encoded as edge labels, enabling reaction property prediction with standard GNNs.",
        article = nil,
        aliases = { "CGR", "condensed reaction graph", "condensed graph representation" },
        es = "Representación en un único grafo de una reacción química en la que los átomos de reactivos y productos se fusionan y los cambios de orden de enlace se codifican como etiquetas de arista, permitiendo predecir propiedades de reacción con GNN estándar.",
        zh = "化学反应的单图表示:将反应物与产物的原子合并,并将键级变化编码为边标签,从而可用标准 GNN 预测反应性质。",
        term_es = "grafo condensado de reacción",
        term_zh = "反应凝聚图",
        aliases_es = { "CGR", "grafo de reacción condensado" },
        aliases_zh = { "CGR", "凝聚反应图", "反应缩合图" },
    }
    
    data["condition number"] = {
        short = "For a matrix A, the ratio of its largest to smallest nonzero singular value, κ(A) = σ_max/σ_min. Quantifies sensitivity of the solution of Ax = b to perturbations; large values indicate near-singularity and numerical ill-conditioning.",
        article = nil,
        aliases = { "matrix condition number", "κ(A)", "kappa(A)" },
        es = "Para una matriz A, el cociente entre su mayor y su menor valor singular distinto de cero, κ(A) = σ_max/σ_min. Cuantifica la sensibilidad de la solución de Ax = b ante perturbaciones; valores grandes indican casi singularidad y mal condicionamiento numérico.",
        zh = "矩阵 A 的最大与最小非零奇异值之比,κ(A) = σ_max/σ_min。用以量化方程 Ax = b 的解对扰动的敏感性;较大的值表示接近奇异以及数值病态。",
        term_es = "número de condición",
        term_zh = "条件数",
        aliases_es = { "número de condicionamiento", "condicionamiento de una matriz" },
        aliases_zh = { "矩阵条件数", "条件数 κ(A)" },
    }
    
    data["conditional average treatment effect"] = {
        short = "The expected difference between potential outcomes under treatment and control conditional on covariates, E[Y(1) - Y(0) | X]; central to causal machine learning, heterogeneous-effect estimation, and personalized policy learning.",
        article = nil,
        aliases = { "CATE", "heterogeneous treatment effect", "HTE", "conditional ATE", "covariate-conditional treatment effect", "individual treatment effect (CATE proxy)" },
        es = "Diferencia esperada entre los resultados potenciales bajo tratamiento y control condicionada en covariables, E[Y(1) - Y(0) | X]; es central en el aprendizaje automático causal, la estimación de efectos heterogéneos y el aprendizaje de políticas personalizadas.",
        zh = "在给定协变量的条件下,处理与对照下潜在结果的期望差 E[Y(1) - Y(0) | X];是因果机器学习、异质效应估计和个性化策略学习的核心概念。",
        term_es = "efecto causal promedio condicional",
        term_zh = "条件平均处理效应",
        aliases_es = { "CATE", "ATE condicional", "efecto de tratamiento heterogéneo", "HTE", "efecto condicional de tratamiento" },
        aliases_zh = { "CATE", "条件 ATE", "异质处理效应", "HTE", "异质性处理效应" },
    }
    
    data["conditional demographic disparity"] = {
        short = "A measure of group disparity in outcomes after conditioning on a set of legitimate explanatory variables, isolating disparity that is not attributable to differences in those covariates.",
        article = nil,
        aliases = { "CDD", "conditional disparity" },
        es = "Medida de disparidad grupal en resultados después de condicionar sobre un conjunto de variables explicativas legítimas, aislando la disparidad que no es atribuible a diferencias en esas covariables.",
        zh = "在对一组合法解释变量进行条件化之后衡量结果中的群体差异,以分离出无法归因于这些协变量差异的部分。",
        term_es = "disparidad demográfica condicional",
        term_zh = "条件人口统计差异",
        aliases_es = { "CDD", "disparidad condicional" },
        aliases_zh = { "CDD", "条件性差异" },
    }
    
    data["conditional entropy"] = {
        short = "The expected entropy of a random variable Y given the value of another random variable X: H(Y|X) = Σ p(x) H(Y|X=x). It quantifies the average remaining uncertainty in Y after observing X.",
        article = nil,
        aliases = { "H(Y|X)", "conditional Shannon entropy" },
        es = "La entropía esperada de una variable aleatoria Y dado el valor de otra variable aleatoria X: H(Y|X) = Σ p(x) H(Y|X=x). Cuantifica la incertidumbre promedio que queda sobre Y después de observar X.",
        zh = "在已知另一随机变量 X 取值的条件下,随机变量 Y 的期望熵:H(Y|X) = Σ p(x) H(Y|X=x)。它度量观测到 X 后 Y 仍存在的平均不确定性。",
        term_es = "entropía condicional",
        term_zh = "条件熵",
        aliases_es = { "entropía condicionada" },
        aliases_zh = { "条件熵 H(Y|X)" },
    }
    
    data["conditional exchangeability"] = {
        short = "The assumption that, conditional on a sufficient set of covariates, the potential outcomes are independent of treatment assignment; equivalent to no unmeasured confounding given the conditioning set, and central to identification of causal effects.",
        article = nil,
        aliases = { "conditional independence (Y_a perp A | L)", "no unmeasured confounding", "conditional ignorability", "ignorability given covariates", "selection on observables" },
        es = "Supuesto según el cual, condicionando en un conjunto suficiente de covariables, los resultados potenciales son independientes de la asignación del tratamiento; es equivalente a la ausencia de confusión no medida dado el conjunto de condicionamiento, y es central para la identificación de efectos causales.",
        zh = "假设在给定一组充分协变量的条件下,潜在结果与处理分配相互独立;等价于在该条件集下不存在未测量的混杂,是因果效应识别的核心假设。",
        term_es = "intercambiabilidad condicional",
        term_zh = "条件可交换性",
        aliases_es = { "ignorabilidad condicional", "ausencia de confusión no medida", "selección por observables" },
        aliases_zh = { "条件可互换性", "条件可忽略性", "无未测量混杂", "可观测性选择" },
    }
    
    data["conditional gan"] = {
        short = "A generative adversarial network in which both the generator and discriminator are conditioned on auxiliary information y (such as a class label, text, or image), enabling controllable generation of samples from p(x|y).",
        article = nil,
        aliases = { "cGAN", "conditional GAN", "class-conditional GAN" },
        es = "Red generativa adversarial en la que tanto el generador como el discriminador se condicionan a información auxiliar y (etiqueta de clase, texto, imagen, etc.), permitiendo generar muestras de p(x|y) de forma controlable.",
        zh = "条件生成对抗网络:生成器和判别器都额外接收辅助信息 y(如类别标签、文本或图像),从而可控地生成 p(x|y) 的样本。",
        term_es = "GAN condicional",
        term_zh = "条件 GAN",
        aliases_es = { "cGAN", "GAN condicional por clase" },
        aliases_zh = { "cGAN", "条件生成对抗网络", "类别条件 GAN" },
    }
    
    data["conditional gaussian model"] = {
        short = "A hybrid graphical model in which discrete variables follow arbitrary distributions and continuous variables, conditioned on the discrete ones, follow a multivariate Gaussian whose mean and covariance depend on the discrete state.",
        article = nil,
        aliases = { "CG model", "conditional Gaussian network", "hybrid Gaussian model" },
        es = "Modelo gráfico híbrido en el que las variables discretas siguen distribuciones arbitrarias y las continuas, condicionadas a las discretas, siguen una gaussiana multivariante cuya media y covarianza dependen del estado discreto.",
        zh = "一种混合图模型,其中离散变量服从任意分布,连续变量在给定离散变量的条件下服从多元高斯,其均值和协方差依赖于离散状态。",
        term_es = "modelo gaussiano condicional",
        term_zh = "条件高斯模型",
        aliases_es = { "modelo CG", "red gaussiana condicional", "modelo gaussiano híbrido" },
        aliases_zh = { "CG 模型", "条件高斯网络", "混合高斯模型" },
    }
    
    data["conditional hyperparameter"] = {
        short = "A hyperparameter whose value or activation depends on another hyperparameter, e.g., the number of trees only matters when the chosen model is a random forest; common in structured AutoML search spaces.",
        article = nil,
        aliases = { "conditional hyper-parameter", "dependent hyperparameter" },
        es = "Hiperparámetro cuyo valor o activación depende de otro hiperparámetro, por ejemplo el número de árboles solo es relevante si el modelo elegido es un bosque aleatorio; frecuente en espacios de búsqueda estructurados de AutoML.",
        zh = "其取值或是否生效取决于另一个超参数的超参数,例如仅当所选模型为随机森林时树的数量才有意义;在结构化的AutoML搜索空间中很常见。",
        term_es = "hiperparámetro condicional",
        term_zh = "条件超参数",
        aliases_es = { "hiper-parámetro condicional", "hiperparámetro dependiente" },
        aliases_zh = { "条件型超参数", "依赖超参数" },
    }
    
    data["conditional ignorability"] = {
        short = "The identifying assumption in the potential-outcomes framework that, given measured covariates, treatment assignment is independent of the potential outcomes; under positivity it permits identifying average treatment effects from observed data.",
        article = nil,
        aliases = { "ignorability", "strong ignorability", "conditional independence assumption (causal)", "no unmeasured confounders assumption", "selection on observables", "unconfoundedness" },
        es = "Supuesto identificador en el marco de los resultados potenciales según el cual, condicionando en covariables medidas, la asignación del tratamiento es independiente de los resultados potenciales; junto con la positividad, permite identificar efectos causales promedio a partir de datos observados.",
        zh = "潜在结果框架下的识别性假设:在已测量的协变量条件下,处理分配与潜在结果独立;与正性假设结合,便可由观察数据识别平均处理效应。",
        term_es = "ignorabilidad condicional",
        term_zh = "条件可忽略性",
        aliases_es = { "ignorabilidad", "ignorabilidad fuerte", "no confusión", "ausencia de confusores no medidos", "selección por observables" },
        aliases_zh = { "可忽略性", "强可忽略性", "无混杂假设", "无未测混杂", "可观测性选择" },
    }
    
    data["conditional independence"] = {
        short = "A property X ⊥ Y | Z stating that, given the value of Z, the variables X and Y carry no further information about each other; the foundational notion underpinning factorization in probabilistic graphical models.",
        article = nil,
        aliases = { "CI", "conditional independence statement", "conditionally independent" },
        es = "Propiedad X ⊥ Y | Z según la cual, dadas las variables Z, las variables X e Y no aportan información adicional una sobre la otra; noción fundamental para la factorización en modelos gráficos probabilísticos.",
        zh = "性质 X ⊥ Y | Z,表示在给定 Z 的取值后,变量 X 与 Y 不再相互携带额外信息;这是概率图模型分解的核心概念。",
        term_es = "independencia condicional",
        term_zh = "条件独立",
        aliases_es = { "independencia condicionada", "afirmación de independencia condicional" },
        aliases_zh = { "条件独立性", "CI", "条件独立断言" },
    }
    
    data["conditional independence test"] = {
        short = "A statistical test of the null hypothesis that two variables are independent given a conditioning set; foundational for causal discovery algorithms such as PC and FCI and for testing implications of a candidate DAG.",
        article = nil,
        aliases = { "CI test", "test of conditional independence", "conditional independence testing", "kernel conditional independence test", "KCI test", "partial correlation test (CI)" },
        es = "Prueba estadística de la hipótesis nula de que dos variables son independientes dado un conjunto de condicionamiento; es fundamental para los algoritmos de descubrimiento causal como PC y FCI y para verificar implicaciones de un DAG candidato.",
        zh = "用于检验两个变量在给定条件集下是否独立的统计检验;是 PC、FCI 等因果发现算法以及检验候选有向无环图蕴含关系的基础工具。",
        term_es = "prueba de independencia condicional",
        term_zh = "条件独立检验",
        aliases_es = { "test de independencia condicional", "prueba CI", "test de correlación parcial (IC)", "test KCI" },
        aliases_zh = { "条件独立性检验", "CI 检验", "条件独立性测试", "核条件独立检验", "KCI 检验" },
    }
    
    data["conditional linear gaussian"] = {
        short = "A continuous CPD in which a variable is normally distributed with a mean that is a linear function of its continuous parents (and with parameters that may depend on its discrete parents).",
        article = nil,
        aliases = { "CLG", "linear Gaussian CPD", "conditional linear Gaussian CPD" },
        es = "CPD continua en la que una variable se distribuye normalmente con media que es función lineal de sus padres continuos (y con parámetros que pueden depender de sus padres discretos).",
        zh = "一种连续条件分布,变量服从正态分布,其均值是连续父节点的线性函数(参数可依赖于离散父节点)。",
        term_es = "gaussiana lineal condicional",
        term_zh = "条件线性高斯",
        aliases_es = { "CLG", "CPD gaussiana lineal", "CPD lineal gaussiana condicional" },
        aliases_zh = { "CLG", "线性高斯条件分布", "条件线性高斯 CPD" },
    }
    
    data["conditional markov chain"] = {
        short = "A discriminative sequence model that defines the conditional distribution of a state sequence given an observation sequence with Markov structure on the states; a precursor and special case of linear-chain conditional random fields.",
        article = nil,
        aliases = { "CMC", "discriminative Markov chain", "conditional chain model" },
        es = "Modelo discriminativo de secuencias que define la distribución condicional de una secuencia de estados dada una secuencia de observaciones con estructura markoviana sobre los estados; precursor y caso particular de los campos aleatorios condicionales de cadena lineal.",
        zh = "一种判别式序列模型,定义在状态上具有马尔可夫结构、给定观测序列的状态序列的条件分布;线性链条件随机场的前身和特例。",
        term_es = "cadena de Markov condicional",
        term_zh = "条件马尔可夫链",
        aliases_es = { "CMC", "cadena de Markov discriminativa" },
        aliases_zh = { "CMC", "判别式马尔可夫链", "条件链模型" },
    }
    
    data["conditional multimodal generation"] = {
        short = "The task of generating one modality (e.g., image, audio, video) conditioned on inputs from one or more other modalities (e.g., text, image, audio), as in text-to-image, image-to-3D, or audio-to-video synthesis.",
        article = nil,
        aliases = { "multimodal conditional generation", "cross-modal conditional generation" },
        es = "Tarea de generar una modalidad (por ejemplo, imagen, audio o vídeo) condicionada a entradas de una o más modalidades distintas (por ejemplo, texto, imagen o audio), como en la síntesis texto-imagen, imagen-3D o audio-vídeo.",
        zh = "在以一种或多种其他模态(如文本、图像、音频)为条件的情况下生成某一模态(如图像、音频、视频)的任务,例如文本生成图像、图像生成三维或音频生成视频。",
        term_es = "generación multimodal condicional",
        term_zh = "条件多模态生成",
        aliases_es = { "generación condicional multimodal", "generación condicional intermodal" },
        aliases_zh = { "多模态条件生成", "跨模态条件生成" },
    }
    
    data["conditional mutual information"] = {
        short = "The expected mutual information between X and Y given a third variable Z: I(X;Y|Z) = H(X|Z) − H(X|Y,Z). It quantifies the dependence between X and Y that remains after conditioning on Z.",
        article = nil,
        aliases = { "I(X;Y|Z)", "conditional MI", "CMI" },
        es = "Esperanza de la información mutua entre X e Y dada una tercera variable Z: I(X;Y|Z) = H(X|Z) − H(X|Y,Z). Cuantifica la dependencia entre X e Y que queda después de condicionar en Z.",
        zh = "在给定第三变量 Z 的条件下 X 与 Y 之间的期望互信息:I(X;Y|Z) = H(X|Z) − H(X|Y,Z)。它度量在条件化 Z 之后 X 与 Y 之间剩余的依赖程度。",
        term_es = "información mutua condicional",
        term_zh = "条件互信息",
        aliases_es = { "IM condicional", "información mutua condicionada" },
        aliases_zh = { "条件互信息 CMI", "条件 MI" },
    }
    
    data["conditional neural process"] = {
        short = "A neural-process variant that encodes a context set of input-output pairs into a deterministic representation and conditions a decoder on it to predict outputs at target inputs, providing fast amortized predictive distributions without explicit latent variables.",
        article = nil,
        aliases = { "CNP", "conditional NP", "deterministic neural process" },
        es = "Variante de los neural processes que codifica un conjunto de contexto de pares entrada-salida en una representación determinista y condiciona un decodificador con ella para predecir salidas en entradas objetivo, proporcionando distribuciones predictivas amortizadas y rápidas sin variables latentes explícitas.",
        zh = "一种神经过程变体,将输入-输出对的上下文集合编码为确定性表示,并据此对解码器进行条件化以在目标输入上预测输出,无需显式潜变量即可提供快速摊销的预测分布。",
        term_es = "proceso neuronal condicional",
        term_zh = "条件神经过程",
        aliases_es = { "CNP", "NP condicional", "proceso neuronal determinista" },
        aliases_zh = { "CNP", "条件神经过程模型", "确定性神经过程" },
    }
    
    data["conditional permutation importance"] = {
        short = "A variable-importance measure that, when permuting a feature, samples from its distribution conditional on the remaining features rather than its marginal distribution, avoiding the bias toward correlated features that affects standard permutation importance.",
        article = nil,
        aliases = { "conditional feature importance", "CPI", "conditional permutation feature importance" },
        es = "Medida de importancia de variables que, al permutar una característica, muestrea de su distribución condicional dadas las demás en vez de su distribución marginal, evitando el sesgo hacia características correlacionadas que afecta a la importancia por permutación estándar.",
        zh = "一种变量重要性度量:在对特征进行置换时,依据其在其他特征条件下的分布而非边缘分布进行采样,从而避免标准置换重要性对相关特征的偏倚。",
        term_es = "importancia por permutación condicional",
        term_zh = "条件置换重要性",
        aliases_es = { "CPI", "importancia condicional de características" },
        aliases_zh = { "CPI", "条件特征重要性" },
    }
    
    data["conditional probability distribution"] = {
        short = "In a Bayesian network, the local distribution P(X | Pa(X)) attached to each node, specifying the probability of the variable taking each value given each configuration of its parents.",
        article = nil,
        aliases = { "CPD", "local conditional distribution", "conditional distribution" },
        es = "En una red bayesiana, la distribución local P(X | Pa(X)) asociada a cada nodo, que especifica la probabilidad de que la variable tome cada valor dado cada configuración de sus padres.",
        zh = "在贝叶斯网络中,附加于每个节点的局部分布 P(X | Pa(X)),给出在父节点每种取值组合下该变量取各值的概率。",
        term_es = "distribución de probabilidad condicional",
        term_zh = "条件概率分布",
        aliases_es = { "CPD", "distribución condicional local" },
        aliases_zh = { "CPD", "局部条件分布", "条件分布" },
    }
    
    data["conditional probability table"] = {
        short = "A tabular representation of a conditional probability distribution for a discrete variable, listing P(X | Pa(X)) for every joint assignment of X and its parents.",
        article = nil,
        aliases = { "CPT", "probability table", "tabular CPD" },
        es = "Representación tabular de una distribución de probabilidad condicional para una variable discreta, que enumera P(X | Pa(X)) para cada asignación conjunta de X y sus padres.",
        zh = "离散变量条件概率分布的表格表示,对 X 与其父节点的每种联合取值列出 P(X | Pa(X))。",
        term_es = "tabla de probabilidad condicional",
        term_zh = "条件概率表",
        aliases_es = { "CPT", "tabla de probabilidades", "CPD tabular" },
        aliases_zh = { "CPT", "概率表", "表格化 CPD" },
    }
    
    data["conditional random field"] = {
        short = "A discriminative undirected graphical model that defines the conditional distribution P(Y | X) of structured outputs given inputs as a globally normalized log-linear model over feature functions of cliques.",
        article = nil,
        aliases = { "CRF", "linear-chain CRF", "conditional random fields" },
        es = "Modelo gráfico no dirigido discriminativo que define la distribución condicional P(Y | X) de salidas estructuradas dadas las entradas como un modelo log-lineal globalmente normalizado sobre funciones de características de cliques.",
        zh = "一种判别式无向图模型,将结构化输出在给定输入下的条件分布 P(Y | X) 表示为团特征函数上的全局归一化对数线性模型。",
        term_es = "campo aleatorio condicional",
        term_zh = "条件随机场",
        aliases_es = { "CRF", "CRF de cadena lineal", "campos aleatorios condicionales" },
        aliases_zh = { "CRF", "线性链 CRF", "条件随机场模型" },
    }
    
    data["conditional randomization"] = {
        short = "A design or assumption in which treatment is randomized within strata defined by covariates, so the treatment-assignment probability depends only on those covariates; underlies stratified randomized experiments and propensity-score reasoning.",
        article = nil,
        aliases = { "stratified randomization", "covariate-stratified randomization", "conditionally randomized experiment", "stratified random assignment", "conditional random assignment" },
        es = "Diseño o supuesto en el que el tratamiento se aleatoriza dentro de estratos definidos por covariables, de modo que la probabilidad de asignación al tratamiento depende únicamente de dichas covariables; es la base de los experimentos aleatorizados estratificados y del razonamiento por puntaje de propensión.",
        zh = "在由协变量定义的分层内对处理进行随机化的设计或假设,处理分配概率仅依赖于这些协变量;是分层随机试验和倾向得分推理的基础。",
        term_es = "aleatorización condicional",
        term_zh = "条件随机化",
        aliases_es = { "aleatorización estratificada", "aleatorización por estratos de covariables", "asignación aleatoria condicional" },
        aliases_zh = { "分层随机化", "条件随机分配", "协变量分层随机化", "分层随机试验" },
    }
    
    data["conditional rbm"] = {
        short = "A restricted Boltzmann machine extended with extra conditioning inputs that bias the visible and hidden units, used for modeling time series and structured prediction.",
        article = nil,
        aliases = { "CRBM", "conditional restricted Boltzmann machine" },
        es = "Máquina de Boltzmann restringida extendida con entradas de condicionamiento adicionales que sesgan las unidades visibles y ocultas, usada para modelar series temporales y predicción estructurada.",
        zh = "在受限玻尔兹曼机基础上引入额外条件输入对可见单元和隐藏单元进行偏置的扩展,用于时间序列建模和结构化预测。",
        term_es = "RBM condicional",
        term_zh = "条件受限玻尔兹曼机",
        aliases_es = { "CRBM", "máquina de Boltzmann restringida condicional" },
        aliases_zh = { "CRBM", "条件 RBM", "条件式受限玻尔兹曼机" },
    }
    
    data["conditional shap"] = {
        short = "A variant of SHAP that computes feature attributions using conditional rather than marginal expectations, respecting the dependence structure of the input features. Better reflects the data manifold but is more difficult to estimate.",
        article = nil,
        aliases = { "conditional SHAP", "observational SHAP", "on-manifold SHAP" },
        es = "Variante de SHAP que calcula las atribuciones de características usando esperanzas condicionales en lugar de marginales, respetando la estructura de dependencia de las entradas. Refleja mejor la variedad de los datos, pero es más difícil de estimar.",
        zh = "SHAP 的一种变体,用条件期望而非边缘期望计算特征归因,尊重输入特征间的依赖结构。能更好地反映数据流形,但估计更困难。",
        term_es = "SHAP condicional",
        term_zh = "条件 SHAP",
        aliases_es = { "SHAP observacional", "SHAP en variedad" },
        aliases_zh = { "观测 SHAP", "在流形 SHAP" },
    }
    
    data["conditional statistical parity"] = {
        short = "A relaxation of statistical parity requiring equal positive prediction rates across groups conditional on a set of legitimate, justifiable factors. Allows disparity that is explained by accepted features.",
        article = nil,
        aliases = { "conditional demographic parity", "CSP" },
        es = "Relajación de la paridad estadística que exige tasas de predicción positiva iguales entre grupos condicionadas a un conjunto de factores legítimos y justificables. Permite disparidad explicada por características aceptadas.",
        zh = "对统计平等的一种放松,要求在一组合法、可辩护的因素条件下各群体的正预测率相等。允许由可接受特征解释的差异。",
        term_es = "paridad estadística condicional",
        term_zh = "条件统计平等",
        aliases_es = { "paridad demográfica condicional", "CSP" },
        aliases_zh = { "条件人口统计平等", "CSP" },
    }
    
    data["conditional vae"] = {
        short = "A variational autoencoder in which both the encoder q(z|x,y) and decoder p(x|z,y) are conditioned on an auxiliary variable y (e.g. a class label or attribute), enabling controllable generation and structured prediction tasks.",
        article = nil,
        aliases = { "CVAE", "conditional VAE", "conditional variational autoencoder" },
        es = "Autocodificador variacional en el que tanto el codificador q(z|x,y) como el decodificador p(x|z,y) se condicionan a una variable auxiliar y (por ejemplo una etiqueta de clase o un atributo), permitiendo generación controlable y tareas de predicción estructurada.",
        zh = "条件变分自编码器:编码器 q(z|x,y) 和解码器 p(x|z,y) 均以辅助变量 y(如类别标签或属性)为条件,从而实现可控生成与结构化预测。",
        term_es = "VAE condicional",
        term_zh = "条件 VAE",
        aliases_es = { "CVAE", "autocodificador variacional condicional" },
        aliases_zh = { "CVAE", "条件变分自编码器" },
    }
    
    data["cone embedding"] = {
        short = "A knowledge graph or ontology embedding scheme that maps entities and concepts into geometric cones (e.g. axis-aligned, hyperbolic) so that hierarchical and partial-order relations become inclusion relations between cones.",
        article = nil,
        aliases = { "cone embeddings", "ConE", "axis-aligned cone embedding" },
        es = "Esquema de embedding para grafos de conocimiento u ontologías que mapea entidades y conceptos a conos geométricos (alineados con los ejes o hiperbólicos), de modo que las relaciones jerárquicas se convierten en inclusiones entre conos.",
        zh = "一种知识图谱或本体嵌入方法,将实体和概念映射到几何锥体(如轴对齐锥或双曲锥)中,使层级与偏序关系对应于锥体间的包含关系。",
        term_es = "embedding cónico",
        term_zh = "锥嵌入",
        aliases_es = { "embedding de conos", "incrustación cónica" },
        aliases_zh = { "锥体嵌入", "ConE" },
    }
    
    data["confidence interval"] = {
        short = "A frequentist interval estimate for an unknown parameter, constructed so that the random procedure producing it would cover the true parameter with a specified long-run frequency (e.g. 95%) over repeated sampling.",
        article = nil,
        aliases = { "CI", "confidence intervals", "interval estimate", "confidence bounds" },
        es = "Estimación por intervalo en estadística frecuentista para un parámetro desconocido, construida de modo que el procedimiento aleatorio que la produce cubriría el parámetro verdadero con una frecuencia a largo plazo especificada (p. ej. 95%) bajo muestreo repetido.",
        zh = "频率主义统计中对未知参数的区间估计,其构造使得在重复抽样下,产生该区间的随机过程以指定的长期频率(如 95%)覆盖真实参数。",
        term_es = "intervalo de confianza",
        term_zh = "置信区间",
        aliases_es = { "IC", "intervalos de confianza", "estimación por intervalo" },
        aliases_zh = { "CI", "信赖区间", "confidence interval" },
    }
    
    data["confidential computing"] = {
        short = "A class of hardware-backed technologies (e.g. Intel SGX, AMD SEV, ARM TrustZone) that protect data and code in use by executing them inside trusted execution environments isolated from the host operating system.",
        article = nil,
        aliases = { "confidential compute", "TEE-based computing", "trusted execution computing" },
        es = "Clase de tecnologías respaldadas por hardware (por ejemplo, Intel SGX, AMD SEV, ARM TrustZone) que protegen los datos y el código en uso ejecutándolos dentro de entornos de ejecución confiables aislados del sistema operativo anfitrión.",
        zh = "一类由硬件支持的技术(如 Intel SGX、AMD SEV、ARM TrustZone),通过在与宿主操作系统隔离的可信执行环境中运行代码与数据,保护使用中的数据与计算。",
        term_es = "computación confidencial",
        term_zh = "机密计算",
        aliases_es = { "computación basada en TEE", "computación de ejecución confiable" },
        aliases_zh = { "可信计算", "保密计算", "基于 TEE 的计算" },
    }
    
    data["configuration space"] = {
        short = "The set of all candidate configurations (hyperparameter values, architectural choices, and preprocessing options) over which an AutoML or hyperparameter optimization procedure searches.",
        article = nil,
        aliases = { "search space", "hyperparameter space", "configuration search space" },
        es = "Conjunto de todas las configuraciones candidatas (valores de hiperparámetros, decisiones arquitectónicas y opciones de preprocesamiento) sobre el cual un procedimiento de AutoML u optimización de hiperparámetros realiza la búsqueda.",
        zh = "AutoML 或超参数优化过程所搜索的全部候选配置(超参数取值、结构选择以及预处理选项)的集合。",
        term_es = "espacio de configuración",
        term_zh = "配置空间",
        aliases_es = { "espacio de búsqueda", "espacio de hiperparámetros" },
        aliases_zh = { "搜索空间", "超参数空间" },
    }
    
    data["configuration space design"] = {
        short = "The task of specifying the dimensions, value ranges, types, and conditional dependencies of an AutoML configuration space, balancing expressiveness against search tractability.",
        article = nil,
        aliases = { "search space design", "search space engineering", "configuration-space design" },
        es = "Tarea de especificar las dimensiones, rangos de valores, tipos y dependencias condicionales del espacio de configuración de un sistema de AutoML, equilibrando expresividad y tratabilidad de la búsqueda.",
        zh = "在 AutoML 中确定配置空间的维度、取值范围、类型与条件依赖关系的任务,需要在表达能力与搜索可行性之间取得平衡。",
        term_es = "diseño del espacio de configuración",
        term_zh = "配置空间设计",
        aliases_es = { "diseño del espacio de búsqueda", "ingeniería del espacio de búsqueda" },
        aliases_zh = { "搜索空间设计", "搜索空间工程" },
    }
    
    data["confirmation bias"] = {
        short = "The cognitive tendency to seek, interpret, and remember information that confirms preexisting beliefs while underweighting disconfirming evidence. In ML, it can shape data labeling, feature selection, and model evaluation.",
        article = nil,
        aliases = { "myside bias", "confirmatory bias" },
        es = "Tendencia cognitiva a buscar, interpretar y recordar información que confirma creencias preexistentes, mientras se le da menos peso a la evidencia que las refuta. En ML, puede moldear el etiquetado de datos, la selección de características y la evaluación del modelo.",
        zh = "倾向于寻求、解释并记住能够证实既有信念的信息,而对反驳性证据赋予较少权重的认知偏差。在机器学习中,它可影响数据标注、特征选择和模型评估。",
        term_es = "sesgo de confirmación",
        term_zh = "确认偏误",
        aliases_es = { "sesgo confirmatorio", "sesgo de mi lado" },
        aliases_zh = { "证实偏差", "确认偏差" },
    }
    
    data["conformal calibration"] = {
        short = "Use of conformal prediction methods to recalibrate the predictive distribution of a model so that prediction intervals or sets achieve a user-specified coverage level under exchangeability, regardless of model misspecification.",
        article = nil,
        aliases = { "conformal recalibration", "conformalized calibration", "conformal calibration set" },
        es = "Uso de métodos de predicción conforme para recalibrar la distribución predictiva de un modelo de manera que los intervalos o conjuntos de predicción alcancen una cobertura especificada por el usuario bajo intercambiabilidad, independientemente de la especificación errónea del modelo.",
        zh = "利用共形预测方法对模型的预测分布进行重新校准,使预测区间或集合在可交换性假设下达到用户指定的覆盖水平,不依赖模型规范是否正确。",
        term_es = "calibración conforme",
        term_zh = "共形校准",
        aliases_es = { "recalibración conforme", "calibración conformalizada", "conjunto de calibración conforme" },
        aliases_zh = { "共形重校准", "Conformal校准", "保形校准" },
    }
    
    data["conformal prediction"] = {
        short = "A distribution-free framework that produces prediction sets with finite-sample marginal coverage guarantees under data exchangeability by thresholding nonconformity scores computed on a held-out calibration set.",
        article = nil,
        aliases = { "CP", "conformal predictor", "split conformal prediction", "inductive conformal prediction" },
        es = "Marco libre de distribución que produce conjuntos de predicción con garantías de cobertura marginal en muestras finitas bajo intercambiabilidad, aplicando un umbral a puntuaciones de no conformidad calculadas sobre un conjunto de calibración separado.",
        zh = "一种无分布假设的框架,通过对在留出校准集上计算的非一致性分数施加阈值,在数据可交换的前提下给出具有有限样本边缘覆盖保证的预测集合。",
        term_es = "predicción conforme",
        term_zh = "共形预测",
        aliases_es = { "predictor conforme", "predicción conforme inductiva", "predicción conforme dividida", "CP" },
        aliases_zh = { "共形预测方法", "归纳共形预测", "分裂共形预测", "保形预测" },
    }
    
    data["conformational sampling"] = {
        short = "Computational exploration of the accessible 3D conformations of a flexible molecule, typically via molecular dynamics, Monte Carlo, or distance-geometry methods.",
        article = nil,
        aliases = { "conformation sampling", "conformational search", "conformer search", "configuration sampling" },
        es = "Exploración computacional de las conformaciones tridimensionales accesibles de una molécula flexible, normalmente mediante dinámica molecular, Monte Carlo o métodos de geometría de distancias.",
        zh = "对柔性分子可达三维构象的计算探索,通常采用分子动力学、蒙特卡洛或距离几何方法。",
        term_es = "muestreo conformacional",
        term_zh = "构象采样",
        aliases_es = { "búsqueda conformacional", "exploración conformacional", "muestreo de confórmeros" },
        aliases_zh = { "构象搜索", "构象空间采样", "构象空间探索" },
    }
    
    data["conformer"] = {
        short = "A specific 3D arrangement of a molecule's atoms reachable from another by rotations around single bonds without breaking covalent bonds.",
        article = nil,
        aliases = { "conformation", "molecular conformer", "rotamer", "conformational isomer" },
        es = "Disposición tridimensional específica de los átomos de una molécula a la que se llega desde otra mediante rotaciones alrededor de enlaces simples sin romper enlaces covalentes.",
        zh = "分子原子的特定三维排列,可通过单键旋转从另一构象到达,而无需断裂共价键。",
        term_es = "confórmero",
        term_zh = "构象异构体",
        aliases_es = { "conformación", "confórmero molecular", "rotámero", "isómero conformacional" },
        aliases_zh = { "构象", "分子构象", "旋转异构体", "构象异构" },
    }
    
    data["conformer diffusion"] = {
        short = "A class of generative models that produce 3D molecular conformations by learning a denoising diffusion process over atomic coordinates.",
        article = nil,
        aliases = { "diffusion-based conformer generation", "diffusion conformer model", "conformer denoising diffusion" },
        es = "Familia de modelos generativos que producen conformaciones moleculares 3D aprendiendo un proceso de difusión de eliminación de ruido sobre las coordenadas atómicas.",
        zh = "一类生成模型,通过在原子坐标上学习去噪扩散过程来生成三维分子构象。",
        term_es = "difusión de confórmeros",
        term_zh = "构象扩散",
        aliases_es = { "generación de confórmeros por difusión", "modelo de difusión de confórmeros" },
        aliases_zh = { "扩散构象生成", "构象扩散模型", "扩散式构象生成" },
    }
    
    data["conformer ensemble"] = {
        short = "A collection of low-energy 3D conformations of a molecule, typically Boltzmann-weighted, used to capture flexibility in property prediction or docking.",
        article = nil,
        aliases = { "conformational ensemble", "conformer set", "ensemble of conformers" },
        es = "Conjunto de conformaciones tridimensionales de baja energía de una molécula, normalmente ponderadas según Boltzmann, que se utiliza para capturar la flexibilidad en la predicción de propiedades o el acoplamiento.",
        zh = "分子低能三维构象的集合,通常按玻尔兹曼权重加权,用于在性质预测或对接中体现分子柔性。",
        term_es = "conjunto de confórmeros",
        term_zh = "构象系综",
        aliases_es = { "ensemble conformacional", "conjunto conformacional", "ensemble de confórmeros" },
        aliases_zh = { "构象集合", "构象集成", "构象组合" },
    }
    
    data["conformer generation"] = {
        short = "The computational task of producing plausible 3D conformations from a 2D molecular graph, using rules-based methods (e.g., ETKDG), force-field optimization, or learned generative models.",
        article = nil,
        aliases = { "3D conformer generation", "conformation generation", "conformer prediction", "3D structure generation" },
        es = "Tarea computacional de producir conformaciones 3D plausibles a partir de un grafo molecular 2D, mediante métodos basados en reglas (p. ej., ETKDG), optimización con campos de fuerza o modelos generativos aprendidos.",
        zh = "从二维分子图生成合理三维构象的计算任务,可采用基于规则的方法(如 ETKDG)、力场优化或学习型生成模型。",
        term_es = "generación de confórmeros",
        term_zh = "构象生成",
        aliases_es = { "generación de conformaciones", "generación 3D de confórmeros", "predicción de confórmeros" },
        aliases_zh = { "三维构象生成", "构象预测", "三维结构生成" },
    }
    
    data["confounder"] = {
        short = "A variable that influences both the treatment and the outcome and so creates a spurious or biased association if left unadjusted; in DAG terms, a non-descendant of treatment that opens a backdoor path to the outcome.",
        article = nil,
        aliases = { "confounding variable", "confound", "lurking variable", "common cause confounder", "backdoor variable" },
        es = "Variable que influye tanto en el tratamiento como en el resultado y, por lo tanto, genera una asociación espuria o sesgada si no se ajusta; en términos de DAG, es un no descendiente del tratamiento que abre un camino de puerta trasera hacia el resultado.",
        zh = "同时影响处理和结果的变量,若不加以调整就会产生虚假或有偏关联;用有向无环图的语言来说,它是处理的非后代节点,并打开了一条通向结果的后门路径。",
        term_es = "confusor",
        term_zh = "混杂因子",
        aliases_es = { "variable de confusión", "factor de confusión", "variable confusora", "confundidor", "variable acechante" },
        aliases_zh = { "混杂因素", "混杂变量", "混淆变量", "潜在混杂因素", "后门变量" },
    }
    
    data["confounder selection"] = {
        short = "The process of choosing which covariates to adjust for in a causal analysis to satisfy backdoor or exchangeability conditions while avoiding bias from colliders, mediators, or instruments; guided by domain knowledge or DAG-based criteria.",
        article = nil,
        aliases = { "covariate selection (causal)", "adjustment set selection", "selection of confounders", "adjustment variable selection", "backdoor adjustment set selection" },
        es = "Proceso de elegir qué covariables ajustar en un análisis causal para satisfacer las condiciones de puerta trasera o de intercambiabilidad, evitando al mismo tiempo el sesgo derivado de colisionadores, mediadores o instrumentos; se guía por conocimiento del dominio o por criterios basados en DAG.",
        zh = "在因果分析中选择需要调整哪些协变量的过程,目的是满足后门准则或可交换性条件,同时避免对撞节点、中介变量或工具变量带来的偏差;通常依靠领域知识或基于有向无环图的准则进行。",
        term_es = "selección de confusores",
        term_zh = "混杂因子选择",
        aliases_es = { "selección de variables de confusión", "selección del conjunto de ajuste", "elección de confusores", "selección de covariables (causal)" },
        aliases_zh = { "混杂变量选择", "调整集选择", "协变量选择(因果)", "后门调整集选择" },
    }
    
    data["confounding"] = {
        short = "Bias in a causal estimate arising from common causes of treatment and outcome that are not appropriately accounted for; causes the observed association to misrepresent the underlying causal effect.",
        article = nil,
        aliases = { "confounding effect", "confounded comparison", "common-cause confounding", "uncontrolled confounding" },
        es = "Sesgo en una estimación causal que surge de causas comunes del tratamiento y del resultado que no se han tenido en cuenta adecuadamente; hace que la asociación observada no represente correctamente el efecto causal subyacente.",
        zh = "由处理和结果的共同原因未被恰当处理而产生的因果估计偏差,使观察到的关联无法正确反映潜在的因果效应。",
        term_es = "confusión",
        term_zh = "混杂",
        aliases_es = { "confounding", "efecto de confusión", "sesgo de confusión", "comparación confundida" },
        aliases_zh = { "混杂效应", "混淆", "未控制的混杂", "共同原因混杂" },
    }
    
    data["confounding bias"] = {
        short = "The component of bias in an effect estimate attributable to unadjusted or improperly adjusted confounders; quantifies how far an observational association lies from the true causal effect because of common causes.",
        article = nil,
        aliases = { "bias from confounding", "confounder bias", "common-cause bias", "unmeasured confounding bias" },
        es = "Componente del sesgo de una estimación de efecto atribuible a confusores no ajustados o ajustados de forma incorrecta; cuantifica cuán lejos se encuentra una asociación observacional del verdadero efecto causal debido a causas comunes.",
        zh = "效应估计中的偏差中可归因于未调整或调整不当的混杂因子的部分,用以衡量观察到的关联因共同原因而偏离真实因果效应的程度。",
        term_es = "sesgo de confusión",
        term_zh = "混杂偏差",
        aliases_es = { "sesgo por confusión", "sesgo por confusores", "sesgo de confounding", "sesgo por causas comunes" },
        aliases_zh = { "混杂偏倚", "混淆偏差", "未测量混杂偏差", "共同原因偏差" },
    }
    
    data["confounding by indication"] = {
        short = "A form of confounding common in pharmacoepidemiology where the indication for treatment (i.e., disease severity or prognosis) drives both treatment assignment and outcome, biasing comparisons between treated and untreated patients.",
        article = nil,
        aliases = { "channeling bias", "indication bias", "prescription channeling bias", "treatment indication bias" },
        es = "Tipo de confusión frecuente en farmacoepidemiología en el que la indicación del tratamiento (es decir, la gravedad de la enfermedad o el pronóstico) determina tanto la asignación del tratamiento como el resultado, sesgando las comparaciones entre pacientes tratados y no tratados.",
        zh = "药物流行病学中常见的一种混杂:处理的适应证(即疾病严重程度或预后)同时驱动处理分配和结果,从而使治疗组与未治疗组的比较产生偏差。",
        term_es = "confusión por indicación",
        term_zh = "适应证混杂",
        aliases_es = { "sesgo por indicación", "sesgo de canalización", "channeling bias", "confounding by indication" },
        aliases_zh = { "适应症混杂", "处方倾向偏差", "渠道偏差", "适应症偏倚" },
    }
    
    data["confusion matrix"] = {
        short = "A square table that tabulates predicted versus true class labels, exposing per-class true/false positives and negatives. The basis for deriving accuracy, precision, recall, F1, and most other classification metrics.",
        article = nil,
        aliases = { "error matrix", "contingency table", "classification matrix" },
        es = "Tabla cuadrada que cuenta etiquetas predichas frente a verdaderas, exponiendo verdaderos y falsos positivos y negativos por clase. Sirve de base para derivar exactitud, precisión, exhaustividad, F1 y la mayoría de las métricas de clasificación.",
        zh = "将预测类别与真实类别交叉计数所得的方阵,展示了各类别的真/假阳性与真/假阴性。它是导出准确率、精确率、召回率、F1 等分类指标的基础。",
        term_es = "matriz de confusión",
        term_zh = "混淆矩阵",
        aliases_es = { "matriz de error", "tabla de contingencia" },
        aliases_zh = { "误差矩阵", "列联表", "confusion matrix" },
    }
    
    data["conjugate gradient"] = {
        short = "An iterative method for solving symmetric positive-definite linear systems, generalized to nonlinear optimization, that builds successive search directions which are mutually conjugate with respect to the system or Hessian.",
        article = nil,
        aliases = { "CG", "conjugate gradient method", "conjugate gradient descent" },
        es = "Método iterativo para resolver sistemas lineales simétricos definidos positivos, extendido a la optimización no lineal, que construye direcciones de búsqueda mutuamente conjugadas respecto al sistema o a la Hessiana.",
        zh = "一种用于求解对称正定线性系统的迭代方法,并推广至非线性优化,构造对系统矩阵或海森矩阵相互共轭的搜索方向。",
        term_es = "gradiente conjugado",
        term_zh = "共轭梯度法",
        aliases_es = { "método del gradiente conjugado", "CG" },
        aliases_zh = { "共轭梯度", "CG", "conjugate gradient" },
    }
    
    data["conjugate prior"] = {
        short = "A prior distribution that, when combined with a given likelihood, yields a posterior in the same parametric family. Conjugacy enables closed-form Bayesian updates — e.g. Beta is conjugate to Bernoulli, Dirichlet to categorical, Gaussian to Gaussian (with known variance).",
        article = nil,
        aliases = { "conjugate prior distribution", "conjugate family", "conjugate distribution", "natural conjugate prior" },
        es = "Distribución a priori que, combinada con cierta verosimilitud, produce una posterior dentro de la misma familia paramétrica. La conjugación permite actualizaciones bayesianas en forma cerrada — p. ej. Beta es conjugada de Bernoulli, Dirichlet de categórica, Gaussiana de Gaussiana (con varianza conocida).",
        zh = "一种先验分布,与给定似然相结合后,所得后验仍属于同一参数族。共轭性使贝叶斯更新具有闭式解——例如 Beta 是 Bernoulli 的共轭先验,Dirichlet 是类别分布的共轭先验,Gaussian 是已知方差 Gaussian 的共轭先验。",
        term_es = "prior conjugada",
        term_zh = "共轭先验",
        aliases_es = { "distribución a priori conjugada", "familia conjugada", "previa conjugada" },
        aliases_zh = { "共轭分布", "共轭族", "自然共轭先验" },
    }
    
    data["conjugate-exponential family"] = {
        short = "A graphical model in which every conditional distribution is in the exponential family and each parent–child pair forms a conjugate prior–likelihood pair, enabling closed-form variational and EM updates.",
        article = nil,
        aliases = { "conjugate exponential family", "conjugate-exponential model", "CE family" },
        es = "Modelo gráfico en el que cada distribución condicional pertenece a la familia exponencial y cada par padre-hijo forma un par conjugado a priori-verosimilitud, lo que permite actualizaciones variacionales y EM en forma cerrada.",
        zh = "一种图模型,其中每个条件分布都属于指数族,且每对父子节点构成共轭的先验-似然对,使变分推断和 EM 更新具有闭式解。",
        term_es = "familia exponencial conjugada",
        term_zh = "共轭指数族",
        aliases_es = { "modelo conjugado-exponencial", "familia CE" },
        aliases_zh = { "共轭指数族模型", "共轭-指数族", "CE 族" },
    }
    
    data["connectionist temporal classification"] = {
        short = "A loss function for sequence-to-sequence learning that allows neural networks to map input frames to shorter output sequences without explicit alignments, by marginalizing over all valid alignments including a blank symbol.",
        article = nil,
        aliases = { "CTC", "CTC loss", "connectionist temporal classification loss" },
        es = "Función de pérdida para el aprendizaje secuencia a secuencia que permite a las redes neuronales mapear tramas de entrada a secuencias de salida más cortas sin alineamientos explícitos, marginalizando sobre todos los alineamientos válidos incluyendo un símbolo blank.",
        zh = "一种用于序列到序列学习的损失函数,通过对包含空白符号在内的所有合法对齐进行边缘化,使神经网络能够在无需显式对齐的情况下将输入帧映射到更短的输出序列。",
        term_es = "clasificación temporal conexionista",
        term_zh = "联结时序分类",
        aliases_es = { "CTC", "pérdida CTC", "clasificación temporal connexionista" },
        aliases_zh = { "CTC", "CTC 损失", "联结主义时序分类" },
    }
    
    data["connector module"] = {
        short = "In a vision-language model, the lightweight component that maps visual encoder outputs into the input embedding space of a language model; common designs include linear projections, MLPs, Q-Formers, and resampler modules.",
        article = nil,
        aliases = { "vision-language connector", "VL connector", "projector module", "MLP connector", "vision projector" },
        es = "En un modelo visión-lenguaje, componente ligero que mapea las salidas del codificador visual al espacio de embeddings de entrada de un modelo de lenguaje; los diseños habituales incluyen proyecciones lineales, MLP, Q-Former y módulos de remuestreo.",
        zh = "在视觉-语言模型中,将视觉编码器输出映射到语言模型输入嵌入空间的轻量组件;常见设计包括线性投影、MLP、Q-Former与重采样模块。",
        term_es = "módulo conector",
        term_zh = "连接模块",
        aliases_es = { "conector visión-lenguaje", "módulo proyector", "proyector visual" },
        aliases_zh = { "视觉-语言连接器", "投影模块", "视觉投影器" },
    }
    
    data["consensus sgd"] = {
        short = "A decentralized stochastic optimization algorithm in which workers alternate local SGD steps with consensus averaging across a communication graph, converging toward a common model without a central server.",
        article = nil,
        aliases = { "consensus SGD", "consensus-based SGD", "D-PSGD", "decentralized parallel SGD" },
        es = "Algoritmo de optimización estocástica descentralizada en el que los nodos alternan pasos locales de SGD con un promediado por consenso a través de un grafo de comunicación, convergiendo hacia un modelo común sin un servidor central.",
        zh = "一种去中心化随机优化算法:各工作节点在通信图上交替执行本地 SGD 步骤与共识平均,从而在没有中心服务器的情况下收敛到一个共同的模型。",
        term_es = "SGD por consenso",
        term_zh = "共识 SGD",
        aliases_es = { "SGD basado en consenso", "SGD paralelo descentralizado", "D-PSGD" },
        aliases_zh = { "一致性 SGD", "去中心化并行 SGD", "D-PSGD" },
    }
    
    data["consent"] = {
        short = "A voluntary, informed agreement by an individual to the collection, processing, or use of their data or participation in a system. Foundational to data protection regimes such as the GDPR.",
        article = nil,
        aliases = { "informed consent", "user consent", "data consent" },
        es = "Acuerdo voluntario e informado de un individuo para la recopilación, procesamiento o uso de sus datos o su participación en un sistema. Fundamento de regímenes de protección de datos como el RGPD.",
        zh = "个人对其数据的收集、处理或使用,或对其参与某一系统的自愿、知情同意。是GDPR等数据保护制度的基石。",
        term_es = "consentimiento",
        term_zh = "同意",
        aliases_es = { "consentimiento informado", "consentimiento del usuario" },
        aliases_zh = { "知情同意", "用户同意", "数据同意" },
    }
    
    data["consistency assumption"] = {
        short = "A core identifying assumption in causal inference stating that for a unit assigned treatment level a, the observed outcome equals the potential outcome under that level, Y = Y(a) when A = a; requires that the treatment be sufficiently well defined.",
        article = nil,
        aliases = { "consistency (causal)", "SUTVA consistency", "treatment-version consistency", "consistency condition" },
        es = "Supuesto identificador central en inferencia causal según el cual, para una unidad asignada al nivel de tratamiento a, el resultado observado es igual al resultado potencial bajo ese nivel, Y = Y(a) cuando A = a; requiere que el tratamiento esté suficientemente bien definido.",
        zh = "因果推断中的核心识别性假设:当个体被分配到处理水平 a 时,其观察到的结果等于该水平下的潜在结果,即 A = a 时 Y = Y(a);这要求处理具有足够明确的定义。",
        term_es = "supuesto de consistencia",
        term_zh = "一致性假设",
        aliases_es = { "consistencia (causal)", "condición de consistencia", "consistencia de SUTVA", "consistencia de la versión de tratamiento" },
        aliases_zh = { "因果一致性", "一致性条件", "处理版本一致性", "SUTVA 一致性" },
    }
    
    data["consistency distillation"] = {
        short = "A training technique that distills a pretrained diffusion model into a consistency model, enabling high-quality image generation in one or a few sampling steps instead of dozens to hundreds.",
        article = nil,
        aliases = { "consistency distillation", "Consistency Distillation", "CD" },
        es = "Técnica de entrenamiento que destila un modelo de difusión preentrenado en un modelo de consistencia, permitiendo generar imágenes de alta calidad en uno o pocos pasos de muestreo en lugar de decenas o cientos.",
        zh = "一种将预训练扩散模型蒸馏为一致性模型(consistency model)的训练技术,使图像生成只需一步或少数几步采样即可达到高质量,而非数十乃至数百步。",
        term_es = "destilación por consistencia",
        term_zh = "一致性蒸馏",
        aliases_es = { "destilación por consistencia", "consistency distillation" },
        aliases_zh = { "一致性蒸馏", "consistency distillation" },
    }
    
    data["consistency model"] = {
        short = "A class of generative models that learn a mapping from any point along a diffusion trajectory directly to the clean data sample, enabling high-quality single-step or few-step generation as an alternative to multi-step diffusion sampling.",
        article = nil,
        aliases = { "consistency models", "CM", "consistency distillation" },
        es = "Clase de modelos generativos que aprenden una asignación desde cualquier punto de la trayectoria de difusión directamente a la muestra limpia, lo que permite generación de alta calidad en uno o pocos pasos como alternativa al muestreo de difusión multi-paso.",
        zh = "一类生成模型,学习从扩散轨迹上任意点直接映射到干净数据样本,从而实现高质量的单步或少步生成,作为多步扩散采样的替代方案。",
        term_es = "modelo de consistencia",
        term_zh = "一致性模型",
        aliases_es = { "modelos de consistencia", "CM", "destilación de consistencia" },
        aliases_zh = { "一致性模型 (Consistency Model)", "CM", "consistency model", "一致性蒸馏" },
    }
    
    data["consistency regularization"] = {
        short = "A semi-supervised principle that encourages a model to produce similar predictions for an unlabeled input under different perturbations or augmentations, used as a loss term on unlabeled data.",
        article = nil,
        aliases = { "consistency regularisation", "consistency loss", "consistency training" },
        es = "Principio semisupervisado que incita a un modelo a producir predicciones similares para una entrada no etiquetada bajo distintas perturbaciones o aumentos, utilizado como término de pérdida sobre datos no etiquetados.",
        zh = "一种半监督原则,鼓励模型对未标注输入在不同扰动或增强下产生一致预测,作为对未标注数据的损失项。",
        term_es = "regularización por consistencia",
        term_zh = "一致性正则化",
        aliases_es = { "regularización de consistencia", "pérdida de consistencia" },
        aliases_zh = { "一致性正则", "一致性训练", "一致性损失" },
    }
    
    data["constant-q transform"] = {
        short = "A time-frequency transform whose frequency bins are logarithmically spaced with a constant quality factor Q (ratio of center frequency to bandwidth). Aligns naturally with musical pitch and is widely used in music information retrieval.",
        article = nil,
        aliases = { "CQT", "constant Q transform", "Q-transform" },
        es = "Transformada tiempo-frecuencia cuyas bandas están espaciadas logarítmicamente con un factor de calidad Q constante (razón entre frecuencia central y ancho de banda). Se alinea con la altura musical y es habitual en recuperación de información musical.",
        zh = "一种时频变换,其频率分量按对数间隔分布且品质因子 Q(中心频率与带宽之比)保持恒定。与音乐音高自然对齐,广泛用于音乐信息检索。",
        term_es = "transformada Q constante",
        term_zh = "常数 Q 变换",
        aliases_es = { "CQT", "transformada de Q constante" },
        aliases_zh = { "CQT", "恒 Q 变换", "常 Q 变换" },
    }
    
    data["constituency parsing"] = {
        short = "A syntactic analysis task that builds a phrase-structure tree decomposing a sentence into nested constituents (noun phrases, verb phrases, etc.), as defined by a context-free grammar such as the Penn Treebank.",
        article = nil,
        aliases = { "Constituency Parsing", "constituent parsing", "phrase-structure parsing", "phrase structure parsing", "constituency analysis" },
        es = "Tarea de análisis sintáctico que construye un árbol de estructura de frase que descompone la oración en constituyentes anidados (sintagmas nominales, verbales, etc.), conforme a una gramática libre de contexto como la del Penn Treebank.",
        zh = "一项句法分析任务,构建短语结构树,将句子分解为嵌套的成分(名词短语、动词短语等),通常依据 Penn Treebank 这类上下文无关文法定义。",
        term_es = "análisis de constituyentes",
        term_zh = "成分句法分析",
        aliases_es = { "constituency parsing", "parsing de constituyentes", "análisis de estructura de frase", "análisis sintagmático" },
        aliases_zh = { "constituency parsing", "短语结构分析", "成分分析", "短语结构句法分析" },
    }
    
    data["constitutional ai"] = {
        short = "A training method introduced by Anthropic in 2022 that uses a written set of principles, the constitution, to let a language model critique and revise its own outputs as a substitute for human preference labels in alignment training.",
        article = nil,
        aliases = { "Constitutional AI", "CAI", "constitutional ai" },
        es = "Método de entrenamiento introducido por Anthropic en 2022 que utiliza un conjunto escrito de principios, la constitución, para que un modelo de lenguaje critique y revise sus propias salidas como sustituto de las etiquetas de preferencia humana en el entrenamiento de alineamiento.",
        zh = "Anthropic 于 2022 年提出的训练方法,使用一套书面原则(称为宪法)让语言模型对自身输出进行批评和修改,以替代对齐训练中的人类偏好标注。",
        term_es = "IA constitucional",
        term_zh = "宪法式 AI",
        aliases_es = { "IA constitucional", "Constitutional AI", "CAI" },
        aliases_zh = { "宪法式 AI", "Constitutional AI", "CAI", "宪法 AI" },
    }
    
    data["constitutional ai for fairness"] = {
        short = "Adapting the Constitutional AI training paradigm — where a model is steered by a written set of principles via critique-and-revise — toward fairness goals such as reducing demographic bias in generated text.",
        article = nil,
        aliases = { "constitutional AI fairness", "fairness constitutional AI", "CAI for fairness" },
        es = "Adaptación del paradigma de entrenamiento de Constitutional AI — donde un modelo se guía mediante un conjunto escrito de principios a través de crítica y revisión — hacia objetivos de equidad como la reducción del sesgo demográfico en texto generado.",
        zh = "将Constitutional AI训练范式(模型通过批评-修改流程被一套书面原则引导)用于公平性目标,例如减少生成文本中的人口统计偏见。",
        term_es = "IA constitucional para la equidad",
        term_zh = "面向公平性的宪法式AI",
        aliases_es = { "CAI para equidad", "equidad mediante IA constitucional" },
        aliases_zh = { "公平性宪法式AI", "用于公平性的Constitutional AI" },
    }
    
    data["constrained bayesian optimization"] = {
        short = "A Bayesian optimization variant that incorporates feasibility constraints, modeling each constraint with a surrogate and selecting candidates that maximize expected improvement subject to a probability of feasibility.",
        article = nil,
        aliases = { "cBO", "constrained BO", "constrained Bayesian optimisation" },
        es = "Variante de la optimización bayesiana que incorpora restricciones de factibilidad, modelando cada restricción con un sustituto y seleccionando candidatos que maximizan la mejora esperada sujeta a una probabilidad de factibilidad.",
        zh = "贝叶斯优化的一种变体,将可行性约束纳入考量,为每条约束建立代理模型,并在满足可行概率的前提下选取使期望改进最大的候选点。",
        term_es = "optimización bayesiana con restricciones",
        term_zh = "约束贝叶斯优化",
        aliases_es = { "optimización bayesiana restringida", "BO con restricciones" },
        aliases_zh = { "受约束贝叶斯优化", "带约束的贝叶斯优化" },
    }
    
    data["constrained decoding"] = {
        short = "A decoding technique that restricts the sampling distribution at each step to tokens permitted by an external constraint such as a regex, JSON schema, grammar, or finite-state machine, ensuring outputs satisfy that constraint.",
        article = nil,
        aliases = { "Constrained Decoding", "constrained generation", "grammar-constrained decoding", "guided decoding", "schema-constrained decoding" },
        es = "Técnica de decodificación que restringe la distribución de muestreo en cada paso a los tokens permitidos por una restricción externa como una regex, un esquema JSON, una gramática o un autómata finito, asegurando que la salida la cumpla.",
        zh = "一种解码技术,在每一步将采样分布限制在外部约束(如正则、JSON Schema、文法或有限状态机)允许的 token 上,从而保证输出满足该约束。",
        term_es = "decodificación restringida",
        term_zh = "受约束解码",
        aliases_es = { "constrained decoding", "decodificación con restricciones", "generación restringida", "decodificación guiada por gramática" },
        aliases_zh = { "constrained decoding", "约束解码", "受限解码", "文法约束解码", "引导解码" },
    }
    
    data["constrained fairness optimization"] = {
        short = "An approach to fair learning that formulates training as a constrained optimization problem: minimize loss subject to fairness constraints (e.g. demographic parity, equalized odds) expressed as inequalities or equalities.",
        article = nil,
        aliases = { "fairness-constrained optimization", "constrained fair learning" },
        es = "Enfoque de aprendizaje justo que formula el entrenamiento como un problema de optimización restringida: minimizar la pérdida sujeta a restricciones de equidad (p. ej. paridad demográfica, equalized odds) expresadas como desigualdades o igualdades.",
        zh = "将公平学习视为带约束优化问题的方法:在公平性约束(如人口统计平等、均等几率,以不等式或等式表示)下最小化损失。",
        term_es = "optimización con restricciones de equidad",
        term_zh = "约束式公平性优化",
        aliases_es = { "aprendizaje justo con restricciones", "optimización equitativa restringida" },
        aliases_zh = { "公平性约束优化", "受约束公平学习" },
    }
    
    data["constrained viterbi"] = {
        short = "A variant of the Viterbi algorithm that finds the highest-probability state sequence subject to user-specified constraints (e.g., must-include or forbidden labels) by pruning incompatible paths during dynamic programming.",
        article = nil,
        aliases = { "constrained Viterbi decoding", "Viterbi with constraints", "constrained MAP decoding" },
        es = "Variante del algoritmo de Viterbi que encuentra la secuencia de estados de mayor probabilidad sujeta a restricciones especificadas por el usuario (por ejemplo, etiquetas obligatorias o prohibidas) podando los caminos incompatibles durante la programación dinámica.",
        zh = "维特比算法的一种变体,在动态规划过程中剪除不满足用户指定约束(如必须包含或禁止的标签)的路径,从而在约束下求最大概率状态序列。",
        term_es = "Viterbi restringido",
        term_zh = "约束维特比",
        aliases_es = { "decodificación de Viterbi restringida", "Viterbi con restricciones" },
        aliases_zh = { "约束 Viterbi 解码", "带约束的维特比算法", "约束 MAP 解码" },
    }
    
    data["constraint logic programming"] = {
        short = "A programming paradigm that augments logic programming with constraint solving over specific domains (reals, integers, finite domains), unifying declarative inference and constraint satisfaction in one language.",
        article = nil,
        aliases = { "CLP", "constraint logic programming language" },
        es = "Paradigma de programación que extiende la programación lógica con resolución de restricciones sobre dominios específicos (reales, enteros, dominios finitos), unificando inferencia declarativa y satisfacción de restricciones.",
        zh = "一种将逻辑编程与特定域(实数、整数、有限域)上的约束求解相结合的编程范式,在同一语言中统一声明式推理与约束满足。",
        term_es = "programación lógica con restricciones",
        term_zh = "约束逻辑编程",
        aliases_es = { "CLP", "programación lógica de restricciones" },
        aliases_zh = { "CLP", "约束逻辑程序设计" },
    }
    
    data["constraint programming"] = {
        short = "A declarative paradigm for solving combinatorial problems by stating variables, their domains, and the constraints they must satisfy, leaving search and propagation to a generic solver.",
        article = nil,
        aliases = { "CP", "constraint-based programming" },
        es = "Paradigma declarativo para resolver problemas combinatorios mediante la especificación de variables, sus dominios y las restricciones que deben satisfacer, delegando la búsqueda y propagación a un solver genérico.",
        zh = "一种用于求解组合问题的声明式范式,通过指定变量、其取值域以及变量间必须满足的约束,将搜索与传播交由通用求解器处理。",
        term_es = "programación con restricciones",
        term_zh = "约束编程",
        aliases_es = { "CP", "programación de restricciones" },
        aliases_zh = { "CP", "约束程序设计" },
    }
    
    data["constraint propagation"] = {
        short = "An inference technique used in constraint solvers that iteratively prunes values from variable domains by enforcing local consistency conditions (e.g. arc consistency) until no further reductions are possible.",
        article = nil,
        aliases = { "constraint propagator", "propagation (constraint)" },
        es = "Técnica de inferencia usada en solvers de restricciones que poda iterativamente valores de los dominios de las variables haciendo cumplir condiciones de consistencia local (p. ej. consistencia de arco) hasta que no se puedan hacer más reducciones.",
        zh = "约束求解器中的一种推理技术,通过反复施加局部一致性条件(如弧一致性)从变量取值域中删除值,直到无法进一步缩减。",
        term_es = "propagación de restricciones",
        term_zh = "约束传播",
        aliases_es = { "propagador de restricciones" },
        aliases_zh = { "约束传递" },
    }
    
    data["constraint satisfaction problem"] = {
        short = "A computational problem defined by a set of variables, their domains, and constraints over subsets of variables; a solution is an assignment of values that satisfies all constraints.",
        article = nil,
        aliases = { "CSP", "constraint satisfaction problems", "constraint-satisfaction problem" },
        es = "Problema computacional definido por un conjunto de variables, sus dominios y restricciones sobre subconjuntos de variables; una solución es una asignación de valores que satisface todas las restricciones.",
        zh = "由一组变量、其取值域以及作用于变量子集的约束所定义的计算问题;其解是满足所有约束的变量赋值。",
        term_es = "problema de satisfacción de restricciones",
        term_zh = "约束满足问题",
        aliases_es = { "CSP", "problemas de satisfacción de restricciones" },
        aliases_zh = { "CSP", "约束满足问题(CSP)" },
    }
    
    data["constraint-based structure learning"] = {
        short = "A family of structure-learning algorithms (e.g., PC, FCI) that recover a Bayesian network or its Markov equivalence class by performing a sequence of conditional-independence tests on the data.",
        article = nil,
        aliases = { "constraint-based learning", "PC algorithm family", "independence-test-based structure learning" },
        es = "Familia de algoritmos de aprendizaje de estructura (por ejemplo, PC, FCI) que recuperan una red bayesiana o su clase de equivalencia de Markov realizando una serie de pruebas de independencia condicional sobre los datos.",
        zh = "通过在数据上执行一系列条件独立性检验来恢复贝叶斯网络或其马尔可夫等价类的结构学习算法族(如 PC、FCI 算法)。",
        term_es = "aprendizaje de estructura basado en restricciones",
        term_zh = "基于约束的结构学习",
        aliases_es = { "aprendizaje basado en restricciones", "familia del algoritmo PC" },
        aliases_zh = { "基于约束的学习", "PC 算法族", "基于独立性检验的结构学习" },
    }
    
    data["consumer fairness"] = {
        short = "Fairness considerations from the perspective of end users or consumers of an automated system, focusing on equitable treatment, prices, recommendations, or service quality across consumer subgroups.",
        article = nil,
        aliases = { "user-side fairness", "consumer-side fairness" },
        es = "Consideraciones de equidad desde la perspectiva de los usuarios finales o consumidores de un sistema automatizado, enfocadas en trato, precios, recomendaciones o calidad de servicio equitativos entre subgrupos de consumidores.",
        zh = "从自动化系统的最终用户或消费者视角出发的公平性考量,关注消费者子群体在待遇、价格、推荐或服务质量上的公平。",
        term_es = "equidad para el consumidor",
        term_zh = "消费者公平性",
        aliases_es = { "equidad del lado del consumidor", "equidad del usuario" },
        aliases_zh = { "消费者侧公平性", "用户侧公平性" },
    }
    
    data["contact map prediction"] = {
        short = "The task of predicting which residue pairs in a protein are spatially close (typically within ~8 Å) from sequence; a key intermediate step in classical and modern protein structure prediction.",
        article = nil,
        aliases = { "residue contact prediction", "protein contact prediction", "contact prediction" },
        es = "Tarea de predecir, a partir de la secuencia, qué pares de residuos en una proteína están espacialmente próximos (típicamente a menos de 8 Å); paso intermedio clave en la predicción clásica y moderna de la estructura proteica.",
        zh = "根据序列预测蛋白质中哪些残基对在空间上邻近(通常 ~8 Å 以内)的任务;是经典和现代蛋白质结构预测中的关键中间步骤。",
        term_es = "predicción del mapa de contactos",
        term_zh = "接触图预测",
        aliases_es = { "predicción de contactos de residuos", "predicción de contactos proteicos" },
        aliases_zh = { "残基接触预测", "蛋白质接触预测", "接触预测" },
    }
    
    data["contact prediction"] = {
        short = "Computational task of predicting which residue pairs in a protein are spatially close (typically within 8 Å Cβ–Cβ distance) from sequence information, often used as a structural prior for ab initio folding.",
        article = nil,
        aliases = { "residue contact prediction", "protein contact prediction", "contact map prediction" },
        es = "Tarea computacional de predecir qué pares de residuos en una proteína están espacialmente cercanos (típicamente dentro de 8 Å Cβ–Cβ) a partir de la secuencia, usada habitualmente como información estructural a priori para el plegado ab initio.",
        zh = "从蛋白质序列预测哪些残基对在空间上接近(通常Cβ–Cβ距离在8 Å以内)的计算任务,常用作从头折叠的结构先验信息。",
        term_es = "predicción de contactos",
        term_zh = "接触预测",
        aliases_es = { "predicción de contactos de residuos", "predicción de mapa de contactos" },
        aliases_zh = { "残基接触预测", "蛋白质接触预测", "接触图预测" },
    }
    
    data["content loss"] = {
        short = "A loss in neural style transfer that measures the L2 distance between deep feature maps of a generated image and a content reference, preserving high-level structure while style is altered.",
        article = nil,
        aliases = { "content reconstruction loss", "feature content loss" },
        es = "Pérdida en transferencia neuronal de estilo que mide la distancia L2 entre los mapas de características profundas de la imagen generada y una referencia de contenido, preservando la estructura de alto nivel mientras se altera el estilo.",
        zh = "神经风格迁移中的损失,衡量生成图像与内容参考在深度特征图上的 L2 距离,在改变风格的同时保留高层结构。",
        term_es = "pérdida de contenido",
        term_zh = "内容损失",
        aliases_es = { "pérdida de reconstrucción de contenido" },
        aliases_zh = { "内容重建损失", "特征内容损失" },
    }
    
    data["content moderation bias"] = {
        short = "Systematic disparities in how automated or human-assisted content moderation systems flag, remove, or down-rank content, often disadvantaging marginalized voices, dialects, or topics.",
        article = nil,
        aliases = { "moderation bias", "biased content moderation" },
        es = "Disparidades sistemáticas en cómo los sistemas de moderación de contenido automatizados o asistidos por humanos marcan, eliminan o reducen el alcance del contenido, perjudicando a menudo a voces, dialectos o temas marginalizados.",
        zh = "自动或人机协作的内容审核系统在标记、删除或降权内容时存在的系统性差异,常常使边缘化群体的声音、方言或话题受损。",
        term_es = "sesgo en moderación de contenido",
        term_zh = "内容审核偏见",
        aliases_es = { "moderación sesgada", "sesgo de moderación" },
        aliases_zh = { "审核偏见", "有偏内容审核" },
    }
    
    data["content-style disentanglement"] = {
        short = "A representation-learning objective that factors speech or audio into largely independent content (linguistic) and style (speaker, prosody, emotion) components, enabling controllable synthesis and voice conversion.",
        article = nil,
        aliases = { "content style disentanglement", "content/style disentanglement", "content-style separation", "speech disentanglement" },
        es = "Objetivo de aprendizaje de representaciones que factoriza el habla o el audio en componentes en gran medida independientes de contenido (lingüístico) y estilo (hablante, prosodia, emoción), permitiendo síntesis controlable y conversión de voz.",
        zh = "一种表示学习目标,将语音或音频分解为基本独立的内容(语言)和风格(说话人、韵律、情感)成分,从而支持可控合成和语音转换。",
        term_es = "desentrelazamiento de contenido y estilo",
        term_zh = "内容-风格解耦",
        aliases_es = { "separación de contenido y estilo", "desacoplamiento de contenido y estilo" },
        aliases_zh = { "内容与风格解耦", "内容风格分离" },
    }
    
    data["contentvec"] = {
        short = "A self-supervised speech representation model that builds on HuBERT and applies disentanglement objectives to suppress speaker information, producing content-focused embeddings useful for voice conversion and ASR.",
        article = nil,
        aliases = { "ContentVec", "Content Vec" },
        es = "Modelo autosupervisado de representación del habla que se basa en HuBERT y aplica objetivos de desentrelazamiento para suprimir la información del hablante, produciendo representaciones centradas en el contenido útiles para conversión de voz y ASR.",
        zh = "一种自监督语音表示模型,基于 HuBERT 并通过解耦目标抑制说话人信息,产生以内容为中心的表征,适用于语音转换和语音识别。",
        term_es = "ContentVec",
        term_zh = "ContentVec",
        aliases_es = { "ContentVec" },
        aliases_zh = { "ContentVec" },
    }
    
    data["context parallelism"] = {
        short = "A parallelism strategy for long-context training that shards the sequence dimension of attention across devices and exchanges keys and values (e.g. via Ring Attention) so that each device computes attention over a subset of queries against the full context.",
        article = nil,
        aliases = { "CP", "context parallel", "Ring Attention parallelism" },
        es = "Estrategia de paralelismo para el entrenamiento con contexto largo que distribuye la dimensión de secuencia de la atención entre dispositivos e intercambia claves y valores (por ejemplo mediante Ring Attention), de modo que cada dispositivo calcula la atención sobre un subconjunto de consultas frente al contexto completo.",
        zh = "面向长上下文训练的并行策略:将注意力的序列维度切分到多张设备,并通过 Ring Attention 等方式交换键和值,使每张设备在完整上下文上计算其负责的部分查询的注意力。",
        term_es = "paralelismo de contexto",
        term_zh = "上下文并行",
        aliases_es = { "CP", "paralelismo de contexto largo" },
        aliases_zh = { "CP", "上下文并行化", "长上下文并行" },
    }
    
    data["context window"] = {
        short = "The maximum number of tokens a language model can attend to in a single forward pass, comprising both the input prompt and the generated output. Determines how much text a model can condition on at once.",
        article = nil,
        aliases = { "context length", "context-window", "context size", "max context length", "model context window" },
        es = "Número máximo de tokens al que un modelo de lenguaje puede atender en una sola pasada, incluyendo el prompt de entrada y la salida generada. Determina cuánto texto puede condicionar el modelo a la vez.",
        zh = "语言模型在一次前向传播中可以关注的最大 token 数,包括输入提示和生成的输出,决定了模型一次能够依赖的文本范围。",
        term_es = "ventana de contexto",
        term_zh = "上下文窗口",
        aliases_es = { "longitud de contexto", "tamaño de contexto", "ventana del contexto" },
        aliases_zh = { "上下文长度", "上下文大小", "context window" },
    }
    
    data["context window extension"] = {
        short = "Techniques such as positional interpolation, YaRN, NTK-aware scaling, or continued pretraining on long sequences that increase the effective context length of a transformer language model beyond what it was originally trained on.",
        article = nil,
        aliases = { "context window extension", "context length extension", "long-context extension" },
        es = "Conjunto de técnicas, como la interpolación posicional, YaRN, el escalado consciente de NTK o el preentrenamiento continuado sobre secuencias largas, que aumentan la longitud de contexto efectiva de un modelo de lenguaje transformador más allá de la utilizada en su entrenamiento original.",
        zh = "通过位置插值、YaRN、NTK 感知缩放或在长序列上继续预训练等手段,将 Transformer 语言模型的有效上下文长度扩展到超出其原始训练长度的技术总称。",
        term_es = "ampliación de la ventana de contexto",
        term_zh = "上下文窗口扩展",
        aliases_es = { "ampliación de la ventana de contexto", "extensión de la longitud de contexto", "context window extension" },
        aliases_zh = { "上下文窗口扩展", "上下文长度扩展", "context window extension" },
    }
    
    data["context-specific independence"] = {
        short = "An independence statement that holds only for particular value assignments to a context set; e.g., X ⊥ Y given Z = z but not given Z = z'. Captured by structures like decision trees inside CPDs.",
        article = nil,
        aliases = { "CSI", "context-specific conditional independence", "value-specific independence" },
        es = "Afirmación de independencia que se cumple solo para asignaciones particulares de valores a un conjunto de contexto; por ejemplo, X ⊥ Y dado Z = z pero no dado Z = z'. Se captura mediante estructuras como árboles de decisión dentro de las CPD.",
        zh = "仅在上下文集取特定取值时成立的独立性断言,例如在 Z = z 时 X ⊥ Y 但在 Z = z' 时不成立;可由 CPD 内部的决策树等结构表示。",
        term_es = "independencia específica del contexto",
        term_zh = "上下文特定独立性",
        aliases_es = { "CSI", "independencia condicional específica del contexto" },
        aliases_zh = { "CSI", "上下文特定条件独立", "取值特定独立" },
    }
    
    data["contextnet"] = {
        short = "A fully convolutional speech recognition encoder from Google that progressively expands the receptive field via squeeze-and-excitation modules, achieving competitive ASR accuracy with reduced parameter counts.",
        article = nil,
        aliases = { "ContextNet" },
        es = "Codificador completamente convolucional para reconocimiento del habla de Google que amplía progresivamente el campo receptivo mediante módulos squeeze-and-excitation, logrando una precisión de ASR competitiva con un menor número de parámetros.",
        zh = "Google 提出的全卷积语音识别编码器,通过 squeeze-and-excitation 模块逐步扩展感受野,在更少参数的条件下实现具有竞争力的识别精度。",
        term_es = "ContextNet",
        term_zh = "ContextNet",
        aliases_es = { "ContextNet" },
        aliases_zh = { "ContextNet" },
    }
    
    data["contextual bandit"] = {
        short = "An extension of the multi-armed bandit problem in which the learner observes a context (feature vector) before each decision and must learn a policy that maps contexts to actions to maximize cumulative reward.",
        article = nil,
        aliases = { "contextual bandits", "associative bandit", "bandit with side information" },
        es = "Extensión del problema de bandido multibrazo en la que el aprendiz observa un contexto (vector de características) antes de cada decisión y debe aprender una política que asigne contextos a acciones para maximizar la recompensa acumulada.",
        zh = "多臂赌博机问题的扩展,学习者在每次决策前观察一个上下文(特征向量),并需学习一个将上下文映射到动作的策略,以最大化累计奖励。",
        term_es = "bandido contextual",
        term_zh = "上下文赌博机",
        aliases_es = { "bandidos contextuales", "bandido con información lateral" },
        aliases_zh = { "上下文老虎机", "情境赌博机", "contextual bandit" },
    }
    
    data["contextual embedding"] = {
        short = "A word or token representation whose value depends on the surrounding context, so the same surface form receives different vectors in different sentences. Produced by models such as ELMo, BERT, and the hidden states of GPT-style transformers.",
        article = nil,
        aliases = { "contextual embeddings", "contextualized embedding", "contextualised embedding", "contextual word embedding", "contextual representation" },
        es = "Representación de una palabra o token cuyo valor depende del contexto circundante, de modo que la misma forma superficial recibe vectores distintos en distintas oraciones. La producen modelos como ELMo, BERT y los estados ocultos de transformers estilo GPT.",
        zh = "一种词或词元表示,其取值依赖于周围上下文,因此相同的表面形式在不同句子中得到不同的向量。由 ELMo、BERT 以及 GPT 类 transformer 的隐藏状态等模型产生。",
        term_es = "embedding contextual",
        term_zh = "上下文嵌入",
        aliases_es = { "embeddings contextuales", "representación contextual", "embedding contextualizado" },
        aliases_zh = { "上下文相关嵌入", "上下文词嵌入", "上下文表示" },
    }
    
    data["contextual retrieval"] = {
        short = "A retrieval-augmented generation technique introduced by Anthropic that prepends a short LLM-generated context to each chunk before embedding and BM25 indexing, reducing failed retrievals on documents whose chunks lack standalone meaning.",
        article = nil,
        aliases = { "Contextual Retrieval", "contextual chunk retrieval", "Anthropic contextual retrieval" },
        es = "Técnica de generación aumentada por recuperación introducida por Anthropic que antepone a cada fragmento un breve contexto generado por un LLM antes de su indexación por embeddings y BM25, reduciendo los fallos de recuperación en documentos cuyos fragmentos carecen de sentido aislado.",
        zh = "Anthropic 提出的一种检索增强生成技术:在对每个文档块进行嵌入和 BM25 索引前,先由 LLM 生成一段简短的上下文并附加到块的开头,从而减少在缺乏独立含义的块上检索失败的情况。",
        term_es = "recuperación contextual",
        term_zh = "上下文检索",
        aliases_es = { "Contextual Retrieval", "recuperación contextual de fragmentos" },
        aliases_zh = { "Contextual Retrieval", "情境化检索", "上下文化检索" },
    }
    
    data["contig assembly"] = {
        short = "Process of merging overlapping sequencing reads into longer contiguous consensus sequences (contigs), a foundational step in genome and transcriptome assembly pipelines.",
        article = nil,
        aliases = { "contig construction", "read assembly into contigs" },
        es = "Proceso de fusionar lecturas de secuenciación que se solapan en secuencias consenso contiguas más largas (contigs), un paso fundamental en los flujos de ensamblaje de genomas y transcriptomas.",
        zh = "将重叠的测序读段合并为更长的连续共识序列(contig)的过程,是基因组和转录组组装流程的基础步骤。",
        term_es = "ensamblaje de contigs",
        term_zh = "contig 组装",
        aliases_es = { "construcción de contigs", "ensamblaje en contigs" },
        aliases_zh = { "重叠群组装", "连续序列组装" },
    }
    
    data["continual fine-tuning"] = {
        short = "Repeated fine-tuning of a model on a sequence of tasks or datasets over time, often with mechanisms to mitigate catastrophic forgetting of previously learned skills.",
        article = nil,
        aliases = { "continual finetuning", "sequential fine-tuning", "incremental fine-tuning" },
        es = "Ajuste fino repetido de un modelo sobre una secuencia de tareas o conjuntos de datos a lo largo del tiempo, a menudo con mecanismos para mitigar el olvido catastrófico de habilidades aprendidas previamente.",
        zh = "随着时间推移在一系列任务或数据集上反复微调模型的过程,通常配合机制以缓解对先前所学技能的灾难性遗忘。",
        term_es = "fine-tuning continuo",
        term_zh = "持续微调",
        aliases_es = { "ajuste fino continuo", "ajuste fino secuencial", "ajuste fino incremental" },
        aliases_zh = { "持续fine-tuning", "增量微调", "顺序微调" },
    }
    
    data["continual learning"] = {
        short = "A learning setting in which a model is exposed to a stream of tasks or data over time and must acquire new knowledge without overwriting previously learned skills.",
        article = nil,
        aliases = { "lifelong learning", "incremental learning", "sequential learning" },
        es = "Marco de aprendizaje en el que un modelo se expone a un flujo de tareas o datos a lo largo del tiempo y debe adquirir nuevo conocimiento sin sobrescribir las habilidades previamente aprendidas.",
        zh = "一种学习设定,模型随时间接收任务或数据流,必须在不覆盖既有技能的前提下获取新知识。",
        term_es = "aprendizaje continuo",
        term_zh = "持续学习",
        aliases_es = { "aprendizaje a lo largo de la vida", "aprendizaje incremental", "aprendizaje secuencial" },
        aliases_zh = { "终身学习", "增量学习", "持续学习" },
    }
    
    data["continued pretraining"] = {
        short = "The practice of further training an already pretrained language model on additional unlabeled corpora — typically in-domain or in a new language — to adapt it before any task-specific fine-tuning.",
        article = nil,
        aliases = { "continual pretraining", "continued pre-training", "continual pre-training", "domain-adaptive pretraining" },
        es = "Práctica de seguir entrenando un modelo de lenguaje ya preentrenado sobre corpus no etiquetados adicionales —habitualmente de un dominio específico o de un nuevo idioma— para adaptarlo antes de cualquier ajuste fino orientado a una tarea concreta.",
        zh = "在已预训练的语言模型基础上,使用额外的无标注语料(通常是特定领域或新语言)继续训练,以在面向具体任务的微调之前完成模型的适配。",
        term_es = "preentrenamiento continuado",
        term_zh = "持续预训练",
        aliases_es = { "preentrenamiento continuo", "preentrenamiento adaptativo al dominio" },
        aliases_zh = { "继续预训练", "持续预训练", "领域自适应预训练" },
    }
    
    data["continuous bag of words"] = {
        short = "A word2vec architecture that predicts the current word from a window of surrounding context words, treating context as an unordered bag of words. Trains faster but is less accurate on rare words than skip-gram.",
        article = nil,
        aliases = { "CBOW", "continuous bag-of-words", "CBOW model", "continuous BoW" },
        es = "Arquitectura de word2vec que predice la palabra actual a partir de una ventana de palabras de contexto circundantes, tratando el contexto como una bolsa de palabras sin orden. Entrena más rápido pero es menos preciso con palabras raras que skip-gram.",
        zh = "word2vec 的一种架构,从周围上下文词的窗口预测当前词,将上下文视为无序词袋。训练速度更快,但对罕见词的效果不如 skip-gram。",
        term_es = "bolsa continua de palabras",
        term_zh = "连续词袋模型",
        aliases_es = { "CBOW", "modelo CBOW", "bolsa de palabras continua" },
        aliases_zh = { "CBOW", "连续词袋", "CBOW 模型" },
    }
    
    data["continuous batching"] = {
        short = "An LLM serving technique that schedules new requests into the batch as soon as other sequences finish generating, rather than waiting for the entire batch to complete; greatly improves GPU utilization and throughput.",
        article = nil,
        aliases = { "iteration-level batching", "iteration-level scheduling", "in-flight batching", "rolling batching" },
        es = "Técnica de servicio de LLM que programa nuevas solicitudes en el lote en cuanto otras secuencias terminan de generar, en lugar de esperar a que todo el lote concluya; mejora notablemente la utilización de la GPU y el throughput.",
        zh = "一种 LLM 服务技术,一旦批中其他序列完成生成便立即将新请求加入该批,而不是等待整个批结束;可显著提升 GPU 利用率与吞吐量。",
        term_es = "batching continuo",
        term_zh = "连续批处理",
        aliases_es = { "continuous batching", "batching a nivel de iteración", "in-flight batching" },
        aliases_zh = { "continuous batching", "迭代级批处理", "在途批处理", "滚动批处理" },
    }
    
    data["continuous bayesian network"] = {
        short = "A Bayesian network in which some or all variables are continuous, with conditional probability densities (often Gaussian or conditional linear Gaussian) attached to each node.",
        article = nil,
        aliases = { "continuous-variable Bayesian network", "Gaussian Bayesian network", "continuous BN" },
        es = "Red bayesiana en la que algunas o todas las variables son continuas, con densidades condicionales de probabilidad (a menudo gaussianas o gaussianas lineales condicionales) asociadas a cada nodo.",
        zh = "部分或全部变量为连续的贝叶斯网络,每个节点附带条件概率密度(常为高斯或条件线性高斯分布)。",
        term_es = "red bayesiana continua",
        term_zh = "连续贝叶斯网络",
        aliases_es = { "red bayesiana de variables continuas", "red bayesiana gaussiana", "BN continua" },
        aliases_zh = { "连续变量贝叶斯网络", "高斯贝叶斯网络", "continuous BN" },
    }
    
    data["continuous fairness monitoring"] = {
        short = "Ongoing measurement of fairness metrics on a deployed model's predictions, used to detect drift, regression, or emergent disparities and trigger retraining or intervention.",
        article = nil,
        aliases = { "fairness monitoring", "online fairness monitoring", "post-deployment fairness monitoring" },
        es = "Medición continua de métricas de equidad sobre las predicciones de un modelo desplegado, utilizada para detectar deriva, regresión o disparidades emergentes y activar reentrenamiento o intervención.",
        zh = "对已部署模型的预测持续测量公平性指标,用于检测漂移、退化或新出现的差异,并触发再训练或干预。",
        term_es = "monitoreo continuo de equidad",
        term_zh = "持续公平性监测",
        aliases_es = { "monitoreo de equidad", "supervisión continua de equidad" },
        aliases_zh = { "公平性监测", "在线公平性监测" },
    }
    
    data["continuous logic"] = {
        short = "A many-valued logic in which truth values range over the real interval [0,1] and connectives are continuous functions, generalizing classical Boolean logic and underpinning fuzzy and differentiable logic systems.",
        article = nil,
        aliases = { "real-valued logic", "[0,1]-valued logic" },
        es = "Lógica multivaluada en la que los valores de verdad varían en el intervalo real [0,1] y las conectivas son funciones continuas, generalizando la lógica booleana clásica y sirviendo de base a la lógica difusa y a sistemas de lógica diferenciable.",
        zh = "一种多值逻辑,其真值取值于实数区间[0,1],连接词为连续函数,推广了经典布尔逻辑,是模糊逻辑与可微逻辑系统的基础。",
        term_es = "lógica continua",
        term_zh = "连续逻辑",
        aliases_es = { "lógica de valores reales" },
        aliases_zh = { "实值逻辑", "[0,1]值逻辑" },
    }
    
    data["continuous ranked probability score"] = {
        short = "A strictly proper scoring rule for probabilistic forecasts of real-valued outcomes, defined as the integrated squared difference between the predictive cumulative distribution function and the indicator of the realized observation.",
        article = nil,
        aliases = { "CRPS", "continuous rank probability score", "Brier-style continuous score" },
        es = "Regla de puntuación estrictamente propia para predicciones probabilísticas de resultados reales, definida como la diferencia cuadrática integrada entre la función de distribución acumulada predictiva y el indicador de la observación realizada.",
        zh = "一种用于实值结果概率预报的严格正则评分规则,定义为预测累积分布函数与实际观测的指示函数之间的平方差的积分。",
        term_es = "puntuación de probabilidad clasificada continua",
        term_zh = "连续分级概率得分",
        aliases_es = { "CRPS", "continuous ranked probability score", "puntuación CRPS" },
        aliases_zh = { "CRPS", "连续排序概率得分", "连续秩概率评分" },
    }
    
    data["continuous relaxation"] = {
        short = "A technique that replaces discrete choices with a continuous parameterization (often a softmax over options) so that the resulting objective is differentiable, enabling gradient-based optimization.",
        article = nil,
        aliases = { "continuous relaxation of architecture", "softmax relaxation" },
        es = "Técnica que reemplaza decisiones discretas por una parametrización continua (con frecuencia un softmax sobre las opciones) para que el objetivo resultante sea diferenciable y se pueda optimizar mediante gradiente.",
        zh = "将离散选择替换为连续参数化(通常对各选项取 softmax)的技术,使所得目标函数可微,从而可以使用基于梯度的方法进行优化。",
        term_es = "relajación continua",
        term_zh = "连续松弛",
        aliases_es = { "relajación continua de arquitectura", "relajación softmax" },
        aliases_zh = { "连续放松", "softmax 松弛" },
    }
    
    data["continuous time score loss"] = {
        short = "The denoising score-matching objective for continuous-time diffusion models defined by an SDE, training a time-conditioned network to estimate ∇_x log p_t(x) at every noise level along the forward process.",
        article = nil,
        aliases = { "continuous-time score matching", "SDE score loss", "score SDE loss", "continuous score matching loss" },
        es = "Objetivo de denoising score matching para modelos de difusión en tiempo continuo definidos por una SDE, entrenando una red condicionada en el tiempo para estimar ∇_x log p_t(x) en cada nivel de ruido del proceso directo.",
        zh = "由 SDE 定义的连续时间扩散模型的去噪 score matching 目标,训练一个以时间为条件的网络来估计前向过程中各噪声水平上的 ∇_x log p_t(x)。",
        term_es = "pérdida de score en tiempo continuo",
        term_zh = "连续时间 score 损失",
        aliases_es = { "score matching en tiempo continuo", "pérdida de SDE de score" },
        aliases_zh = { "连续时间 score matching", "SDE score 损失", "score SDE 损失" },
    }
    
    data["continuous treatment"] = {
        short = "A treatment or exposure measured on a continuous scale (e.g., dose, duration, intensity) rather than as discrete categories; estimation typically targets a dose-response or causal-curve function rather than a single average effect.",
        article = nil,
        aliases = { "continuous exposure", "continuous-valued treatment", "dose-response treatment", "real-valued treatment", "continuous-valued exposure" },
        es = "Tratamiento o exposición medido en una escala continua (por ejemplo, dosis, duración, intensidad) en lugar de en categorías discretas; la estimación suele dirigirse a una función dosis-respuesta o curva causal en lugar de a un único efecto promedio.",
        zh = "在连续尺度上测量的处理或暴露(例如剂量、时长或强度),而非离散类别;估计目标通常是剂量-反应或因果曲线,而不是单一的平均效应。",
        term_es = "tratamiento continuo",
        term_zh = "连续处理",
        aliases_es = { "exposición continua", "tratamiento de valor continuo", "tratamiento dosis-respuesta", "exposición de valor continuo" },
        aliases_zh = { "连续暴露", "连续值处理", "剂量-反应处理", "实值处理", "连续型处理" },
    }
    
    data["contract theory federated"] = {
        short = "The application of contract theory from economics to federated learning, designing reward and resource-allocation contracts that incentivize self-interested clients to truthfully reveal their type and contribute high-quality data or compute.",
        article = nil,
        aliases = { "contract theory in federated learning", "federated contract theory", "contract-based incentives" },
        es = "Aplicación de la teoría de contratos de la economía al aprendizaje federado, diseñando contratos de recompensa y asignación de recursos que incentiven a clientes egoístas a revelar de forma veraz su tipo y aportar datos o cómputo de alta calidad.",
        zh = "将经济学中的契约理论应用于联邦学习,设计奖励与资源分配契约,激励自利的客户端如实披露自身类型并贡献高质量的数据或算力。",
        term_es = "teoría de contratos en aprendizaje federado",
        term_zh = "联邦学习中的契约理论",
        aliases_es = { "teoría de contratos federada", "incentivos basados en contratos" },
        aliases_zh = { "联邦契约理论", "基于契约的激励机制" },
    }
    
    data["contrastive activation addition"] = {
        short = "A model-steering technique that derives a steering vector from the difference of mean activations on contrasting prompt pairs and adds it to a hidden state at inference time to induce or suppress a target behavior. Introduced by Rimsky et al. (2024).",
        article = nil,
        aliases = { "CAA", "contrastive activation addition steering" },
        es = "Técnica de dirección de modelos que obtiene un vector de dirección a partir de la diferencia de activaciones medias sobre pares de indicaciones contrastantes y lo suma a un estado oculto durante la inferencia para inducir o suprimir un comportamiento objetivo. Propuesta por Rimsky et al. (2024).",
        zh = "一种模型操控技术:从对比提示对的平均激活之差中求得方向向量,并在推理时将其加到隐藏状态上,以诱导或抑制目标行为。由 Rimsky 等人(2024)提出。",
        term_es = "adición de activaciones contrastiva",
        term_zh = "对比激活相加",
        aliases_es = { "CAA", "dirección por adición de activaciones contrastiva" },
        aliases_zh = { "CAA", "对比激活添加" },
    }
    
    data["contrastive captioner"] = {
        short = "A vision-language foundation model from Google (CoCa) that combines an image-text contrastive loss with an autoregressive captioning loss in a single encoder-decoder, sharing one image encoder for both objectives.",
        article = nil,
        aliases = { "CoCa", "Contrastive Captioner", "contrastive captioning model" },
        es = "Modelo fundacional visión-lenguaje de Google (CoCa) que combina una pérdida contrastiva imagen-texto con una pérdida de generación autorregresiva de subtítulos en un único codificador-decodificador, compartiendo un mismo codificador de imagen para ambos objetivos.",
        zh = "Google提出的视觉-语言基础模型(CoCa),在单一编码器-解码器中结合图文对比损失与自回归字幕损失,并为两个目标共享同一图像编码器。",
        term_es = "Contrastive Captioner",
        term_zh = "对比式字幕模型",
        aliases_es = { "CoCa", "Contrastive Captioner" },
        aliases_zh = { "CoCa", "对比式字幕生成模型" },
    }
    
    data["contrastive decoding"] = {
        short = "A text-generation method that scores tokens by the difference between log-probabilities under a strong expert model and a weaker amateur model, suppressing generic or repetitive outputs that both models share.",
        article = nil,
        aliases = { "Contrastive Decoding", "CD decoding" },
        es = "Método de generación de texto que puntúa los tokens según la diferencia entre las log-probabilidades de un modelo experto fuerte y un modelo aficionado más débil, suprimiendo así las salidas genéricas o repetitivas que ambos comparten.",
        zh = "一种文本生成方法:用一个较强的专家模型与一个较弱的业余模型之间的对数概率差来给词元打分,从而抑制两者都倾向输出的通用或重复内容。",
        term_es = "decodificación contrastiva",
        term_zh = "对比解码",
        aliases_es = { "decodificación por contraste", "Contrastive Decoding" },
        aliases_zh = { "对比式解码", "Contrastive Decoding" },
    }
    
    data["contrastive divergence"] = {
        short = "An approximate maximum-likelihood training algorithm for energy-based models, especially restricted Boltzmann machines, that replaces samples from the model distribution with a few steps of Gibbs sampling started from the data.",
        article = nil,
        aliases = { "CD", "CD-k", "contrastive divergence learning" },
        es = "Algoritmo aproximado de máxima verosimilitud para entrenar modelos basados en energía, en particular máquinas de Boltzmann restringidas, que reemplaza las muestras de la distribución del modelo por unos pocos pasos de muestreo de Gibbs iniciados a partir de los datos.",
        zh = "一种用于能量模型(尤其是受限玻尔兹曼机)的近似极大似然训练算法,用从数据出发进行几步吉布斯采样得到的样本代替模型分布的样本。",
        term_es = "divergencia contrastiva",
        term_zh = "对比散度",
        aliases_es = { "CD", "CD-k", "aprendizaje por divergencia contrastiva" },
        aliases_zh = { "CD", "CD-k", "对比散度学习" },
    }
    
    data["contrastive excitation backprop"] = {
        short = "An extension of excitation backprop that highlights image regions supporting a target class while suppressing those that also support contrasting classes, producing more class-discriminative saliency maps. Introduced by Zhang et al. (2018).",
        article = nil,
        aliases = { "c-EB", "contrastive excitation backpropagation" },
        es = "Extensión de la retropropagación de excitación que destaca regiones de imagen que respaldan una clase objetivo mientras suprime las que también respaldan clases contrastantes, produciendo mapas de saliencia más discriminativos por clase. Propuesta por Zhang et al. (2018).",
        zh = "兴奋反向传播的一种扩展:在突出支持目标类别的图像区域的同时,抑制同样支持对比类别的区域,从而生成更具类别区分度的显著性图。由 Zhang 等人(2018)提出。",
        term_es = "retropropagación de excitación contrastiva",
        term_zh = "对比兴奋反向传播",
        aliases_es = { "c-EB", "excitation backprop contrastiva" },
        aliases_zh = { "c-EB", "对比激发反向传播" },
    }
    
    data["contrastive explanation"] = {
        short = "An explanation that answers a why-question by contrasting the actual outcome with a specified or implicit alternative (\"why P rather than Q?\"), motivated by findings in cognitive science that human explanations are inherently contrastive.",
        article = nil,
        aliases = { "contrastive explanations", "why-not explanation", "contrastive XAI" },
        es = "Explicación que responde a una pregunta de por qué contrastando el resultado real con una alternativa especificada o implícita («¿por qué P y no Q?»), motivada por hallazgos en ciencia cognitiva de que las explicaciones humanas son intrínsecamente contrastivas.",
        zh = "通过将实际结果与某个明确或隐含的替代结果作对比来回答“为什么”问题的解释(“为何是 P 而不是 Q?”),其动机来自认知科学的发现:人类解释本质上是对比性的。",
        term_es = "explicación contrastiva",
        term_zh = "对比性解释",
        aliases_es = { "explicaciones contrastivas", "explicación de por qué no" },
        aliases_zh = { "对比解释", "为何不解释" },
    }
    
    data["contrastive explanation method"] = {
        short = "An XAI method that explains a classifier's prediction by finding the minimal set of features that must be present (pertinent positives) and the minimal set that must be absent (pertinent negatives) to maintain that prediction. Introduced by Dhurandhar et al. (2018).",
        article = nil,
        aliases = { "CEM", "Contrastive Explanation Method", "pertinent positives and negatives" },
        es = "Método de XAI que explica la predicción de un clasificador encontrando el conjunto mínimo de características que deben estar presentes (positivos pertinentes) y el mínimo que deben estar ausentes (negativos pertinentes) para mantener esa predicción. Propuesto por Dhurandhar et al. (2018).",
        zh = "一种可解释 AI 方法:通过寻找维持分类器预测所必须存在的最小特征集合(相关正例)以及必须不存在的最小特征集合(相关负例)来解释预测。由 Dhurandhar 等人(2018)提出。",
        term_es = "método de explicación contrastiva",
        term_zh = "对比解释方法",
        aliases_es = { "CEM", "positivos y negativos pertinentes" },
        aliases_zh = { "CEM", "相关正例与相关负例" },
    }
    
    data["contrastive image-text loss"] = {
        short = "A symmetric InfoNCE-style objective that pulls matched image-text pairs together and pushes mismatched pairs apart in a shared embedding space, popularized by CLIP and ALIGN for vision-language pretraining.",
        article = nil,
        aliases = { "image-text contrastive loss", "ITC loss", "image-text InfoNCE", "CLIP loss", "contrastive vision-language loss" },
        es = "Objetivo simétrico al estilo InfoNCE que acerca los pares imagen-texto coincidentes y aleja los no coincidentes en un espacio de embeddings compartido, popularizado por CLIP y ALIGN para el preentrenamiento visión-lenguaje.",
        zh = "一种对称的InfoNCE型目标,在共享嵌入空间中将匹配的图文对拉近、不匹配的图文对推远,由CLIP与ALIGN推广用于视觉-语言预训练。",
        term_es = "pérdida contrastiva imagen-texto",
        term_zh = "图文对比损失",
        aliases_es = { "pérdida ITC", "pérdida CLIP", "InfoNCE imagen-texto" },
        aliases_zh = { "ITC损失", "CLIP损失", "图像-文本对比损失" },
    }
    
    data["contrastive language-image pretraining"] = {
        short = "A multimodal pretraining objective that learns aligned image and text encoders by maximizing the cosine similarity of matched image-caption pairs while pushing apart mismatched pairs in a shared embedding space.",
        article = nil,
        aliases = { "CLIP", "language-image contrastive pretraining", "image-text contrastive pretraining" },
        es = "Objetivo de preentrenamiento multimodal que aprende codificadores alineados de imagen y texto maximizando la similitud coseno de pares imagen-leyenda emparejados y separando los pares no emparejados en un espacio de incrustación compartido.",
        zh = "一种多模态预训练目标,通过在共享嵌入空间中最大化匹配的图文对的余弦相似度并拉远不匹配对的距离,学习对齐的图像与文本编码器。",
        term_es = "preentrenamiento contrastivo de lenguaje e imagen",
        term_zh = "对比式语言-图像预训练",
        aliases_es = { "CLIP", "preentrenamiento contrastivo imagen-texto" },
        aliases_zh = { "CLIP", "图文对比预训练", "语言图像对比预训练" },
    }
    
    data["contrastive learning single-cell"] = {
        short = "Self-supervised representation learning applied to single-cell omics data, where positive pairs (e.g., augmented views of the same cell) are pulled together and negatives pushed apart to learn batch-robust embeddings.",
        article = nil,
        aliases = { "single-cell contrastive learning", "scCL", "contrastive single-cell representation learning" },
        es = "Aprendizaje de representaciones autosupervisado aplicado a datos ómicos unicelulares, donde los pares positivos (por ejemplo, vistas aumentadas de la misma célula) se acercan y los negativos se separan, produciendo embeddings robustos a efectos de batch.",
        zh = "应用于单细胞组学数据的自监督表征学习方法,将正样本对(如同一细胞的增强视图)拉近、负样本推远,从而学习对批次效应稳健的嵌入表示。",
        term_es = "aprendizaje contrastivo unicelular",
        term_zh = "单细胞对比学习",
        aliases_es = { "aprendizaje contrastivo en single-cell", "contrastive learning unicelular" },
        aliases_zh = { "单细胞对比表征学习", "scCL" },
    }
    
    data["contrastive loss"] = {
        short = "Metric-learning loss that pulls embeddings of similar pairs together and pushes dissimilar pairs apart beyond a margin. Foundational to siamese-network training.",
        article = nil,
        aliases = { "pairwise contrastive loss", "Hadsell contrastive loss" },
        es = "Pérdida de aprendizaje métrico que acerca las representaciones de pares similares y aleja las de pares disímiles más allá de un margen. Fundamental para el entrenamiento de redes siamesas.",
        zh = "度量学习损失,将相似对的嵌入拉近、将不相似对的嵌入推开至超过某个间隔。是孪生网络训练的基础。",
        term_es = "pérdida contrastiva",
        term_zh = "对比损失",
        aliases_es = { "pérdida contrastiva por pares" },
        aliases_zh = { "contrastive loss", "对比性损失" },
    }
    
    data["contrastive preference optimization"] = {
        short = "A preference-tuning objective that combines a contrastive loss between chosen and rejected outputs with a behavior-cloning regularizer toward the chosen response, originally proposed for machine translation alignment.",
        article = nil,
        aliases = { "CPO", "Contrastive Preference Optimization" },
        es = "Objetivo de ajuste por preferencias que combina una pérdida contrastiva entre las respuestas elegida y rechazada con un regularizador de clonación de comportamiento hacia la respuesta elegida; propuesto originalmente para la alineación en traducción automática.",
        zh = "一种偏好优化目标:在被选答案与被拒答案之间使用对比损失,并对被选答案添加行为克隆正则项;最初被提出用于机器翻译的对齐。",
        term_es = "optimización contrastiva por preferencias",
        term_zh = "对比偏好优化",
        aliases_es = { "CPO", "optimización por preferencias contrastiva" },
        aliases_zh = { "CPO", "对比式偏好优化" },
    }
    
    data["contrastive video-language pretraining"] = {
        short = "Pretraining of joint video and text encoders with a contrastive objective that pulls together representations of paired video clips and captions while pushing apart unpaired ones, extending CLIP-style learning to the temporal domain.",
        article = nil,
        aliases = { "video-language contrastive pretraining", "VideoCLIP", "video-text contrastive pretraining" },
        es = "Preentrenamiento de codificadores conjuntos de vídeo y texto con un objetivo contrastivo que aproxima las representaciones de clips de vídeo y leyendas emparejados y separa las no emparejadas, extendiendo el aprendizaje al estilo CLIP al dominio temporal.",
        zh = "采用对比目标对视频与文本联合编码器进行预训练,使匹配的视频片段和字幕表示相互靠近、不匹配的相互远离,将CLIP式学习扩展到时间维度。",
        term_es = "preentrenamiento contrastivo de vídeo y lenguaje",
        term_zh = "对比式视频-语言预训练",
        aliases_es = { "VideoCLIP", "preentrenamiento contrastivo vídeo-texto" },
        aliases_zh = { "VideoCLIP", "视频-文本对比预训练", "视频-语言对比预训练" },
    }
    
    data["contribution evaluation"] = {
        short = "Methods for quantifying how much each client improved the global model in federated learning — e.g. via Shapley values, leave-one-out, or influence approximations — used to allocate rewards or detect free-riders.",
        article = nil,
        aliases = { "client contribution evaluation", "contribution scoring", "contribution measurement" },
        es = "Métodos para cuantificar cuánto contribuyó cada cliente a la mejora del modelo global en aprendizaje federado —por ejemplo, mediante valores de Shapley, leave-one-out o aproximaciones de influencia— usados para asignar recompensas o detectar usuarios oportunistas.",
        zh = "联邦学习中量化各客户端对全局模型改进贡献的方法,如基于 Shapley 值、留一法或影响函数近似,用于分配奖励或识别搭便车者。",
        term_es = "evaluación de contribuciones",
        term_zh = "贡献度评估",
        aliases_es = { "evaluación de contribución del cliente", "puntuación de contribuciones", "medición de contribuciones" },
        aliases_zh = { "客户端贡献评估", "贡献度评分", "贡献度度量" },
    }
    
    data["control function approach"] = {
        short = "An estimation strategy for endogenous regressors in which residuals from a first-stage model of the endogenous variable are added as regressors in the outcome equation, controlling for unobserved confounding under appropriate exclusion restrictions.",
        article = nil,
        aliases = { "control function method", "control function estimator", "control variate approach (econometrics)", "two-stage residual inclusion", "2SRI" },
        es = "Estrategia de estimación para regresores endógenos en la que los residuos de un modelo de primera etapa para la variable endógena se incluyen como regresores en la ecuación de resultado, controlando por confusión no observada bajo las restricciones de exclusión apropiadas.",
        zh = "针对内生回归变量的一种估计策略:将第一阶段中对内生变量建模所得到的残差加入结果方程作为回归变量,在适当的排他性限制下控制未观测到的混杂。",
        term_es = "enfoque de función de control",
        term_zh = "控制函数方法",
        aliases_es = { "método de función de control", "estimador de función de control", "enfoque de variables de control (econometría)", "inclusión de residuos en dos etapas", "2SRI" },
        aliases_zh = { "控制函数法", "控制函数估计", "两阶段残差纳入法", "2SRI", "控制函数估计器" },
    }
    
    data["control variable"] = {
        short = "A covariate included in a regression or causal model to adjust for its influence on the outcome; in causal contexts a properly chosen control variable blocks confounding paths without opening collider or mediator paths.",
        article = nil,
        aliases = { "control covariate", "covariate adjustment", "adjustment variable", "controlled-for variable", "regression control" },
        es = "Covariable incluida en una regresión o modelo causal para ajustar por su influencia sobre el resultado; en contextos causales, una variable de control bien elegida bloquea caminos de confusión sin abrir caminos de colisionador o de mediador.",
        zh = "在回归或因果模型中加入用于调整其对结果影响的协变量;在因果背景下,恰当选择的控制变量能阻断混杂路径而不会打开对撞节点或中介路径。",
        term_es = "variable de control",
        term_zh = "控制变量",
        aliases_es = { "covariable de control", "variable de ajuste", "covariable de ajuste", "ajuste por covariables" },
        aliases_zh = { "控制协变量", "调整变量", "协变量调整", "回归控制变量" },
    }
    
    data["control variate variational"] = {
        short = "A variance-reduction technique for stochastic variational inference that subtracts a control variate (a function with known or zero expectation) from the gradient estimator to lower its variance without changing its mean.",
        article = nil,
        aliases = { "control variate VI", "control variates for variational inference", "variance-reduced variational inference" },
        es = "Técnica de reducción de varianza para inferencia variacional estocástica que resta una variable de control (una función con esperanza conocida o nula) del estimador del gradiente para disminuir su varianza sin alterar su media.",
        zh = "用于随机变分推断的方差缩减技术,将一个具有已知或零期望的控制变量从梯度估计中减去,以在不改变均值的情况下降低其方差。",
        term_es = "variables de control variacional",
        term_zh = "控制变量变分法",
        aliases_es = { "control variate VI", "variables de control para inferencia variacional" },
        aliases_zh = { "控制变量 VI", "变分推断的控制变量", "方差缩减变分推断" },
    }
    
    data["control variates"] = {
        short = "Variance-reduction technique for Monte Carlo estimators that subtracts a function with known expectation, correlated with the integrand, from the target estimator to reduce variance without introducing bias.",
        article = nil,
        aliases = { "control variate", "control variate method", "baseline (REINFORCE)" },
        es = "Técnica de reducción de varianza para estimadores de Monte Carlo que resta del estimador objetivo una función con esperanza conocida y correlacionada con el integrando, reduciendo la varianza sin introducir sesgo.",
        zh = "用于蒙特卡洛估计的方差缩减技术,从目标估计中减去一个与被积函数相关且具有已知期望的函数,从而在不引入偏差的情况下降低方差。",
        term_es = "variables de control",
        term_zh = "控制变量",
        aliases_es = { "variable de control", "método de variable de control", "baseline (REINFORCE)" },
        aliases_zh = { "控制变量法", "控制变元", "REINFORCE基线" },
    }
    
    data["control vector"] = {
        short = "A direction in a model's activation space that, when added to a hidden state at inference time, steers generation toward or away from a target attribute such as sentiment, style, or refusal behavior. A core primitive of activation-engineering and representation-engineering.",
        article = nil,
        aliases = { "control vectors", "steering vector", "steering vectors", "activation steering vector" },
        es = "Dirección en el espacio de activaciones de un modelo que, al sumarse a un estado oculto durante la inferencia, dirige la generación hacia o en contra de un atributo objetivo como el sentimiento, el estilo o el comportamiento de rechazo. Primitiva clave de la ingeniería de activaciones y de representaciones.",
        zh = "模型激活空间中的一个方向,在推理时将其加到隐藏状态上,可使生成朝向或远离目标属性(如情感、风格或拒绝行为)。是激活工程与表示工程的核心原语。",
        term_es = "vector de control",
        term_zh = "控制向量",
        aliases_es = { "vectores de control", "vector de dirección", "vector de steering" },
        aliases_zh = { "控制向量", "操控向量", "steering 向量" },
    }
    
    data["controllable tts"] = {
        short = "Text-to-speech synthesis that exposes explicit controls—such as speaker identity, speaking rate, pitch, energy, emotion, or style—allowing users to steer the generated speech beyond what is implied by the input text.",
        article = nil,
        aliases = { "controllable TTS", "controllable speech synthesis", "controllable text-to-speech" },
        es = "Síntesis de texto a voz que expone controles explícitos—como la identidad del hablante, la velocidad, el tono, la energía, la emoción o el estilo—permitiendo al usuario dirigir el habla generada más allá de lo implicado por el texto de entrada.",
        zh = "一种文本到语音合成方法,提供显式可控参数(如说话人身份、语速、音高、能量、情感或风格),使用户能够在输入文本之外引导生成语音。",
        term_es = "TTS controlable",
        term_zh = "可控语音合成",
        aliases_es = { "síntesis de voz controlable", "TTS con control explícito" },
        aliases_zh = { "可控 TTS", "可控文本到语音" },
    }
    
    data["controlled direct effect"] = {
        short = "The causal effect of treatment on outcome that would occur if a mediator were held fixed at a specified value uniformly across the population; an interventional contrast that fixes the mediator rather than letting it follow its natural distribution.",
        article = nil,
        aliases = { "CDE", "controlled direct effect (mediation)", "direct effect (controlled)", "intervened direct effect" },
        es = "Efecto causal del tratamiento sobre el resultado que se observaría si se fijara el mediador en un valor especificado de manera uniforme en toda la población; es un contraste intervencionista que fija el mediador en lugar de dejar que siga su distribución natural.",
        zh = "在将中介变量在整个总体中统一固定于某指定值的干预下,处理对结果的因果效应;这是一种固定中介取值的干预对比,而非让中介遵循其自然分布。",
        term_es = "efecto directo controlado",
        term_zh = "受控直接效应",
        aliases_es = { "CDE", "efecto directo (controlado)", "efecto directo intervenido" },
        aliases_zh = { "CDE", "可控直接效应", "受控直接因果效应", "干预下的直接效应" },
    }
    
    data["controller network nas"] = {
        short = "A class of neural architecture search methods in which a recurrent controller network samples architectures token by token and is trained with reinforcement learning using validation accuracy as reward.",
        article = nil,
        aliases = { "controller-based NAS", "RL controller NAS", "RNN controller NAS" },
        es = "Familia de métodos de búsqueda de arquitecturas neuronales en los que un controlador recurrente muestrea arquitecturas token por token y se entrena por aprendizaje por refuerzo usando la precisión de validación como recompensa.",
        zh = "一类神经架构搜索方法,使用循环控制器网络逐 token 采样架构,并以验证集准确率为奖励通过强化学习训练控制器。",
        term_es = "NAS con red controladora",
        term_zh = "控制器网络 NAS",
        aliases_es = { "NAS basado en controlador", "NAS con controlador RL" },
        aliases_zh = { "基于控制器的 NAS", "RNN 控制器 NAS" },
    }
    
    data["controlnet"] = {
        short = "A neural network architecture that adds spatial conditioning (such as edges, depth, or pose maps) to a pretrained text-to-image diffusion model by training a trainable copy of its encoder while keeping the original weights frozen and connecting them via zero-initialized convolutions.",
        article = nil,
        aliases = { "ControlNet" },
        es = "Arquitectura de red neuronal que añade condicionamiento espacial (como bordes, profundidad o mapas de pose) a un modelo de difusión texto-a-imagen preentrenado mediante el entrenamiento de una copia entrenable de su codificador, manteniendo los pesos originales congelados y conectándolos mediante convoluciones inicializadas a cero.",
        zh = "一种神经网络架构,通过训练预训练文本生成图像扩散模型编码器的可训练副本(同时冻结原始权重并以零初始化卷积连接两者),为模型添加空间条件控制(如边缘、深度或姿态图)。",
        term_es = "ControlNet",
        term_zh = "ControlNet",
        aliases_es = {},
        aliases_zh = {},
    }
    
    data["conv-tasnet"] = {
        short = "A fully convolutional time-domain audio separation network that operates directly on waveforms via a learned encoder, temporal convolutional masking, and decoder, achieving strong performance on speech separation tasks.",
        article = nil,
        aliases = { "Conv-TasNet", "ConvTasNet", "Convolutional Time-domain Audio Separation Network", "convolutional TasNet" },
        es = "Red de separación de audio en el dominio temporal completamente convolucional que opera directamente sobre formas de onda mediante un codificador aprendido, enmascaramiento convolucional temporal y un decodificador, alcanzando un rendimiento sólido en tareas de separación del habla.",
        zh = "一种全卷积时域音频分离网络,通过学习得到的编码器、时间卷积掩蔽和解码器直接对波形进行操作,在语音分离任务上取得了出色的性能。",
        term_es = "Conv-TasNet",
        term_zh = "Conv-TasNet",
        aliases_es = { "ConvTasNet", "TasNet convolucional" },
        aliases_zh = { "ConvTasNet", "卷积 TasNet", "卷积时域音频分离网络" },
    }
    
    data["conve"] = {
        short = "A knowledge graph embedding model that scores triples by reshaping subject and relation embeddings into 2D matrices, applying a 2D convolution, and computing a dot product with the object embedding.",
        article = nil,
        aliases = { "ConvE", "convolutional 2D knowledge graph embedding" },
        es = "Modelo de embedding de grafos de conocimiento que puntúa tripletas remodelando los embeddings de sujeto y relación como matrices 2D, aplicando una convolución 2D y calculando un producto escalar con el embedding del objeto.",
        zh = "一种知识图谱嵌入模型,通过将主体与关系嵌入重塑为二维矩阵,应用二维卷积,再与客体嵌入做点积来对三元组打分。",
        term_es = "ConvE",
        term_zh = "ConvE",
        aliases_es = { "ConvE", "modelo ConvE" },
        aliases_zh = { "ConvE", "二维卷积知识图谱嵌入" },
    }
    
    data["convergence"] = {
        short = "The property of an optimization algorithm approaching a solution (minimum) as iterations increase.",
        article = nil,
        aliases = {},
        es = "La propiedad de un algoritmo de optimización de aproximarse a una solución (mínimo) a medida que aumentan las iteraciones.",
        zh = "优化算法随迭代次数增加而逐渐接近解(最小值)的性质。",
        term_es = "convergencia",
        term_zh = "收敛",
        aliases_es = {},
        aliases_zh = {},
    }
    
    data["convergence rate"] = {
        short = "The asymptotic speed at which an iterative algorithm approaches its limit, typically expressed as the order of decrease of the error or optimization gap as a function of iteration count.",
        article = nil,
        aliases = { "rate of convergence" },
        es = "Velocidad asintótica con la que un algoritmo iterativo se acerca a su límite, típicamente expresada como el orden de decrecimiento del error o de la brecha de optimización en función del número de iteraciones.",
        zh = "迭代算法逐步逼近其极限的渐近速度,通常表示为误差或优化间隙随迭代次数下降的阶数。",
        term_es = "tasa de convergencia",
        term_zh = "收敛速率",
        aliases_es = { "velocidad de convergencia" },
        aliases_zh = { "收敛速度", "收敛阶" },
    }
    
    data["convex belief propagation"] = {
        short = "A class of message-passing inference algorithms that minimize a convex upper bound on the log-partition function (e.g., tree-reweighted free energy), guaranteeing convergence to a unique fixed point unlike standard loopy BP.",
        article = nil,
        aliases = { "convex BP", "convexified belief propagation", "tree-reweighted belief propagation", "TRW-BP" },
        es = "Familia de algoritmos de inferencia por paso de mensajes que minimizan una cota superior convexa del log-particionamiento (por ejemplo, la energía libre re-ponderada por árboles), garantizando convergencia a un único punto fijo a diferencia de la BP loopy estándar.",
        zh = "一类消息传递推断算法,最小化对数配分函数的凸上界(例如树重加权自由能),与标准回路 BP 不同,能保证收敛到唯一的不动点。",
        term_es = "propagación de creencias convexa",
        term_zh = "凸信念传播",
        aliases_es = { "BP convexa", "propagación de creencias re-ponderada por árboles", "TRW-BP" },
        aliases_zh = { "凸 BP", "凸化信念传播", "树重加权信念传播", "TRW-BP" },
    }
    
    data["convex federated optimization"] = {
        short = "The study of federated learning algorithms (e.g. FedAvg, SCAFFOLD, FedProx) under convex or strongly convex loss assumptions, where convergence rates and communication-round complexity admit tight theoretical bounds.",
        article = nil,
        aliases = { "convex FL", "convex federated learning optimization" },
        es = "Estudio de algoritmos de aprendizaje federado (por ejemplo FedAvg, SCAFFOLD, FedProx) bajo hipótesis de pérdida convexa o fuertemente convexa, donde las tasas de convergencia y la complejidad en rondas de comunicación admiten cotas teóricas ajustadas.",
        zh = "在损失函数为凸或强凸的假设下,对 FedAvg、SCAFFOLD、FedProx 等联邦学习算法的研究;在该设定下,收敛速率与通信轮复杂度可获得紧致的理论界。",
        term_es = "optimización federada convexa",
        term_zh = "凸联邦优化",
        aliases_es = { "FL convexo", "optimización convexa en aprendizaje federado" },
        aliases_zh = { "凸联邦学习优化", "凸情形下的联邦优化" },
    }
    
    data["convex optimization"] = {
        short = "The study of minimizing convex functions over convex sets, where any local minimum is also a global minimum.",
        article = "Convex optimisation",
        aliases = { "convex optimisation" },
        es = "El estudio de la minimización de funciones convexas sobre conjuntos convexos, donde todo mínimo local es también global.",
        zh = "研究在凸集上最小化凸函数的学科,其中任何局部最小值也是全局最小值。",
        term_es = "optimización convexa",
        term_zh = "凸优化",
        aliases_es = {},
        aliases_zh = {},
    }
    
    data["convkb"] = {
        short = "A knowledge graph embedding model that concatenates subject, relation, and object embeddings into a 3-column matrix and applies 1D convolutional filters over the rows to produce a triple score.",
        article = nil,
        aliases = { "ConvKB" },
        es = "Modelo de embedding de grafos de conocimiento que concatena los embeddings de sujeto, relación y objeto en una matriz de 3 columnas y aplica filtros convolucionales 1D sobre las filas para producir una puntuación del tripleta.",
        zh = "一种知识图谱嵌入模型,将主体、关系和客体嵌入拼接为三列矩阵,在行上应用一维卷积滤波器以生成三元组评分。",
        term_es = "ConvKB",
        term_zh = "ConvKB",
        aliases_es = { "ConvKB", "modelo ConvKB" },
        aliases_zh = { "ConvKB" },
    }
    
    data["convnext"] = {
        short = "A pure convolutional network introduced by Liu et al. in 2022 that modernizes a ResNet by adopting design choices from vision transformers (large depthwise kernels, LayerNorm, GELU, inverted bottlenecks), matching transformer accuracy on ImageNet.",
        article = nil,
        aliases = { "ConvNeXt", "ConvNeXt-T", "ConvNeXt-S", "ConvNeXt-B", "ConvNeXt-L", "ConvNeXtV2", "ConvNeXt v2" },
        es = "Red puramente convolucional presentada por Liu et al. en 2022 que moderniza una ResNet adoptando decisiones de diseño de los transformers de visión (núcleos depthwise grandes, LayerNorm, GELU, cuellos de botella invertidos), igualando la precisión de los transformers en ImageNet.",
        zh = "由 Liu 等人于 2022 年提出的纯卷积网络,通过采用视觉 Transformer 的设计选择(大型深度卷积核、LayerNorm、GELU、反向瓶颈)对 ResNet 进行现代化改造,在 ImageNet 上达到与 Transformer 相当的精度。",
        term_es = "ConvNeXt",
        term_zh = "ConvNeXt",
        aliases_es = { "ConvNeXt-T", "ConvNeXt-B", "ConvNeXtV2" },
        aliases_zh = { "ConvNeXt-T", "ConvNeXt-B", "ConvNeXtV2" },
    }
    
    data["convolution"] = {
        short = "A mathematical operation that slides a kernel over an input signal computing weighted sums of local neighborhoods. In CNNs, learnable convolutions extract translation-equivariant local features from images and other grid-structured inputs.",
        article = "Convolutional Neural Networks",
        aliases = { "Convolution", "convolution operation", "convolutional layer", "conv", "conv layer" },
        es = "Operación matemática que desliza un núcleo sobre una señal de entrada calculando sumas ponderadas en vecindarios locales. En las CNN, las convoluciones aprendibles extraen características locales equivariantes a la traslación a partir de imágenes y otras entradas estructuradas en cuadrícula.",
        zh = "一种数学运算,将卷积核在输入信号上滑动并计算局部邻域的加权和。在 CNN 中,可学习的卷积从图像等网格结构输入中提取具有平移等变性的局部特征。",
        term_es = "convolución",
        term_zh = "卷积",
        aliases_es = { "convolución", "operación de convolución", "capa convolucional" },
        aliases_zh = { "卷积运算", "卷积层", "convolution" },
    }
    
    data["convolutional neural network"] = {
        short = "A neural network architecture built from convolutional layers that apply learned filters across spatially or temporally structured inputs, exploiting weight sharing and local connectivity.",
        article = "Convolutional Neural Networks",
        aliases = { "CNN", "ConvNet", "convolutional network", "convolutional neural net", "convnet" },
        es = "Arquitectura de red neuronal construida con capas convolucionales que aplican filtros aprendidos sobre entradas con estructura espacial o temporal, aprovechando el reparto de pesos y la conectividad local.",
        zh = "一种由卷积层组成的神经网络架构,通过在具有空间或时间结构的输入上应用学习到的滤波器,利用权重共享与局部连接。",
        term_es = "red neuronal convolucional",
        term_zh = "卷积神经网络",
        aliases_es = { "CNN", "ConvNet", "red convolucional" },
        aliases_zh = { "CNN", "ConvNet", "卷积网络" },
    }
    
    data["cooler format"] = {
        short = "An HDF5-based sparse matrix file format (.cool / .mcool) for storing Hi-C and related chromosome contact data at multiple resolutions, designed for efficient query and visualization.",
        article = nil,
        aliases = { ".cool", ".mcool", "cooler", "cooler file" },
        es = "Formato de archivo de matriz dispersa basado en HDF5 (.cool / .mcool) para almacenar datos Hi-C y de contactos cromosómicos a múltiples resoluciones, diseñado para consultas y visualización eficientes.",
        zh = "基于HDF5的稀疏矩阵文件格式(.cool / .mcool),用于以多种分辨率存储Hi-C等染色体接触数据,便于高效查询和可视化。",
        term_es = "formato cooler",
        term_zh = "cooler 格式",
        aliases_es = { ".cool", ".mcool", "archivo cooler" },
        aliases_zh = { ".cool 文件", ".mcool 文件", "cooler 文件" },
    }
    
    data["coordinate ascent variational inference"] = {
        short = "An iterative algorithm for mean-field variational inference that updates each variational factor in closed form to maximize the ELBO with the others fixed, monotonically increasing the bound at each step.",
        article = nil,
        aliases = { "CAVI", "coordinate-ascent VI", "mean-field coordinate ascent" },
        es = "Algoritmo iterativo para inferencia variacional de campo medio que actualiza en forma cerrada cada factor variacional para maximizar la ELBO con los demás fijos, aumentando monótonamente la cota en cada paso.",
        zh = "一种用于均场变分推断的迭代算法,在固定其他因子的条件下以闭式更新每个变分因子以最大化 ELBO,每一步均单调地提升下界。",
        term_es = "inferencia variacional por ascenso por coordenadas",
        term_zh = "坐标上升变分推断",
        aliases_es = { "CAVI", "VI por ascenso por coordenadas", "ascenso por coordenadas en campo medio" },
        aliases_zh = { "CAVI", "坐标上升 VI", "均场坐标上升" },
    }
    
    data["coordinate descent"] = {
        short = "An optimization method that minimizes the objective along one coordinate (or block of coordinates) at a time, sweeping through coordinates cyclically or by random/greedy selection.",
        article = nil,
        aliases = { "block coordinate descent", "BCD", "coordinate descent method" },
        es = "Método de optimización que minimiza el objetivo a lo largo de una coordenada (o bloque de coordenadas) a la vez, recorriéndolas de forma cíclica, aleatoria o codiciosa.",
        zh = "一种优化方法,每次仅沿一个坐标(或一组坐标块)方向最小化目标函数,按循环、随机或贪心策略遍历各坐标。",
        term_es = "descenso por coordenadas",
        term_zh = "坐标下降",
        aliases_es = { "descenso por bloques de coordenadas", "método de descenso por coordenadas" },
        aliases_zh = { "块坐标下降", "坐标下降法", "coordinate descent" },
    }
    
    data["coordinate-wise median"] = {
        short = "A robust aggregation rule that, for each parameter coordinate, takes the median of the client updates; tolerates a constant fraction of Byzantine clients while preserving asymptotic convergence.",
        article = nil,
        aliases = { "coordinatewise median", "coord-wise median", "median aggregation", "elementwise median" },
        es = "Regla de agregación robusta que, para cada coordenada de los parámetros, toma la mediana de las actualizaciones de los clientes; tolera una fracción constante de clientes Bizantinos preservando la convergencia asintótica.",
        zh = "一种鲁棒聚合规则:对参数的每个坐标分别取各客户端更新的中位数;在保持渐近收敛性的同时,可容忍一定比例的拜占庭客户端。",
        term_es = "mediana por coordenadas",
        term_zh = "逐坐标中位数",
        aliases_es = { "agregación por mediana", "mediana elemento a elemento" },
        aliases_zh = { "按坐标中位数", "逐元素中位数", "中位数聚合" },
    }
    
    data["coordinator node"] = {
        short = "The central server (or elected node) in a federated or distributed system that orchestrates rounds — broadcasting the model, scheduling participants, and aggregating returned updates.",
        article = nil,
        aliases = { "coordinator", "central coordinator", "orchestrator node", "parameter server" },
        es = "Servidor central (o nodo elegido) de un sistema federado o distribuido que orquesta las rondas: difunde el modelo, planifica a los participantes y agrega las actualizaciones devueltas.",
        zh = "联邦或分布式系统中的中心服务器(或被选出的节点),负责协调每一轮训练:下发模型、调度参与者并聚合返回的更新。",
        term_es = "nodo coordinador",
        term_zh = "协调节点",
        aliases_es = { "coordinador central", "orquestador", "servidor de parámetros" },
        aliases_zh = { "协调者", "中心协调节点", "参数服务器" },
    }
    
    data["copula"] = {
        short = "A multivariate cumulative distribution function with uniform marginals on [0,1] used to specify a joint distribution by separating the marginal behavior of each variable from their dependence structure, formalized by Sklar's theorem.",
        article = nil,
        aliases = { "copulas", "copula function", "Sklar copula" },
        es = "Función de distribución acumulada multivariada con marginales uniformes en [0,1] que se usa para especificar una distribución conjunta separando el comportamiento marginal de cada variable de su estructura de dependencia, formalizado por el teorema de Sklar.",
        zh = "一种边缘分布在 [0,1] 上为均匀分布的多元累积分布函数,依据 Sklar 定理用于将各变量的边缘行为与其依赖结构分离,从而刻画联合分布。",
        term_es = "cópula",
        term_zh = "Copula 函数",
        aliases_es = { "cópulas", "función cópula" },
        aliases_zh = { "copula", "联结函数", "藤函数" },
    }
    
    data["copy number variation"] = {
        short = "Structural genomic variation in which segments of DNA, ranging from kilobases to megabases, are present in altered copy number relative to a reference genome through duplication or deletion.",
        article = nil,
        aliases = { "CNV", "copy-number variation", "copy number variant", "CNVs" },
        es = "Variación estructural del genoma en la que segmentos de ADN, de kilobases a megabases, están presentes en un número de copias alterado respecto a un genoma de referencia, por duplicación o deleción.",
        zh = "一种基因组结构变异,指相对于参考基因组,长度从千碱基到兆碱基的DNA片段因重复或缺失而呈现拷贝数改变。",
        term_es = "variación en el número de copias",
        term_zh = "拷贝数变异",
        aliases_es = { "CNV", "variante en número de copias", "variación del número de copias" },
        aliases_zh = { "CNV", "拷贝数变化", "拷贝数变体" },
    }
    
    data["copy suppression"] = {
        short = "A mechanism observed in transformer language models in which specific attention heads down-weight the prediction of tokens that have already appeared nearby, mitigating naive copying behavior. Characterized for GPT-2 by McDougall et al. (2023).",
        article = nil,
        aliases = { "copy-suppression heads", "anti-copy heads", "copy suppression head" },
        es = "Mecanismo observado en modelos de lenguaje basados en transformadores en el que ciertas cabezas de atención reducen el peso de la predicción de tokens que ya han aparecido cerca, mitigando la copia ingenua. Caracterizado para GPT-2 por McDougall et al. (2023).",
        zh = "在 Transformer 语言模型中观察到的一种机制:特定的注意力头会降低对附近已经出现过的 token 的预测权重,从而抑制朴素的复制行为。McDougall 等人(2023)在 GPT-2 上对此进行了刻画。",
        term_es = "supresión de copia",
        term_zh = "复制抑制",
        aliases_es = { "cabezas de supresión de copia", "cabezas anti-copia" },
        aliases_zh = { "复制抑制头", "反复制头" },
    }
    
    data["coq proof assistant"] = {
        short = "An interactive theorem prover based on the Calculus of Inductive Constructions, used to develop machine-checked formal proofs and certified programs; recently renamed Rocq.",
        article = nil,
        aliases = { "Coq", "Rocq", "Coq", "Rocq prover", "Coq theorem prover" },
        es = "Asistente de demostración interactivo basado en el Cálculo de Construcciones Inductivas, usado para desarrollar pruebas formales verificadas por máquina y programas certificados; recientemente renombrado Rocq.",
        zh = "一种基于归纳构造演算的交互式定理证明器,用于编写机器可检验的形式化证明和经过认证的程序;近期更名为Rocq。",
        term_es = "asistente de pruebas Coq",
        term_zh = "Coq证明助手",
        aliases_es = { "Coq", "Rocq", "asistente Coq" },
        aliases_zh = { "Coq", "Rocq", "Coq定理证明器" },
    }
    
    data["coreference bias"] = {
        short = "Systematic errors in coreference resolution systems that depend on demographic attributes such as gender, e.g. resolving the pronoun 'she' to occupations stereotypically associated with women.",
        article = nil,
        aliases = { "coreference resolution bias", "anaphora bias" },
        es = "Errores sistemáticos en sistemas de resolución de correferencia que dependen de atributos demográficos como el género, p. ej. resolver el pronombre 'ella' a ocupaciones estereotípicamente asociadas con mujeres.",
        zh = "共指消解系统中依赖性别等人口统计属性的系统性错误,例如将代词\"她\"解析为刻板印象上与女性相关的职业。",
        term_es = "sesgo de correferencia",
        term_zh = "共指偏见",
        aliases_es = { "sesgo en resolución de correferencia", "sesgo anafórico" },
        aliases_zh = { "共指消解偏见", "指代偏见" },
    }
    
    data["coreference linking"] = {
        short = "The natural language processing task of identifying mentions in text (pronouns, noun phrases, names) that refer to the same real-world entity and grouping them into coreference chains.",
        article = nil,
        aliases = { "coreference resolution", "coreference linker", "coref resolution", "anaphora resolution" },
        es = "Tarea de procesamiento de lenguaje natural consistente en identificar menciones en un texto (pronombres, sintagmas nominales, nombres) que se refieren a la misma entidad y agruparlas en cadenas de correferencia.",
        zh = "自然语言处理任务,识别文本中指代同一现实世界实体的提及(代词、名词短语、专名),并将其归并为共指链。",
        term_es = "resolución de correferencia",
        term_zh = "共指消解",
        aliases_es = { "enlace de correferencia", "resolución de anáfora" },
        aliases_zh = { "指代消解", "共指链接", "回指消解" },
    }
    
    data["coreference resolution"] = {
        short = "An NLP task that identifies all expressions in a document referring to the same real-world entity, grouping mentions (pronouns, names, descriptions) into coreference clusters.",
        article = nil,
        aliases = { "Coreference Resolution", "coreference", "coref", "coref resolution", "anaphora resolution" },
        es = "Tarea de PLN que identifica todas las expresiones de un documento que se refieren a la misma entidad del mundo real, agrupando menciones (pronombres, nombres, descripciones) en cúmulos de correferencia.",
        zh = "一项自然语言处理任务,识别文档中指代同一现实实体的所有表达,并将这些指称(代词、名称、描述等)聚合为共指簇。",
        term_es = "resolución de correferencia",
        term_zh = "共指消解",
        aliases_es = { "coreference resolution", "resolución de coreferencia", "resolución de correferencias", "resolución anafórica" },
        aliases_zh = { "coreference resolution", "共指解析", "指代消解", "回指消解" },
    }
    
    data["coregionalization"] = {
        short = "A multi-output Gaussian process technique that models correlations between outputs via a low-rank coregionalization matrix, enabling information sharing across related tasks or response variables.",
        article = nil,
        aliases = { "linear model of coregionalization", "LMC", "intrinsic coregionalization model", "ICM", "co-regionalization" },
        es = "Técnica para procesos gaussianos multi-salida que modela las correlaciones entre salidas mediante una matriz de coregionalización de rango bajo, permitiendo compartir información entre tareas o variables relacionadas.",
        zh = "一种多输出高斯过程技术,通过低秩协区域化矩阵建模各输出之间的相关性,从而在相关任务或响应变量之间共享信息。",
        term_es = "coregionalización",
        term_zh = "协区域化",
        aliases_es = { "modelo lineal de coregionalización", "LMC", "modelo intrínseco de coregionalización", "ICM" },
        aliases_zh = { "线性协区域化模型", "LMC", "本征协区域化模型", "ICM" },
    }
    
    data["corels"] = {
        short = "Certifiably Optimal RulE ListS — an algorithm that learns provably optimal short rule lists for binary classification by branch-and-bound search over the rule-list hypothesis space. Introduced by Angelino et al. (2017) as a fully interpretable model.",
        article = nil,
        aliases = { "CORELS", "Certifiably Optimal Rule Lists", "certifiably optimal rule list" },
        es = "Certifiably Optimal RulE ListS: algoritmo que aprende listas de reglas cortas demostrablemente óptimas para clasificación binaria mediante búsqueda por ramificación y poda en el espacio de hipótesis de listas de reglas. Propuesto por Angelino et al. (2017) como modelo totalmente interpretable.",
        zh = "Certifiably Optimal RulE ListS:一种通过在规则列表假设空间中进行分支定界搜索来学习二分类下可证明最优的短规则列表的算法。由 Angelino 等人(2017)提出,是一种完全可解释的模型。",
        term_es = "CORELS",
        term_zh = "CORELS",
        aliases_es = { "Listas de reglas certificablemente óptimas" },
        aliases_zh = { "可证明最优规则列表" },
    }
    
    data["corpus bias"] = {
        short = "Bias arising from the composition of a training corpus, including over- or under-representation of demographic groups, viewpoints, languages, or genres relative to the population the model will serve.",
        article = nil,
        aliases = { "training corpus bias", "dataset corpus bias" },
        es = "Sesgo derivado de la composición de un corpus de entrenamiento, incluyendo la sobre- o subrrepresentación de grupos demográficos, puntos de vista, idiomas o géneros respecto a la población a la que servirá el modelo.",
        zh = "由训练语料库组成方式引起的偏见,包括相对于模型将服务的人群,人口群体、观点、语言或体裁的过度或不足表示。",
        term_es = "sesgo de corpus",
        term_zh = "语料库偏见",
        aliases_es = { "sesgo del corpus de entrenamiento", "sesgo del corpus" },
        aliases_zh = { "训练语料偏见", "语料偏见" },
    }
    
    data["corrective rag"] = {
        short = "A retrieval-augmented generation variant that evaluates retrieved passages with a lightweight relevance scorer and, when documents are deemed irrelevant or ambiguous, falls back to web search or rewrites the query before answering.",
        article = nil,
        aliases = { "CRAG", "Corrective RAG", "corrective retrieval-augmented generation" },
        es = "Variante de generación aumentada por recuperación que evalúa los pasajes recuperados con un puntuador ligero de relevancia y, cuando los documentos se consideran irrelevantes o ambiguos, recurre a búsqueda web o reformula la consulta antes de responder.",
        zh = "一种检索增强生成的变体:用轻量级相关性评分器评估检索到的段落,当文档被判定为不相关或模糊时,会退而求其次去做网络检索或先改写查询再生成答案。",
        term_es = "RAG correctivo",
        term_zh = "纠正式 RAG",
        aliases_es = { "CRAG", "Corrective RAG", "generación aumentada por recuperación correctiva" },
        aliases_zh = { "CRAG", "Corrective RAG", "纠正式检索增强生成" },
    }
    
    data["correlated proxy"] = {
        short = "A feature that is statistically correlated with a protected attribute (e.g. zip code with race) and therefore can act as a proxy, leaking the attribute into the model even when it is formally excluded.",
        article = nil,
        aliases = { "proxy feature", "proxy variable", "correlated proxy variable" },
        es = "Característica estadísticamente correlacionada con un atributo protegido (p. ej. código postal con raza) y que por lo tanto puede actuar como proxy, filtrando el atributo al modelo incluso cuando se excluye formalmente.",
        zh = "与受保护属性在统计上相关的特征(如邮编与种族),因而可作为代理,即使该属性在形式上被排除,仍会泄漏到模型中。",
        term_es = "proxy correlacionado",
        term_zh = "相关代理变量",
        aliases_es = { "variable proxy", "característica proxy" },
        aliases_zh = { "代理特征", "代理变量" },
    }
    
    data["correlation"] = {
        short = "A normalized measure of the linear association between two random variables, most commonly the Pearson correlation coefficient ρ = Cov(X,Y) / (σ_X σ_Y), bounded in [−1, 1]. Correlation does not imply causation.",
        article = nil,
        aliases = { "Pearson correlation", "Pearson r", "correlation coefficient", "ρ", "Pearson's r", "linear correlation" },
        es = "Medida normalizada de la asociación lineal entre dos variables aleatorias, comúnmente el coeficiente de correlación de Pearson ρ = Cov(X,Y) / (σ_X σ_Y), acotado en [−1, 1]. La correlación no implica causalidad.",
        zh = "衡量两个随机变量线性关联程度的归一化指标,最常用的是 Pearson 相关系数 ρ = Cov(X,Y) / (σ_X σ_Y),取值范围为 [−1, 1]。相关性不蕴含因果关系。",
        term_es = "correlación",
        term_zh = "相关性",
        aliases_es = { "correlación de Pearson", "coeficiente de correlación", "ρ" },
        aliases_zh = { "Pearson 相关系数", "相关系数", "线性相关", "皮尔逊相关" },
    }
    
    data["correlation decay"] = {
        short = "A property of graphical models in which correlations between variables decay rapidly (often exponentially) with graph distance, enabling provably accurate local inference and approximate sampling.",
        article = nil,
        aliases = { "exponential correlation decay", "spatial mixing" },
        es = "Propiedad de los modelos gráficos en la que las correlaciones entre variables decaen rápidamente (a menudo de forma exponencial) con la distancia en el grafo, permitiendo inferencia local y muestreo aproximado con garantías.",
        zh = "图模型的一种性质:变量之间的相关性随图距离迅速(通常呈指数)衰减,从而保证局部推断和近似采样的精度。",
        term_es = "decaimiento de correlaciones",
        term_zh = "相关性衰减",
        aliases_es = { "decaimiento exponencial de correlaciones", "mezcla espacial" },
        aliases_zh = { "指数相关性衰减", "空间混合" },
    }
    
    data["cosface loss"] = {
        short = "Face-recognition loss that subtracts a fixed margin from the cosine similarity of the correct class in a softmax classifier, enlarging inter-class margin in feature space.",
        article = nil,
        aliases = { "CosFace", "large margin cosine loss", "LMCL" },
        es = "Pérdida para reconocimiento facial que resta un margen fijo a la similitud coseno de la clase correcta en un clasificador softmax, aumentando el margen entre clases en el espacio de características.",
        zh = "一种人脸识别损失,在 softmax 分类器中从正确类别的余弦相似度减去固定间隔,扩大特征空间中类间间隔。",
        term_es = "pérdida CosFace",
        term_zh = "CosFace 损失",
        aliases_es = { "CosFace", "LMCL" },
        aliases_zh = { "CosFace", "LMCL", "大间隔余弦损失" },
    }
    
    data["cosine annealing"] = {
        short = "A learning rate schedule that decays the rate from an initial value to a minimum following the shape of a half cosine curve over a fixed number of steps, often combined with warm restarts.",
        article = nil,
        aliases = { "cosine annealing schedule", "cosine decay", "cosine learning rate schedule", "SGDR" },
        es = "Programación de tasa de aprendizaje que la reduce desde un valor inicial hasta un mínimo siguiendo la forma de una semicurva coseno durante un número fijo de pasos, frecuentemente combinada con reinicios cálidos.",
        zh = "一种学习率调度策略,在固定步数内按半余弦曲线从初始值衰减到最小值,常与热重启结合使用。",
        term_es = "recocido coseno",
        term_zh = "余弦退火",
        aliases_es = { "decaimiento coseno", "annealing coseno", "SGDR" },
        aliases_zh = { "余弦衰减", "余弦学习率调度", "SGDR" },
    }
    
    data["cosine similarity defense"] = {
        short = "A Byzantine-robust defense in federated learning that flags or down-weights client updates whose cosine similarity to a reference (e.g. the previous global update or the median direction) falls below a threshold.",
        article = nil,
        aliases = { "cosine-similarity defense", "cosine defense", "FoolsGold-style defense" },
        es = "Defensa robusta a Bizantinos en aprendizaje federado que marca o reduce el peso de las actualizaciones de clientes cuya similitud coseno respecto a una referencia (por ejemplo, la actualización global anterior o la dirección mediana) cae por debajo de un umbral.",
        zh = "联邦学习中的一种拜占庭鲁棒防御:对那些与参考方向(如上一轮全局更新或中位方向)余弦相似度低于阈值的客户端更新进行标记或降权。",
        term_es = "defensa por similitud coseno",
        term_zh = "余弦相似度防御",
        aliases_es = { "defensa basada en similitud coseno", "defensa coseno" },
        aliases_zh = { "余弦相似性防御", "基于余弦相似度的防御" },
    }
    
    data["cosmic signatures"] = {
        short = "Curated mutational signatures from the COSMIC database that decompose somatic mutation profiles into characteristic patterns associated with mutagenic processes such as UV exposure, smoking, or DNA repair defects.",
        article = nil,
        aliases = { "COSMIC signatures", "COSMIC mutational signatures", "SBS signatures" },
        es = "Firmas mutacionales curadas en la base de datos COSMIC que descomponen los perfiles de mutación somática en patrones característicos asociados a procesos mutagénicos como exposición UV, tabaquismo o defectos en la reparación del ADN.",
        zh = "COSMIC数据库整理的突变特征,将体细胞突变谱分解为与紫外线暴露、吸烟或DNA修复缺陷等致突变过程相关的特征性模式。",
        term_es = "firmas COSMIC",
        term_zh = "COSMIC 突变特征",
        aliases_es = { "firmas mutacionales COSMIC", "firmas SBS" },
        aliases_zh = { "COSMIC 特征", "COSMIC 突变签名", "SBS 特征" },
    }
    
    data["cosmx"] = {
        short = "A spatial molecular imaging platform from NanoString (CosMx SMI) that profiles RNA and protein at subcellular resolution in intact tissue sections via cyclic in situ hybridization and high-resolution imaging.",
        article = nil,
        aliases = { "CosMx", "CosMx SMI", "NanoString CosMx", "Spatial Molecular Imager" },
        es = "Plataforma de imagen molecular espacial de NanoString (CosMx SMI) que perfila ARN y proteínas a resolución subcelular en cortes de tejido intactos mediante hibridación in situ cíclica e imagen de alta resolución.",
        zh = "NanoString公司的空间分子成像平台(CosMx SMI),通过循环原位杂交和高分辨率成像,在完整组织切片中以亚细胞分辨率检测RNA和蛋白质。",
        term_es = "CosMx",
        term_zh = "CosMx",
        aliases_es = { "CosMx SMI", "CosMx de NanoString" },
        aliases_zh = { "CosMx SMI", "NanoString CosMx", "空间分子成像仪" },
    }
    
    data["cost of fairness"] = {
        short = "The reduction in predictive performance (accuracy, utility, or revenue) incurred by enforcing a fairness constraint, often quantified as the gap between an unconstrained optimum and the best fair model.",
        article = nil,
        aliases = { "price of fairness", "fairness-accuracy tradeoff", "fairness cost" },
        es = "Reducción en el desempeño predictivo (precisión, utilidad o ingresos) que se incurre al imponer una restricción de equidad, a menudo cuantificada como la diferencia entre un óptimo sin restricciones y el mejor modelo justo.",
        zh = "为强制执行公平性约束而付出的预测性能(准确率、效用或收益)损失,通常量化为无约束最优解与最佳公平模型之间的差距。",
        term_es = "costo de la equidad",
        term_zh = "公平性代价",
        aliases_es = { "precio de la equidad", "compensación entre equidad y precisión" },
        aliases_zh = { "公平性的代价", "公平性-准确率权衡" },
    }
    
    data["cost-sensitive fairness"] = {
        short = "Fair learning approaches that incorporate group-specific or example-specific misclassification costs into the objective, allowing different errors to be penalized differently across protected groups.",
        article = nil,
        aliases = { "cost-sensitive fair learning", "weighted fairness" },
        es = "Enfoques de aprendizaje justo que incorporan costos de mala clasificación específicos de grupo o ejemplo en la función objetivo, permitiendo que diferentes errores se penalicen de manera distinta entre grupos protegidos.",
        zh = "将群体特定或样本特定的误分类代价纳入目标函数的公平学习方法,允许在不同受保护群体上对不同错误施加不同惩罚。",
        term_es = "equidad sensible al costo",
        term_zh = "代价敏感公平性",
        aliases_es = { "aprendizaje justo sensible al costo", "equidad ponderada" },
        aliases_zh = { "成本敏感公平性", "代价敏感公平学习" },
    }
    
    data["cosyvoice"] = {
        short = "A large-scale, multilingual zero-shot text-to-speech system from Alibaba that combines supervised speech tokenization with autoregressive and flow-matching decoding to produce high-quality cloned voices from short reference audio.",
        article = nil,
        aliases = { "CosyVoice", "Cosy Voice", "CosyVoice2", "CosyVoice 2" },
        es = "Sistema de texto a voz multilingüe a gran escala y zero-shot de Alibaba que combina tokenización de habla supervisada con decodificación autoregresiva y flow matching para generar voces clonadas de alta calidad a partir de breves audios de referencia.",
        zh = "阿里巴巴推出的大规模多语言零样本文本到语音系统,将有监督语音分词与自回归和流匹配解码相结合,能够从短参考音频生成高质量的克隆语音。",
        term_es = "CosyVoice",
        term_zh = "CosyVoice",
        aliases_es = { "CosyVoice 2", "CosyVoice2" },
        aliases_zh = { "CosyVoice", "CosyVoice2", "CosyVoice 2" },
    }
    
    data["coulomb matrix"] = {
        short = "A molecular descriptor that encodes a molecule as a square matrix whose off-diagonal entries are pairwise nuclear-charge Coulomb interactions and whose diagonal encodes per-atom self-energy.",
        article = nil,
        aliases = { "Coulomb matrix descriptor", "CM descriptor" },
        es = "Descriptor molecular que codifica una molécula como una matriz cuadrada cuyos elementos fuera de la diagonal son interacciones de Coulomb por pares de cargas nucleares y cuya diagonal representa la autoenergía atómica.",
        zh = "一种分子描述符,将分子表示为方阵:非对角元素为成对核电荷的库仑相互作用,对角元素编码每个原子的自能。",
        term_es = "matriz de Coulomb",
        term_zh = "库仑矩阵",
        aliases_es = { "descriptor de matriz de Coulomb", "descriptor CM" },
        aliases_zh = { "库仑矩阵描述符", "Coulomb matrix" },
    }
    
    data["count sketch gradient"] = {
        short = "A gradient compression scheme that maintains a count sketch of stochastic gradients across workers, allowing communication-efficient recovery of the largest coordinates and unbiased aggregation in distributed and federated optimization.",
        article = nil,
        aliases = { "count-sketch gradient", "sketched gradient", "count sketch SGD", "SketchedSGD" },
        es = "Esquema de compresión de gradientes que mantiene un count sketch de los gradientes estocásticos entre trabajadores, permitiendo recuperar de forma eficiente las coordenadas mayores y agregar de manera insesgada en optimización distribuida y federada.",
        zh = "一种梯度压缩方案,在各工作节点上维护随机梯度的 count sketch(计数草图),从而以高效通信恢复最大坐标,并在分布式和联邦优化中实现无偏聚合。",
        term_es = "gradiente con count sketch",
        term_zh = "Count Sketch 梯度",
        aliases_es = { "gradiente comprimido con count sketch", "SketchedSGD" },
        aliases_zh = { "计数草图梯度", "SketchedSGD", "草图化梯度" },
    }
    
    data["counterfactual"] = {
        short = "The hypothetical outcome that would have been observed for a unit under a treatment level different from the one actually received; the cornerstone of potential-outcomes and structural causal-model definitions of causation.",
        article = nil,
        aliases = { "counterfactual outcome", "potential outcome", "counterfactual value", "what-if outcome", "Y(a)", "Rubin counterfactual" },
        es = "Resultado hipotético que se habría observado para una unidad bajo un nivel de tratamiento distinto al efectivamente recibido; es la piedra angular de las definiciones de causalidad basadas en resultados potenciales y en modelos causales estructurales.",
        zh = "在与实际接受处理不同的处理水平下,个体本应观察到的假设结果;它是潜在结果框架和结构因果模型对因果性定义的基石。",
        term_es = "contrafactual",
        term_zh = "反事实",
        aliases_es = { "resultado contrafactual", "resultado potencial", "valor contrafactual", "resultado hipotético", "contrafáctico" },
        aliases_zh = { "反事实结果", "潜在结果", "反事实取值", "假设结果", "Rubin 反事实" },
    }
    
    data["counterfactual augmentation"] = {
        short = "A debiasing technique that augments training data with counterfactual examples obtained by swapping protected attributes (e.g. gendered pronouns), encouraging the model to be invariant to those attributes.",
        article = nil,
        aliases = { "counterfactual data augmentation", "CDA" },
        es = "Técnica de mitigación de sesgo que aumenta los datos de entrenamiento con ejemplos contrafactuales obtenidos al intercambiar atributos protegidos (p. ej. pronombres con género), incentivando al modelo a ser invariante a esos atributos.",
        zh = "一种去偏方法,通过交换受保护属性(如性别代词)生成反事实样本来扩充训练数据,促使模型对这些属性保持不变。",
        term_es = "aumento contrafactual",
        term_zh = "反事实数据增强",
        aliases_es = { "aumento de datos contrafactual", "CDA" },
        aliases_zh = { "反事实增强", "CDA" },
    }
    
    data["counterfactual data augmentation"] = {
        short = "A data-augmentation technique that creates counterfactual examples — inputs with minimally edited features that change a target attribute or label — and adds them to training to improve robustness, fairness, or out-of-distribution generalization.",
        article = nil,
        aliases = { "CDA", "counterfactual augmentation", "counterfactually-augmented data" },
        es = "Técnica de aumento de datos que genera ejemplos contrafactuales —entradas con ediciones mínimas que cambian un atributo o etiqueta objetivo— y los añade al entrenamiento para mejorar robustez, equidad o generalización fuera de distribución.",
        zh = "一种数据增强技术,通过对输入进行最小编辑以改变目标属性或标签,生成反事实样本并加入训练集,从而提升模型的鲁棒性、公平性或分布外泛化能力。",
        term_es = "aumento de datos contrafactual",
        term_zh = "反事实数据增强",
        aliases_es = { "CDA", "datos aumentados contrafactualmente" },
        aliases_zh = { "反事实增强", "CDA" },
    }
    
    data["counterfactual data substitution"] = {
        short = "A debiasing technique that replaces, rather than augments, training examples with their counterfactual versions (e.g. swapping he/she), removing spurious associations with the swapped attribute.",
        article = nil,
        aliases = { "CDS", "counterfactual substitution" },
        es = "Técnica de mitigación de sesgo que sustituye, en lugar de añadir, ejemplos de entrenamiento por sus versiones contrafactuales (p. ej. intercambiando él/ella), eliminando asociaciones espurias con el atributo intercambiado.",
        zh = "一种去偏方法,用反事实版本(如交换\"他/她\")替换而非扩充训练样本,从而消除与被交换属性的虚假关联。",
        term_es = "sustitución contrafactual de datos",
        term_zh = "反事实数据替换",
        aliases_es = { "CDS", "sustitución contrafactual" },
        aliases_zh = { "CDS", "反事实替换" },
    }
    
    data["counterfactual distribution"] = {
        short = "The probability distribution over outcomes that would have been observed under a hypothetical intervention, formally written P(Y_a) for the distribution of Y had treatment been set to a.",
        article = nil,
        aliases = { "potential outcome distribution", "interventional distribution under counterfactual" },
        es = "Distribución de probabilidad sobre los resultados que se habrían observado bajo una intervención hipotética, escrita formalmente P(Y_a) para la distribución de Y si el tratamiento se hubiera fijado en a.",
        zh = "在假设的干预下本应观察到的结果的概率分布,形式上记为 P(Y_a),表示若处置被设为 a 时 Y 的分布。",
        term_es = "distribución contrafactual",
        term_zh = "反事实分布",
        aliases_es = { "distribución de resultados potenciales" },
        aliases_zh = { "潜在结果分布", "反事实结果分布" },
    }
    
    data["counterfactual explanation"] = {
        short = "An explanation of a model's decision in the form 'had feature X been different, the prediction would have been Y', identifying minimal changes to inputs that would flip the outcome.",
        article = nil,
        aliases = { "counterfactual explanations", "contrastive explanation", "counterfactual reasoning explanation" },
        es = "Explicación de una decisión de un modelo de la forma 'si la característica X hubiera sido diferente, la predicción habría sido Y', identificando los cambios mínimos en las entradas que invertirían el resultado.",
        zh = "以\"若特征X不同,则预测将为Y\"的形式给出的模型决策解释,识别能够翻转结果的最小输入改动。",
        term_es = "explicación contrafactual",
        term_zh = "反事实解释",
        aliases_es = { "explicaciones contrafactuales", "explicación contrastiva" },
        aliases_zh = { "反事实说明", "对比解释" },
    }
    
    data["counterfactual fairness"] = {
        short = "A causal fairness criterion proposed by Kusner et al. (2017): a decision is counterfactually fair if it would be the same in a counterfactual world where the individual's protected attribute had been different, all else equal.",
        article = nil,
        aliases = { "Kusner counterfactual fairness", "causal counterfactual fairness" },
        es = "Criterio de equidad causal propuesto por Kusner et al. (2017): una decisión es contrafactualmente justa si sería la misma en un mundo contrafactual en el que el atributo protegido del individuo hubiera sido diferente, manteniendo todo lo demás igual.",
        zh = "Kusner等人(2017)提出的因果公平性准则:若在个人受保护属性不同(其他条件保持相同)的反事实世界中决策保持一致,则该决策是反事实公平的。",
        term_es = "equidad contrafactual",
        term_zh = "反事实公平性",
        aliases_es = { "equidad contrafactual de Kusner", "equidad contrafactual causal" },
        aliases_zh = { "Kusner反事实公平性", "因果反事实公平性" },
    }
    
    data["counterfactual frontier"] = {
        short = "The boundary in input or feature space that separates regions producing different model outcomes; counterfactual explanations seek the closest crossing of this frontier from a given input.",
        article = nil,
        aliases = { "decision frontier", "counterfactual boundary" },
        es = "Frontera en el espacio de entradas o características que separa regiones que producen resultados distintos del modelo; las explicaciones contrafactuales buscan el cruce más cercano de esta frontera desde una entrada dada.",
        zh = "在输入或特征空间中区分模型不同输出区域的边界;反事实解释寻找从给定输入到该边界最近的跨越点。",
        term_es = "frontera contrafactual",
        term_zh = "反事实边界",
        aliases_es = { "frontera de decisión contrafactual" },
        aliases_zh = { "反事实前沿", "决策边界" },
    }
    
    data["counterfactual generator"] = {
        short = "A model or optimization procedure that produces counterfactual examples — minimally edited inputs that flip a model's prediction — typically constrained for proximity, validity, sparsity, and feasibility.",
        article = nil,
        aliases = { "counterfactual generation model", "CF generator" },
        es = "Modelo o procedimiento de optimización que produce ejemplos contrafactuales —entradas con ediciones mínimas que cambian la predicción del modelo— sujeto a restricciones de proximidad, validez, dispersión y factibilidad.",
        zh = "一种模型或优化过程,用于生成反事实样本——通过最小编辑使模型预测翻转的输入——通常受邻近性、有效性、稀疏性和可行性约束。",
        term_es = "generador contrafactual",
        term_zh = "反事实生成器",
        aliases_es = { "generador de contrafactuales" },
        aliases_zh = { "反事实生成模型", "CF 生成器" },
    }
    
    data["counterfactual identifiability"] = {
        short = "The property that a counterfactual quantity, such as P(Y_a | X), can be uniquely determined from observational distributions plus the assumed causal structure, typically requiring stronger assumptions than interventional identifiability.",
        article = nil,
        aliases = { "counterfactual identification", "L3 identifiability" },
        es = "Propiedad de que una cantidad contrafactual, como P(Y_a | X), pueda determinarse de forma única a partir de distribuciones observacionales y la estructura causal asumida; suele requerir supuestos más fuertes que la identificabilidad intervencional.",
        zh = "反事实量(如 P(Y_a | X))能够由观测分布和假设的因果结构唯一确定的性质,通常比干预可识别性需要更强的假设。",
        term_es = "identificabilidad contrafactual",
        term_zh = "反事实可识别性",
        aliases_es = { "identificación contrafactual" },
        aliases_zh = { "反事实可辨识性", "反事实识别" },
    }
    
    data["counterfactual logic"] = {
        short = "A formal logic for reasoning about hypothetical statements of the form 'if A had been the case, then B would have been the case', associated with Lewis-Stalnaker semantics over possible worlds.",
        article = nil,
        aliases = { "counterfactual conditionals", "Lewis counterfactuals" },
        es = "Lógica formal para razonar sobre enunciados hipotéticos de la forma 'si A hubiera ocurrido, entonces B habría ocurrido', asociada a la semántica de Lewis-Stalnaker sobre mundos posibles.",
        zh = "用于推理形如「若 A 发生过,则 B 本会发生」的假设性陈述的形式逻辑,与可能世界上的 Lewis-Stalnaker 语义相关联。",
        term_es = "lógica contrafactual",
        term_zh = "反事实逻辑",
        aliases_es = { "condicionales contrafactuales", "lógica contrafáctica" },
        aliases_zh = { "反事实条件句", "Lewis 反事实" },
    }
    
    data["counterfactual logit pairing"] = {
        short = "A training technique that penalizes the difference in model logits between an example and its counterfactual variant (with a protected attribute swapped), encouraging invariance to that attribute.",
        article = nil,
        aliases = { "CLP", "logit pairing for fairness" },
        es = "Técnica de entrenamiento que penaliza la diferencia en los logits del modelo entre un ejemplo y su variante contrafactual (con un atributo protegido intercambiado), promoviendo la invariancia a ese atributo.",
        zh = "一种训练方法,通过惩罚样本与其反事实变体(交换受保护属性)在模型logits上的差异,促使模型对该属性保持不变。",
        term_es = "emparejamiento contrafactual de logits",
        term_zh = "反事实logit配对",
        aliases_es = { "CLP", "pareo de logits contrafactual" },
        aliases_zh = { "CLP", "公平性logit配对" },
    }
    
    data["counterfactual outcome"] = {
        short = "The outcome a unit would have experienced under a treatment value different from the one actually received; in the potential outcomes framework, this is the unobserved Y_a for a unit assigned a different treatment.",
        article = nil,
        aliases = { "potential outcome", "Y_a", "counterfactual response" },
        es = "Resultado que una unidad habría experimentado bajo un valor de tratamiento distinto al efectivamente recibido; en el marco de resultados potenciales es el Y_a no observado para una unidad asignada a otro tratamiento.",
        zh = "在与实际接受的处置值不同的处置下,单元本应经历的结果;在潜在结果框架中,即被分配其他处置的单元未观测到的 Y_a。",
        term_es = "resultado contrafactual",
        term_zh = "反事实结果",
        aliases_es = { "resultado potencial", "respuesta contrafactual" },
        aliases_zh = { "潜在结果", "反事实响应", "Y_a" },
    }
    
    data["counterfactual perturbation"] = {
        short = "Modifying an input by altering protected or sensitive features to produce a counterfactual example, used to probe model behavior, audit for bias, or generate training signals for fairness.",
        article = nil,
        aliases = { "counterfactual input perturbation", "fairness perturbation" },
        es = "Modificación de una entrada alterando características protegidas o sensibles para producir un ejemplo contrafactual, usada para sondear el comportamiento del modelo, auditar sesgos o generar señales de entrenamiento para equidad.",
        zh = "通过改变受保护或敏感特征来修改输入以生成反事实样本,用于探查模型行为、审计偏见或为公平性生成训练信号。",
        term_es = "perturbación contrafactual",
        term_zh = "反事实扰动",
        aliases_es = { "perturbación de entrada contrafactual", "perturbación de equidad" },
        aliases_zh = { "反事实输入扰动", "公平性扰动" },
    }
    
    data["counterfactual policy evaluation"] = {
        short = "Estimating the expected value of a policy that was not actually deployed using historical data collected under a different policy, central to off-policy evaluation in reinforcement learning and contextual bandits.",
        article = nil,
        aliases = { "off-policy evaluation", "OPE", "policy value estimation", "counterfactual evaluation" },
        es = "Estimación del valor esperado de una política que no se desplegó realmente, usando datos históricos recogidos bajo una política distinta; es central en la evaluación fuera de política en aprendizaje por refuerzo y bandidos contextuales.",
        zh = "利用在不同策略下收集的历史数据,估计未实际部署策略的期望值,是强化学习和上下文老虎机中离线策略评估的核心问题。",
        term_es = "evaluación contrafactual de políticas",
        term_zh = "反事实策略评估",
        aliases_es = { "evaluación fuera de política", "OPE" },
        aliases_zh = { "离线策略评估", "反事实策略评价", "OPE" },
    }
    
    data["counterfactual prediction"] = {
        short = "Prediction of outcomes under hypothetical interventions rather than under observed conditions, requiring causal assumptions because the predictive distribution differs from the conditional observational distribution.",
        article = nil,
        aliases = { "interventional prediction", "what-if prediction" },
        es = "Predicción de resultados bajo intervenciones hipotéticas en lugar de bajo condiciones observadas; requiere supuestos causales porque la distribución predictiva difiere de la distribución observacional condicional.",
        zh = "在假设性干预下而非观测条件下对结果进行的预测,需要因果假设,因为其预测分布不同于条件观测分布。",
        term_es = "predicción contrafactual",
        term_zh = "反事实预测",
        aliases_es = { "predicción intervencional", "predicción tipo what-if" },
        aliases_zh = { "干预预测", "反事实预报", "what-if 预测" },
    }
    
    data["counterfactual probing"] = {
        short = "An interpretability technique that intervenes on internal representations and measures the resulting change in model behavior, testing whether a representation causally encodes a hypothesized property rather than merely correlating with it.",
        article = nil,
        aliases = { "causal probing", "counterfactual probe" },
        es = "Técnica de interpretabilidad que interviene sobre representaciones internas y mide el cambio resultante en el comportamiento del modelo, probando si una representación codifica causalmente una propiedad hipotética en lugar de solo correlacionarse con ella.",
        zh = "一种可解释性方法,对模型内部表示进行干预并测量行为变化,用于检验表示是否因果地编码了某一假设属性,而非仅仅相关。",
        term_es = "sondeo contrafactual",
        term_zh = "反事实探测",
        aliases_es = { "sondeo causal", "probing causal" },
        aliases_zh = { "因果探测", "反事实 probing" },
    }
    
    data["counterfactual recourse"] = {
        short = "Actionable counterfactual explanations: the set of feasible feature changes a subject can make to obtain a desired prediction, emphasizing real-world actionability, mutability constraints, and causal consistency.",
        article = nil,
        aliases = { "algorithmic recourse", "recourse" },
        es = "Explicaciones contrafactuales accionables: el conjunto de cambios factibles que un sujeto puede realizar sobre sus características para obtener una predicción deseada, enfatizando la accionabilidad real, restricciones de mutabilidad y coherencia causal.",
        zh = "可执行的反事实解释:受试者可以对其特征做出的、能获得期望预测的可行更改集合,强调现实可行性、可变性约束与因果一致性。",
        term_es = "recurso contrafactual",
        term_zh = "反事实救济",
        aliases_es = { "recurso algorítmico", "vía de recurso algorítmica" },
        aliases_zh = { "算法救济", "recourse" },
    }
    
    data["counterfactual regret"] = {
        short = "In counterfactual regret minimization (CFR), the regret at an information set computed by weighting action utilities by the counterfactual reach probability of arriving at that information set; minimizing it converges to a Nash equilibrium in zero-sum games.",
        article = nil,
        aliases = { "CFR regret", "counterfactual regret minimization", "CFR" },
        es = "En la minimización de arrepentimiento contrafactual (CFR), el arrepentimiento en un conjunto de información calculado ponderando las utilidades de cada acción por la probabilidad contrafactual de llegar a ese conjunto; su minimización converge a un equilibrio de Nash en juegos de suma cero.",
        zh = "在反事实遗憾最小化(CFR)中,按到达某信息集的反事实概率对各动作效用加权而计算的遗憾;将其最小化可在零和博弈中收敛到纳什均衡。",
        term_es = "arrepentimiento contrafactual",
        term_zh = "反事实遗憾",
        aliases_es = { "minimización de arrepentimiento contrafactual", "CFR" },
        aliases_zh = { "反事实后悔", "反事实遗憾最小化", "CFR" },
    }
    
    data["counterfactual sampling"] = {
        short = "A fairness technique that generates synthetic counterparts of training instances by altering the value of a sensitive attribute (e.g. gender, race) while holding other features fixed, used to audit or mitigate unequal model behavior across groups.",
        article = nil,
        aliases = { "counterfactual data augmentation", "CDA", "counterfactual augmentation" },
        es = "Técnica de equidad que genera contrapartes sintéticas de las instancias de entrenamiento alterando el valor de un atributo sensible (por ejemplo, género o raza) y manteniendo fijas las demás características, para auditar o mitigar el comportamiento desigual del modelo entre grupos.",
        zh = "一种公平性技术,通过改变敏感属性(如性别、种族)的取值同时保持其他特征不变,生成训练样本的合成对照样本,用于审计或缓解模型在不同群体上的差异化行为。",
        term_es = "muestreo contrafactual",
        term_zh = "反事实采样",
        aliases_es = { "aumento de datos contrafactual", "CDA" },
        aliases_zh = { "反事实数据增强", "CDA", "反事实扩充" },
    }
    
    data["counterfactual simulatability"] = {
        short = "A criterion for explanation quality measuring how accurately a human, given the explanation, can predict the model's output on perturbed or counterfactual inputs; introduced as a more rigorous alternative to plausibility judgments.",
        article = nil,
        aliases = { "simulatability", "counterfactual simulation" },
        es = "Criterio de calidad de explicación que mide cuán bien un humano, dada la explicación, puede predecir la salida del modelo sobre entradas perturbadas o contrafactuales; propuesta como alternativa más rigurosa a la plausibilidad subjetiva.",
        zh = "一种解释质量标准,衡量人类在获得解释后能多准确地预测模型在受扰或反事实输入上的输出,被提出作为比主观可信度更严格的评估方法。",
        term_es = "simulatabilidad contrafactual",
        term_zh = "反事实可模拟性",
        aliases_es = { "simulabilidad", "simulatabilidad" },
        aliases_zh = { "可模拟性", "反事实模拟性" },
    }
    
    data["counterfactual world"] = {
        short = "A hypothetical state of the world that differs from reality through specified interventions or contrary-to-fact assumptions; the conceptual object whose probabilities are reasoned about in counterfactual inference.",
        article = nil,
        aliases = { "counterfactual scenario", "alternate world", "counter-to-fact world" },
        es = "Estado hipotético del mundo que difiere de la realidad mediante intervenciones especificadas o supuestos contrarios a los hechos; es el objeto conceptual cuyas probabilidades se razonan en la inferencia contrafactual.",
        zh = "通过指定干预或与事实相反的假设而不同于现实的假设性世界状态;它是反事实推断中其概率被讨论的概念性对象。",
        term_es = "mundo contrafactual",
        term_zh = "反事实世界",
        aliases_es = { "escenario contrafactual", "mundo alternativo" },
        aliases_zh = { "反事实情景", "假想世界" },
    }
    
    data["countries dataset"] = {
        short = "A small synthetic knowledge-graph benchmark for relational reasoning where the task is to predict a country's region or subregion from its neighbors and other location relations.",
        article = nil,
        aliases = { "Countries benchmark", "Countries (dataset)", "Countries S1/S2/S3" },
        es = "Pequeño conjunto de datos sintético tipo grafo de conocimiento para razonamiento relacional, en el que la tarea es predecir la región o subregión de un país a partir de sus vecinos y otras relaciones de ubicación.",
        zh = "一个用于关系推理的小型合成知识图谱基准数据集,任务是根据邻国及其他位置关系预测某国的所属区域或子区域。",
        term_es = "conjunto de datos Countries",
        term_zh = "Countries数据集",
        aliases_es = { "benchmark Countries", "dataset Countries" },
        aliases_zh = { "Countries基准", "国家数据集" },
    }
    
    data["coupled hidden markov model"] = {
        short = "An extension of the hidden Markov model in which multiple interacting Markov chains evolve in parallel, with each chain's transitions conditioned on the previous states of the other chains.",
        article = nil,
        aliases = { "CHMM", "coupled HMM" },
        es = "Extensión del modelo oculto de Markov en la que varias cadenas de Markov en interacción evolucionan en paralelo, condicionando las transiciones de cada cadena a los estados previos de las demás.",
        zh = "隐马尔可夫模型的扩展:多条相互作用的马尔可夫链并行演化,每条链的状态转移依赖于其他链的前一状态。",
        term_es = "modelo oculto de Markov acoplado",
        term_zh = "耦合隐马尔可夫模型",
        aliases_es = { "CHMM", "HMM acoplado" },
        aliases_zh = { "CHMM", "耦合HMM" },
    }
    
    data["covalent inhibitor design"] = {
        short = "Design of ligands bearing a reactive warhead that forms a covalent bond with a specific protein residue (often a cysteine), trading reversibility for prolonged target engagement.",
        article = nil,
        aliases = { "covalent drug design", "covalent ligand design", "warhead design", "covalent inhibitor discovery" },
        es = "Diseño de ligandos con una cabeza reactiva que forma un enlace covalente con un residuo proteico específico (a menudo una cisteína), sacrificando la reversibilidad por una unión prolongada al objetivo.",
        zh = "设计带有反应弹头的配体,使其与靶蛋白特定残基(常为半胱氨酸)形成共价键,以可逆性换取长时间的靶标结合。",
        term_es = "diseño de inhibidores covalentes",
        term_zh = "共价抑制剂设计",
        aliases_es = { "diseño de fármacos covalentes", "diseño de ligandos covalentes", "diseño de warheads" },
        aliases_zh = { "共价药物设计", "共价配体设计", "弹头设计" },
    }
    
    data["covariance"] = {
        short = "A measure of the joint variability of two random variables, defined as the expected product of their deviations from their respective means. Positive values indicate that the variables tend to increase together; negative values indicate inverse co-movement.",
        article = nil,
        aliases = { "Cov", "Cov(X,Y)", "covariance matrix", "Σ", "sample covariance" },
        es = "Medida de la variabilidad conjunta de dos variables aleatorias, definida como la esperanza del producto de sus desviaciones respecto a sus respectivas medias. Valores positivos indican covariación creciente y negativos covariación inversa.",
        zh = "衡量两个随机变量联合变动程度的量,定义为它们各自与均值之差乘积的期望。正值表示同向变动,负值表示反向变动。",
        term_es = "covarianza",
        term_zh = "协方差",
        aliases_es = { "Cov", "matriz de covarianza", "covarianza muestral" },
        aliases_zh = { "协方差矩阵", "Cov", "样本协方差" },
    }
    
    data["covariate adjustment"] = {
        short = "A causal-inference strategy that removes confounding bias by conditioning on a set of covariates sufficient to block all backdoor paths between treatment and outcome, typically via regression, stratification, or matching.",
        article = nil,
        aliases = { "adjustment for covariates", "controlling for covariates", "regression adjustment" },
        es = "Estrategia de inferencia causal que elimina el sesgo por confusión condicionando sobre un conjunto de covariables suficiente para bloquear todos los caminos por la puerta trasera entre tratamiento y resultado, normalmente mediante regresión, estratificación o emparejamiento.",
        zh = "通过对一组足以阻断处置与结果间所有后门路径的协变量进行条件化来消除混杂偏差的因果推断策略,通常通过回归、分层或匹配实现。",
        term_es = "ajuste por covariables",
        term_zh = "协变量调整",
        aliases_es = { "control por covariables", "ajuste por regresión" },
        aliases_zh = { "协变量校正", "协变量控制", "回归调整" },
    }
    
    data["covariate balance"] = {
        short = "The degree to which the distributions of pre-treatment covariates are similar between treated and control groups; achieving balance, often via matching or weighting, is necessary for unbiased causal effect estimation.",
        article = nil,
        aliases = { "balance of covariates", "baseline balance" },
        es = "Grado en que las distribuciones de las covariables previas al tratamiento son similares entre los grupos tratado y de control; lograr el balance, mediante emparejamiento o ponderación, es necesario para una estimación insesgada del efecto causal.",
        zh = "处置组与对照组间预处置协变量分布的相似程度;通过匹配或加权达到平衡是无偏估计因果效应的必要条件。",
        term_es = "balance de covariables",
        term_zh = "协变量平衡",
        aliases_es = { "equilibrio de covariables", "balance basal" },
        aliases_zh = { "协变量均衡", "基线平衡" },
    }
    
    data["covariate balancing propensity score"] = {
        short = "A method (Imai and Ratkovic, 2014) that estimates propensity scores by directly optimizing covariate balance between treatment groups, replacing standard maximum-likelihood logistic estimation with moment conditions on covariate means.",
        article = nil,
        aliases = { "CBPS", "covariate-balancing propensity score" },
        es = "Método (Imai y Ratkovic, 2014) que estima la puntuación de propensión optimizando directamente el balance de covariables entre grupos de tratamiento, sustituyendo la estimación logística por máxima verosimilitud por condiciones de momentos sobre las medias de las covariables.",
        zh = "Imai 与 Ratkovic(2014)提出的方法,通过直接优化处置组之间的协变量平衡来估计倾向得分,以协变量均值上的矩条件替代标准的最大似然 logistic 估计。",
        term_es = "puntuación de propensión con balance de covariables",
        term_zh = "协变量平衡倾向得分",
        aliases_es = { "CBPS", "puntaje de propensión balanceada" },
        aliases_zh = { "CBPS", "协变量平衡倾向评分" },
    }
    
    data["covariate shift"] = {
        short = "A form of distribution shift in which the marginal distribution of the input features changes between training and test data while the conditional distribution of labels given inputs remains the same.",
        article = nil,
        aliases = { "input distribution shift", "feature shift" },
        es = "Tipo de desplazamiento de distribución en el que la distribución marginal de las características de entrada cambia entre los datos de entrenamiento y los de prueba, mientras que la distribución condicional de las etiquetas dadas las entradas permanece igual.",
        zh = "一种分布偏移形式,输入特征的边缘分布在训练数据与测试数据之间发生变化,而给定输入的标签条件分布保持不变。",
        term_es = "desplazamiento de covariables",
        term_zh = "协变量偏移",
        aliases_es = { "shift de covariables", "desplazamiento de la entrada" },
        aliases_zh = { "协变量漂移", "输入分布偏移" },
    }
    
    data["coverage bias"] = {
        short = "A form of selection bias in which the population sampled for a dataset systematically under-represents or excludes certain subgroups relative to the target population the model will serve.",
        article = nil,
        aliases = { "sampling coverage bias", "non-coverage bias", "undercoverage bias" },
        es = "Forma de sesgo de selección en la que la población muestreada para un conjunto de datos representa insuficientemente o excluye sistemáticamente a ciertos subgrupos respecto a la población objetivo a la que el modelo prestará servicio.",
        zh = "一种选择偏差,其中数据集采样的人群相对于模型实际服务的目标人群,系统性地低估或排除了某些子群体。",
        term_es = "sesgo de cobertura",
        term_zh = "覆盖偏差",
        aliases_es = { "sesgo de cobertura de muestreo", "sesgo por subcobertura" },
        aliases_zh = { "覆盖偏倚", "采样覆盖偏差", "覆盖率偏差" },
    }
    
    data["coverage depth"] = {
        short = "The average number of sequencing reads aligned to each position in a reference genome or target region, used as a key quality metric in next-generation sequencing analysis.",
        article = nil,
        aliases = { "sequencing depth", "read depth", "depth of coverage", "coverage" },
        es = "Número promedio de lecturas de secuenciación alineadas a cada posición de un genoma de referencia o región objetivo, métrica clave de calidad en el análisis de secuenciación de nueva generación.",
        zh = "比对到参考基因组或目标区域每个位点的平均测序读段数,是新一代测序数据分析中的关键质量指标。",
        term_es = "profundidad de cobertura",
        term_zh = "覆盖深度",
        aliases_es = { "profundidad de secuenciación", "profundidad de lectura", "cobertura" },
        aliases_zh = { "测序深度", "读段深度", "覆盖度" },
    }
    
    data["coverage probability"] = {
        short = "The probability that a confidence or credible interval procedure contains the true parameter value, used to assess calibration of uncertainty estimates.",
        article = nil,
        aliases = { "coverage", "nominal coverage", "empirical coverage" },
        es = "Probabilidad de que un procedimiento de intervalo de confianza o creíble contenga el valor verdadero del parámetro, usada para evaluar la calibración de las estimaciones de incertidumbre.",
        zh = "置信区间或可信区间程序包含参数真实值的概率,用于评估不确定性估计的校准性。",
        term_es = "probabilidad de cobertura",
        term_zh = "覆盖概率",
        aliases_es = { "cobertura", "cobertura nominal", "cobertura empírica" },
        aliases_zh = { "覆盖率", "名义覆盖率", "经验覆盖率" },
    }
    
    data["coverage-risk curve"] = {
        short = "A diagnostic curve that plots selective prediction risk against coverage as a confidence threshold is varied, characterizing the accuracy-rejection tradeoff of an uncertainty estimator.",
        article = nil,
        aliases = { "risk-coverage curve", "selective risk curve", "accuracy-rejection curve" },
        es = "Curva diagnóstica que representa el riesgo de predicción selectiva frente a la cobertura al variar un umbral de confianza, caracterizando el compromiso entre precisión y rechazo de un estimador de incertidumbre.",
        zh = "通过改变置信度阈值绘制选择性预测风险与覆盖率关系的诊断曲线,刻画不确定性估计器的精度-拒绝权衡。",
        term_es = "curva cobertura-riesgo",
        term_zh = "覆盖-风险曲线",
        aliases_es = { "curva riesgo-cobertura", "curva de riesgo selectivo", "curva precisión-rechazo" },
        aliases_zh = { "风险-覆盖曲线", "选择性风险曲线", "精度-拒绝曲线" },
    }
    
    data["covost"] = {
        short = "A large-scale multilingual speech-to-text translation corpus derived from Mozilla Common Voice, covering translations from many source languages into English for training and evaluating end-to-end speech translation systems.",
        article = nil,
        aliases = { "CoVoST", "Co Vo ST", "CoVoST corpus" },
        es = "Corpus a gran escala y multilingüe para traducción de habla a texto derivado de Mozilla Common Voice, que cubre traducciones desde numerosos idiomas de origen al inglés para entrenar y evaluar sistemas de traducción del habla de extremo a extremo.",
        zh = "基于 Mozilla Common Voice 构建的大规模多语言语音到文本翻译语料库,覆盖多种源语言到英语的翻译,用于训练和评测端到端语音翻译系统。",
        term_es = "CoVoST",
        term_zh = "CoVoST",
        aliases_es = { "CoVoST", "corpus CoVoST" },
        aliases_zh = { "CoVoST", "CoVoST 语料库" },
    }
    
    data["covost2"] = {
        short = "An expansion of the CoVoST speech translation corpus that adds more language pairs and English-to-many directions, providing 21 source-to-English and 15 English-to-target translation pairs from Common Voice audio.",
        article = nil,
        aliases = { "CoVoST 2", "CoVoST2", "CoVoST-2" },
        es = "Ampliación del corpus de traducción del habla CoVoST que añade más pares de idiomas y direcciones del inglés a otras lenguas, proporcionando 21 pares fuente-inglés y 15 pares inglés-destino a partir del audio de Common Voice.",
        zh = "对 CoVoST 语音翻译语料库的扩展,新增更多语言对以及英语到多种语言的翻译方向,基于 Common Voice 音频提供 21 个源语言到英语和 15 个英语到目标语言的翻译对。",
        term_es = "CoVoST 2",
        term_zh = "CoVoST 2",
        aliases_es = { "CoVoST2", "CoVoST-2" },
        aliases_zh = { "CoVoST2", "CoVoST-2", "CoVoST 第二版" },
    }
    
    data["cox marginal structural model"] = {
        short = "An extension of the Cox proportional hazards model for time-varying treatments and confounders, fit via inverse probability of treatment weighting to estimate the marginal hazard ratio of a sustained treatment regime.",
        article = nil,
        aliases = { "Cox MSM", "marginal structural Cox model", "MSCM" },
        es = "Extensión del modelo de riesgos proporcionales de Cox para tratamientos y confusores que varían en el tiempo, ajustado mediante ponderación inversa de la probabilidad de tratamiento para estimar la razón de riesgos marginal de un régimen sostenido.",
        zh = "Cox 比例风险模型对时变处置与混杂因素的扩展,通过处置概率的逆概率加权拟合,用以估计持续处置方案的边际风险比。",
        term_es = "modelo estructural marginal de Cox",
        term_zh = "Cox 边际结构模型",
        aliases_es = { "Cox MSM", "modelo de Cox estructural marginal" },
        aliases_zh = { "边际结构 Cox 模型", "Cox MSM", "MSCM" },
    }
    
    data["cpdag"] = {
        short = "A completed partially directed acyclic graph: the canonical representation of a Markov equivalence class of DAGs, with directed edges where the direction is identifiable and undirected edges otherwise.",
        article = nil,
        aliases = { "CPDAG", "completed partially directed acyclic graph", "essential graph" },
        es = "Grafo acíclico parcialmente dirigido completado: representación canónica de una clase de equivalencia de Markov de DAGs, con aristas dirigidas cuando la dirección es identificable y no dirigidas en caso contrario.",
        zh = "完备部分有向无环图:DAG 马尔可夫等价类的规范表示,方向可识别的边为有向,其余为无向。",
        term_es = "CPDAG",
        term_zh = "CPDAG",
        aliases_es = { "grafo esencial", "grafo parcialmente dirigido completado" },
        aliases_zh = { "完备部分有向无环图", "本质图" },
    }
    
    data["cpi prediction"] = {
        short = "Compound-Protein Interaction prediction: a machine-learning task that scores or classifies whether a small molecule binds to a given protein, often using sequence and SMILES inputs.",
        article = nil,
        aliases = { "CPI prediction", "compound-protein interaction prediction", "compound protein interaction prediction" },
        es = "Predicción de interacción compuesto-proteína: tarea de aprendizaje automático que puntúa o clasifica si una molécula pequeña se une a una proteína dada, normalmente a partir de secuencias y SMILES.",
        zh = "化合物-蛋白相互作用预测:一种机器学习任务,通常基于序列和 SMILES 对小分子是否与给定蛋白结合进行评分或分类。",
        term_es = "predicción CPI",
        term_zh = "CPI 预测",
        aliases_es = { "predicción de CPI", "predicción de interacciones compuesto-proteína" },
        aliases_zh = { "化合物-蛋白质相互作用预测", "化合物-蛋白互作预测", "CPI prediction" },
    }
    
    data["cram format"] = {
        short = "A reference-based, columnar compressed file format for storing aligned sequencing reads, providing substantially smaller files than BAM by encoding only differences from a reference genome.",
        article = nil,
        aliases = { ".cram", "CRAM", "CRAM file" },
        es = "Formato de archivo comprimido columnar y basado en referencia para almacenar lecturas de secuenciación alineadas, que produce archivos sustancialmente más pequeños que BAM al codificar solo las diferencias respecto a un genoma de referencia.",
        zh = "一种基于参考序列的列式压缩文件格式,用于存储比对后的测序读段,仅编码与参考基因组的差异,因此文件比BAM小得多。",
        term_es = "formato CRAM",
        term_zh = "CRAM 格式",
        aliases_es = { ".cram", "CRAM", "archivo CRAM" },
        aliases_zh = { ".cram", "CRAM 文件" },
    }
    
    data["cramer-rao bound"] = {
        short = "A lower bound on the variance of any unbiased estimator of a parameter, equal to the inverse of the Fisher information; estimators achieving the bound are called efficient.",
        article = nil,
        aliases = { "Cramér-Rao bound", "Cramer-Rao lower bound", "CRLB", "Cramer-Rao inequality", "Cramér-Rao inequality" },
        es = "Cota inferior para la varianza de cualquier estimador insesgado de un parámetro, igual al inverso de la información de Fisher; los estimadores que alcanzan la cota se denominan eficientes.",
        zh = "任意无偏估计量方差的下界,等于费雪信息的倒数;达到此下界的估计量称为有效估计量。",
        term_es = "cota de Cramér-Rao",
        term_zh = "Cramér-Rao 下界",
        aliases_es = { "cota inferior de Cramér-Rao", "CRLB", "desigualdad de Cramér-Rao" },
        aliases_zh = { "Cramer-Rao 下界", "CRLB", "克拉默-拉奥下界", "Cramér-Rao 不等式" },
    }
    
    data["cre prediction"] = {
        short = "Computational identification of cis-regulatory elements (promoters, enhancers, silencers) in genomic sequences, typically using sequence-based deep learning models or chromatin accessibility signals.",
        article = nil,
        aliases = { "cis-regulatory element prediction", "CRE prediction", "regulatory element prediction" },
        es = "Identificación computacional de elementos reguladores en cis (promotores, potenciadores, silenciadores) en secuencias genómicas, generalmente usando modelos de aprendizaje profundo basados en secuencia o señales de accesibilidad de la cromatina.",
        zh = "通过基于序列的深度学习模型或染色质可及性信号,在基因组序列中计算识别顺式调控元件(启动子、增强子、沉默子)的过程。",
        term_es = "predicción de elementos reguladores en cis",
        term_zh = "顺式调控元件预测",
        aliases_es = { "predicción CRE", "predicción de CRE", "predicción de elementos cis-reguladores" },
        aliases_zh = { "CRE 预测", "调控元件预测", "顺式调控元件识别" },
    }
    
    data["cream of the crop"] = {
        short = "A one-shot neural architecture search method that distills supernet weights along prioritized paths, ranking candidate sub-networks by Pareto-optimal accuracy–latency trade-offs (Peng et al., 2020).",
        article = nil,
        aliases = { "Cream", "Cream NAS", "Cream of the Crop NAS" },
        es = "Método de búsqueda de arquitecturas one-shot que destila los pesos de la super-red a lo largo de rutas priorizadas y ordena las subredes candidatas por compromisos óptimos de Pareto entre precisión y latencia (Peng et al., 2020).",
        zh = "一种一次性(one-shot)神经架构搜索方法,沿优先路径蒸馏超网络权重,并根据精度与延迟的帕累托最优权衡对候选子网进行排序(Peng 等,2020)。",
        term_es = "Cream of the Crop",
        term_zh = "Cream of the Crop",
        aliases_es = { "Cream", "NAS Cream" },
        aliases_zh = { "Cream", "Cream NAS" },
    }
    
    data["credible interval"] = {
        short = "A Bayesian interval that contains a parameter with a specified posterior probability, the Bayesian analog of a frequentist confidence interval.",
        article = nil,
        aliases = { "Bayesian credible interval", "posterior credible interval", "credible bounds" },
        es = "Intervalo bayesiano que contiene un parámetro con una probabilidad posterior especificada; análogo bayesiano del intervalo de confianza frecuentista.",
        zh = "在指定后验概率下包含参数的贝叶斯区间,是频率派置信区间的贝叶斯类比。",
        term_es = "intervalo creíble",
        term_zh = "可信区间",
        aliases_es = { "intervalo de credibilidad", "intervalo creíble bayesiano", "intervalo creíble posterior" },
        aliases_zh = { "贝叶斯可信区间", "后验可信区间", "可信界限" },
    }
    
    data["credible region"] = {
        short = "The multidimensional generalization of a credible interval: a region of parameter space that contains the parameter vector with a specified posterior probability.",
        article = nil,
        aliases = { "Bayesian credible region", "highest posterior density region", "HPD region", "posterior credible region" },
        es = "Generalización multidimensional del intervalo creíble: región del espacio de parámetros que contiene el vector de parámetros con una probabilidad posterior especificada.",
        zh = "可信区间的多维推广:在指定后验概率下包含参数向量的参数空间区域。",
        term_es = "región creíble",
        term_zh = "可信区域",
        aliases_es = { "región de credibilidad", "región creíble bayesiana", "región de máxima densidad posterior", "región HPD" },
        aliases_zh = { "贝叶斯可信区域", "最高后验密度区域", "HPD 区域", "后验可信区域" },
    }
    
    data["credit scoring fairness"] = {
        short = "The study and mitigation of disparate treatment or impact in algorithmic credit-scoring systems across legally protected attributes such as race, gender, or age, often regulated by laws like the U.S. Equal Credit Opportunity Act.",
        article = nil,
        aliases = { "fair credit scoring", "fairness in credit scoring", "credit-scoring fairness" },
        es = "Estudio y mitigación del trato dispar o el impacto adverso en los sistemas algorítmicos de calificación crediticia frente a atributos legalmente protegidos como raza, género o edad, regulados a menudo por leyes como la Equal Credit Opportunity Act estadounidense.",
        zh = "研究并缓解算法信用评分系统在受法律保护的属性(如种族、性别或年龄)上产生的差别待遇或不利影响,通常受美国《平等信贷机会法》等法律监管。",
        term_es = "equidad en la calificación crediticia",
        term_zh = "信用评分公平性",
        aliases_es = { "equidad en credit scoring", "equidad en puntuación crediticia" },
        aliases_zh = { "信贷评分公平性", "公平信用评分", "信用打分公平性" },
    }
    
    data["cremer-pople parameters"] = {
        short = "A set of puckering coordinates (amplitude and phase angles) that describe the deviation of a non-planar ring from its mean plane, widely used to characterize sugar and cyclohexane conformations.",
        article = nil,
        aliases = { "Cremer-Pople parameters", "Cremer-Pople puckering parameters", "puckering parameters", "Cremer–Pople coordinates" },
        es = "Conjunto de coordenadas de plegamiento (amplitud y ángulos de fase) que describen la desviación de un anillo no plano respecto a su plano medio, ampliamente usado para caracterizar conformaciones de azúcares y ciclohexanos.",
        zh = "一组褶皱坐标(振幅和相位角),用于描述非平面环相对于其平均平面的偏离,广泛用于刻画糖类和环己烷的构象。",
        term_es = "parámetros de Cremer-Pople",
        term_zh = "Cremer-Pople 参数",
        aliases_es = { "parámetros de plegamiento", "coordenadas de Cremer-Pople" },
        aliases_zh = { "Cremer–Pople 参数", "Cremer-Pople 褶皱参数", "环褶皱参数" },
    }
    
    data["crepe"] = {
        short = "A deep convolutional pitch tracker that operates directly on time-domain audio and predicts a 360-bin probability distribution over fundamental frequency. Achieves sub-cent accuracy on monophonic signals and is widely used as a reference F0 estimator.",
        article = nil,
        aliases = { "CREPE", "Convolutional Representation for Pitch Estimation", "CREPE pitch tracker" },
        es = "Estimador de altura basado en una red convolucional profunda que opera directamente sobre la forma de onda y predice una distribución de probabilidad sobre 360 bins de frecuencia fundamental. Alcanza precisión sub-cent en señales monofónicas y se usa como referencia para estimar F0.",
        zh = "一种深度卷积音高跟踪器,直接作用于时域波形并对基频输出 360 维的概率分布。在单音信号上可达到亚音分级精度,常被用作 F0 估计的基准。",
        term_es = "CREPE",
        term_zh = "CREPE",
        aliases_es = { "estimador de pitch CREPE", "rastreador de pitch CREPE" },
        aliases_zh = { "CREPE 音高估计器", "CREPE 基频估计" },
    }
    
    data["crest"] = {
        short = "A joint framework (Treviso et al., 2023) for rationale extraction and counterfactual text generation: a selective rationalizer identifies salient input spans, and an editor rewrites them to produce label-flipping counterfactuals.",
        article = nil,
        aliases = { "CREST", "Counterfactual Rationale Extraction" },
        es = "Marco conjunto (Treviso et al., 2023) para la extracción de racionalizaciones y la generación de texto contrafactual: un racionalizador selectivo identifica fragmentos relevantes de la entrada y un editor los reescribe para producir contrafactuales que invierten la etiqueta.",
        zh = "一个联合框架(Treviso 等,2023),用于理由提取与反事实文本生成:选择性理由模块识别输入中的关键片段,编辑器对其进行改写以生成翻转标签的反事实样本。",
        term_es = "CREST",
        term_zh = "CREST",
        aliases_es = { "CREST" },
        aliases_zh = { "CREST" },
    }
    
    data["crewai"] = {
        short = "An open-source Python framework for orchestrating role-based multi-agent LLM workflows, where agents with defined goals and tools collaborate sequentially or hierarchically to complete tasks.",
        article = nil,
        aliases = { "CrewAI", "crew ai", "Crew AI" },
        es = "Marco de código abierto en Python para orquestar flujos de trabajo multiagente con LLMs basados en roles, en el que agentes con objetivos y herramientas definidos colaboran de forma secuencial o jerárquica para completar tareas.",
        zh = "一个开源的 Python 框架,用于编排基于角色的多智能体大语言模型工作流:拥有明确目标和工具的智能体按顺序或分层方式协作完成任务。",
        term_es = "CrewAI",
        term_zh = "CrewAI",
        aliases_es = { "Crew AI" },
        aliases_zh = { "Crew AI" },
    }
    
    data["crf log-likelihood"] = {
        short = "The conditional log-probability of label sequences given inputs under a conditional random field, used as the training objective; computing it requires the partition function obtained by message passing on the graph.",
        article = nil,
        aliases = { "conditional log-likelihood", "CRF log-likelihood objective" },
        es = "Logaritmo de la probabilidad condicional de las secuencias de etiquetas dados los inputs bajo un campo aleatorio condicional, usado como objetivo de entrenamiento; su cálculo requiere la función de partición obtenida por paso de mensajes en el grafo.",
        zh = "条件随机场下给定输入时标签序列的条件对数概率,作为训练目标;其计算需要通过图上的消息传递获得配分函数。",
        term_es = "log-verosimilitud del CRF",
        term_zh = "CRF 对数似然",
        aliases_es = { "log-verosimilitud condicional", "objetivo log-verosimilitud del CRF" },
        aliases_zh = { "条件对数似然", "CRF 对数似然目标" },
    }
    
    data["crispr screen"] = {
        short = "High-throughput functional genomics method that uses pooled CRISPR guide RNA libraries to systematically perturb genes across a cell population, with phenotypic readouts identifying genes underlying a trait of interest.",
        article = nil,
        aliases = { "CRISPR screen", "CRISPR screening", "pooled CRISPR screen", "genome-wide CRISPR screen" },
        es = "Método de genómica funcional de alto rendimiento que utiliza bibliotecas combinadas de ARN guía CRISPR para perturbar sistemáticamente genes en una población celular, con lecturas fenotípicas que identifican genes subyacentes a un rasgo de interés.",
        zh = "一种高通量功能基因组学方法,使用混合的CRISPR引导RNA文库系统地扰动细胞群中的基因,通过表型读出鉴定与目标性状相关的基因。",
        term_es = "cribado CRISPR",
        term_zh = "CRISPR 筛选",
        aliases_es = { "screen CRISPR", "cribado funcional CRISPR", "screen CRISPR combinado" },
        aliases_zh = { "CRISPR 文库筛选", "全基因组 CRISPR 筛选", "CRISPR screen" },
    }
    
    data["crispra"] = {
        short = "CRISPR activation: a gene-regulation technique using catalytically inactive Cas9 (dCas9) fused to transcriptional activator domains (e.g., VP64, p65) and guided by sgRNAs to upregulate target gene expression.",
        article = nil,
        aliases = { "CRISPRa", "CRISPR activation", "dCas9 activation" },
        es = "Activación CRISPR: técnica de regulación génica que usa Cas9 catalíticamente inactivo (dCas9) fusionado a dominios activadores de la transcripción (p. ej., VP64, p65) y guiado por sgRNAs para aumentar la expresión de genes diana.",
        zh = "CRISPR激活:一种基因调控技术,将催化失活的Cas9(dCas9)与转录激活结构域(如VP64、p65)融合,并由sgRNA引导以上调靶基因的表达。",
        term_es = "CRISPRa",
        term_zh = "CRISPRa",
        aliases_es = { "activación CRISPR", "activación con dCas9" },
        aliases_zh = { "CRISPR 激活", "dCas9 激活" },
    }
    
    data["crispri"] = {
        short = "CRISPR interference: a gene-silencing technique using catalytically inactive Cas9 (dCas9), often fused to a KRAB repressor domain, guided by sgRNAs to block transcription of target genes without modifying DNA.",
        article = nil,
        aliases = { "CRISPRi", "CRISPR interference", "dCas9 repression", "dCas9-KRAB" },
        es = "Interferencia CRISPR: técnica de silenciamiento génico que usa Cas9 catalíticamente inactivo (dCas9), a menudo fusionado al dominio represor KRAB, guiado por sgRNAs para bloquear la transcripción de genes diana sin modificar el ADN.",
        zh = "CRISPR干扰:一种基因沉默技术,使用催化失活的Cas9(dCas9,通常与KRAB抑制结构域融合),由sgRNA引导以阻断靶基因的转录而不修改DNA。",
        term_es = "CRISPRi",
        term_zh = "CRISPRi",
        aliases_es = { "interferencia CRISPR", "represión con dCas9", "dCas9-KRAB" },
        aliases_zh = { "CRISPR 干扰", "dCas9 抑制", "dCas9-KRAB" },
    }
    
    data["critical batch size"] = {
        short = "The batch size near the gradient noise scale beyond which further increases yield diminishing returns in training speedup, marking the transition between noise- and curvature-dominated regimes.",
        article = nil,
        aliases = {},
        es = "Tamaño de lote cercano a la escala de ruido del gradiente más allá del cual aumentar el lote ofrece beneficios decrecientes en velocidad de entrenamiento, marcando la transición entre regímenes dominados por ruido y por curvatura.",
        zh = "接近梯度噪声尺度的批量规模,超过该值后继续增大批量对训练加速的收益递减,标志着噪声主导与曲率主导阶段的分界。",
        term_es = "tamaño de lote crítico",
        term_zh = "临界批量大小",
        aliases_es = {},
        aliases_zh = { "临界批大小" },
    }
    
    data["cross-attention"] = {
        short = "An attention mechanism in which queries come from one sequence while keys and values come from another, used to condition a decoder on encoder outputs or one modality on another.",
        article = "Attention Mechanisms",
        aliases = { "cross attention", "Cross-Attention", "encoder-decoder attention" },
        es = "Mecanismo de atención en el que las consultas provienen de una secuencia mientras que las claves y los valores provienen de otra, utilizado para condicionar un decodificador a las salidas del codificador o una modalidad a otra.",
        zh = "一种注意力机制,其中查询来自一个序列,而键和值来自另一个序列,用于让解码器以编码器输出为条件或让一种模态以另一种模态为条件。",
        term_es = "atención cruzada",
        term_zh = "交叉注意力",
        aliases_es = { "cross-attention", "atención codificador-decodificador" },
        aliases_zh = { "cross-attention", "交叉注意力机制", "编码器-解码器注意力" },
    }
    
    data["cross-chain msa"] = {
        short = "A multiple sequence alignment strategy that pairs orthologous sequences from interacting protein chains across species so coevolutionary signals between chains can be exploited for protein-complex structure prediction.",
        article = nil,
        aliases = { "paired MSA", "cross-chain multiple sequence alignment", "interchain MSA", "cross-chain alignment" },
        es = "Estrategia de alineamiento múltiple de secuencias que empareja secuencias ortólogas de cadenas de proteína que interactúan en distintas especies para aprovechar señales coevolutivas entre cadenas en la predicción de estructura de complejos proteicos.",
        zh = "一种多序列比对策略,跨物种配对相互作用蛋白链的同源序列,从而利用链间共进化信号进行蛋白质复合物结构预测。",
        term_es = "MSA entre cadenas",
        term_zh = "跨链多序列比对",
        aliases_es = { "MSA pareado", "alineamiento múltiple entre cadenas", "MSA inter-cadena" },
        aliases_zh = { "配对 MSA", "链间 MSA", "跨链 MSA" },
    }
    
    data["cross-device federated learning"] = {
        short = "A federated learning setting in which the participants are a very large population of unreliable edge devices such as mobile phones, where each round samples only a small subset of available clients and clients may drop out at any time.",
        article = nil,
        aliases = { "cross device federated learning", "cross-device FL", "mobile federated learning" },
        es = "Variante de aprendizaje federado en la que los participantes son una población muy grande de dispositivos de borde poco fiables, como teléfonos móviles; en cada ronda se muestrea solo un subconjunto y los clientes pueden desconectarse en cualquier momento.",
        zh = "一种联邦学习设置:参与者是数量庞大且不稳定的边缘设备(如手机),每轮仅采样少量可用客户端,客户端可能随时掉线。",
        term_es = "aprendizaje federado entre dispositivos",
        term_zh = "跨设备联邦学习",
        aliases_es = { "FL entre dispositivos", "aprendizaje federado cross-device" },
        aliases_zh = { "跨终端联邦学习", "面向设备的联邦学习", "Cross-device FL" },
    }
    
    data["cross-domain few-shot"] = {
        short = "A few-shot learning setting in which the target evaluation domain differs systematically from the source domain used for meta-training, requiring methods to generalize across distribution shifts.",
        article = nil,
        aliases = { "cross-domain few-shot learning", "CD-FSL", "cross domain few shot" },
        es = "Configuración de aprendizaje con pocos ejemplos en la que el dominio objetivo de evaluación difiere sistemáticamente del dominio fuente usado para el meta-entrenamiento, exigiendo que los métodos generalicen ante cambios de distribución.",
        zh = "一种小样本学习设置,目标评估域与用于元训练的源域存在系统性差异,要求方法能够跨分布偏移进行泛化。",
        term_es = "few-shot inter-dominio",
        term_zh = "跨域小样本",
        aliases_es = { "aprendizaje few-shot inter-dominio", "CD-FSL" },
        aliases_zh = { "跨领域小样本", "跨域小样本学习", "CD-FSL" },
    }
    
    data["cross-encoder"] = {
        short = "A neural ranking architecture in which a query and a candidate document are concatenated and passed jointly through a transformer encoder, producing a single relevance score from the contextualized representation.",
        article = nil,
        aliases = { "Cross-Encoder", "cross encoder", "cross-attention reranker", "joint encoder" },
        es = "Arquitectura neuronal de ranking en la que una consulta y un documento candidato se concatenan y se pasan conjuntamente por un codificador transformer, produciendo una única puntuación de relevancia a partir de la representación contextualizada.",
        zh = "一种神经排序架构,将查询和候选文档拼接后共同输入 Transformer 编码器,从上下文化表示中产生单一的相关性分数。",
        term_es = "cross-encoder",
        term_zh = "cross-encoder",
        aliases_es = { "cross encoder", "codificador cruzado", "reranker de atención cruzada" },
        aliases_zh = { "cross encoder", "交叉编码器", "联合编码器" },
    }
    
    data["cross-entropy"] = {
        short = "The expected negative log-probability of samples drawn from distribution p evaluated under model distribution q: H(p,q) = −Σ p(x) log q(x). Used as a loss for classification and density estimation; equals H(p) + KL(p‖q).",
        article = "Cross-Entropy Loss",
        aliases = { "cross entropy", "H(p,q)", "cross-entropy loss", "cross entropy loss", "log loss" },
        es = "Esperanza del logaritmo negativo de la probabilidad de muestras extraídas de la distribución p evaluadas bajo la distribución del modelo q: H(p,q) = −Σ p(x) log q(x). Se usa como pérdida en clasificación y estimación de densidad; equivale a H(p) + KL(p‖q).",
        zh = "在模型分布 q 下,由分布 p 抽取的样本的负对数概率的期望:H(p,q) = −Σ p(x) log q(x)。常用作分类与密度估计的损失,等于 H(p) + KL(p‖q)。",
        term_es = "entropía cruzada",
        term_zh = "交叉熵",
        aliases_es = { "pérdida de entropía cruzada", "log-pérdida" },
        aliases_zh = { "交叉熵损失", "对数损失" },
    }
    
    data["cross-entropy loss"] = {
        short = "A loss function measuring the dissimilarity between a predicted probability distribution and a target distribution, computed as the negative log-likelihood of the target classes under the model.",
        article = "Cross-Entropy Loss",
        aliases = { "cross entropy loss", "cross-entropy", "log loss", "logistic loss" },
        es = "Función de pérdida que mide la disparidad entre una distribución de probabilidad predicha y una distribución objetivo, calculada como la log-verosimilitud negativa de las clases objetivo bajo el modelo.",
        zh = "衡量预测概率分布与目标分布差异的损失函数,等价于在模型下目标类别的负对数似然。",
        term_es = "pérdida de entropía cruzada",
        term_zh = "交叉熵损失",
        aliases_es = { "entropía cruzada", "log-loss" },
        aliases_zh = { "交叉熵", "对数损失" },
    }
    
    data["cross-fitting"] = {
        short = "A sample-splitting technique used in double/debiased machine learning where nuisance functions are fit on one fold and the target parameter is estimated on the held-out fold, then averaged across folds, removing overfitting bias.",
        article = nil,
        aliases = { "cross fitting", "K-fold cross-fitting", "DML cross-fitting" },
        es = "Técnica de partición muestral usada en machine learning doble/desdoblado en la que las funciones de molestia se ajustan en un pliegue y el parámetro objetivo se estima en el pliegue retenido, promediando luego entre pliegues para eliminar el sesgo por sobreajuste.",
        zh = "双重/去偏机器学习中使用的样本划分技术:在一折上拟合冗余函数、在留出的另一折上估计目标参数,然后跨折平均,从而消除过拟合偏差。",
        term_es = "cross-fitting",
        term_zh = "交叉拟合",
        aliases_es = { "ajuste cruzado", "validación cruzada para DML" },
        aliases_zh = { "cross-fitting", "K 折交叉拟合", "DML 交叉拟合" },
    }
    
    data["cross-lingual tts"] = {
        short = "Text-to-speech synthesis that produces speech in a target language using a voice or model trained primarily on a different source language. Requires disentangling speaker identity from language-specific phonetics and prosody.",
        article = nil,
        aliases = { "cross-lingual text-to-speech", "multilingual TTS", "CL-TTS" },
        es = "Síntesis de voz que produce habla en un idioma objetivo a partir de una voz o modelo entrenado principalmente en otro idioma fuente. Requiere desacoplar la identidad del hablante de la fonética y prosodia específicas del idioma.",
        zh = "用主要在某一源语言上训练的声音或模型,合成另一目标语言的语音。需要将说话人身份与该语言特定的音素和韵律解耦。",
        term_es = "TTS multilingüe",
        term_zh = "跨语种语音合成",
        aliases_es = { "TTS interlingüe", "síntesis de voz multilingüe", "TTS translingüe" },
        aliases_zh = { "跨语言 TTS", "多语种语音合成", "跨语言文本到语音" },
    }
    
    data["cross-lingual voice cloning"] = {
        short = "The task of reproducing a target speaker's voice in a language they were never recorded speaking, typically by combining a speaker encoder with a multilingual TTS backbone. Evaluated on speaker similarity, naturalness, and accent control.",
        article = nil,
        aliases = { "cross-language voice cloning", "multilingual voice cloning", "cross-lingual speaker cloning" },
        es = "Tarea consistente en reproducir la voz de un hablante objetivo en un idioma que nunca se le grabó hablar, normalmente combinando un codificador de hablante con un TTS multilingüe. Se evalúa por similitud de hablante, naturalidad y control de acento.",
        zh = "在目标说话人从未被录制过的语言中复刻其声音,通常将说话人编码器与多语种 TTS 主干结合。常按说话人相似度、自然度和口音可控性进行评估。",
        term_es = "clonación de voz multilingüe",
        term_zh = "跨语种声音克隆",
        aliases_es = { "clonación de voz interlingüe", "clonación de voz translingüe" },
        aliases_zh = { "跨语言声音克隆", "多语种声音克隆", "跨语种语音克隆" },
    }
    
    data["cross-modal alignment"] = {
        short = "The process of mapping representations from different modalities, such as images, text, audio, or video, into a common space where semantically corresponding items are close together.",
        article = nil,
        aliases = { "cross modal alignment", "multimodal alignment", "modality alignment" },
        es = "Proceso de proyectar representaciones de distintas modalidades, como imágenes, texto, audio o vídeo, a un espacio común donde los elementos semánticamente correspondientes quedan cercanos entre sí.",
        zh = "将来自不同模态(如图像、文本、音频或视频)的表示映射到一个公共空间,使语义对应的元素彼此靠近的过程。",
        term_es = "alineación intermodal",
        term_zh = "跨模态对齐",
        aliases_es = { "alineación multimodal", "alineamiento intermodal" },
        aliases_zh = { "多模态对齐", "模态对齐" },
    }
    
    data["cross-modal contrastive learning"] = {
        short = "A self-supervised paradigm in which paired samples from different modalities are treated as positives and unpaired samples as negatives, training encoders to produce similar representations for matched cross-modal pairs.",
        article = nil,
        aliases = { "cross modal contrastive learning", "multimodal contrastive learning", "intermodal contrastive learning" },
        es = "Paradigma autosupervisado en el que muestras emparejadas de distintas modalidades se tratan como positivas y las no emparejadas como negativas, entrenando codificadores para producir representaciones similares en los pares intermodales correspondientes.",
        zh = "一种自监督范式,将来自不同模态的配对样本视为正例、未配对样本视为负例,训练编码器为匹配的跨模态对生成相似的表示。",
        term_es = "aprendizaje contrastivo intermodal",
        term_zh = "跨模态对比学习",
        aliases_es = { "aprendizaje contrastivo multimodal" },
        aliases_zh = { "多模态对比学习", "模态间对比学习" },
    }
    
    data["cross-modal distillation"] = {
        short = "A knowledge distillation technique in which a teacher model in one modality transfers its representations or predictions to a student model operating on a different modality, often used to bootstrap learning when paired data is scarce in one modality.",
        article = nil,
        aliases = { "cross modal distillation", "modality distillation", "cross-modal knowledge distillation" },
        es = "Técnica de destilación de conocimiento en la que un modelo maestro de una modalidad transfiere sus representaciones o predicciones a un modelo estudiante que opera en otra modalidad, usada con frecuencia para iniciar el aprendizaje cuando los datos emparejados escasean en una modalidad.",
        zh = "一种知识蒸馏技术:在某一模态上的教师模型将其表示或预测迁移给在另一模态上工作的学生模型,常用于在某一模态配对数据稀缺时引导学习。",
        term_es = "destilación intermodal",
        term_zh = "跨模态蒸馏",
        aliases_es = { "destilación de conocimiento intermodal", "destilación entre modalidades" },
        aliases_zh = { "跨模态知识蒸馏", "模态间蒸馏" },
    }
    
    data["cross-modal embedding"] = {
        short = "A vector representation that places items from different modalities into a shared space such that similarity in the space reflects semantic correspondence across modalities.",
        article = nil,
        aliases = { "cross modal embedding", "joint embedding", "multimodal embedding" },
        es = "Representación vectorial que sitúa elementos de distintas modalidades en un espacio compartido, de modo que la similitud en dicho espacio refleje la correspondencia semántica entre modalidades.",
        zh = "一种向量表示,将不同模态的项目嵌入到一个共享空间,使空间中的相似度反映跨模态的语义对应。",
        term_es = "incrustación intermodal",
        term_zh = "跨模态嵌入",
        aliases_es = { "embedding intermodal", "embedding multimodal", "incrustación multimodal" },
        aliases_zh = { "多模态嵌入", "联合嵌入", "跨模态向量表示" },
    }
    
    data["cross-modal fusion"] = {
        short = "The combination of features or representations from multiple modalities into a unified representation, typically via concatenation, attention, gating, or transformer layers, to enable joint reasoning over heterogeneous inputs.",
        article = nil,
        aliases = { "cross modal fusion", "modality fusion", "multimodal fusion" },
        es = "Combinación de características o representaciones de múltiples modalidades en una representación unificada, normalmente mediante concatenación, atención, compuertas o capas transformer, para permitir el razonamiento conjunto sobre entradas heterogéneas.",
        zh = "将来自多种模态的特征或表示融合为统一表示的过程,通常通过拼接、注意力、门控或Transformer层实现,从而支持对异构输入的联合推理。",
        term_es = "fusión intermodal",
        term_zh = "跨模态融合",
        aliases_es = { "fusión multimodal", "fusión de modalidades" },
        aliases_zh = { "多模态融合", "模态融合" },
    }
    
    data["cross-modal generation"] = {
        short = "The task of producing content in one modality conditioned on input from another, such as text-to-image, image-to-text, or audio-to-video synthesis.",
        article = nil,
        aliases = { "cross modal generation", "modality translation generation", "multimodal generation" },
        es = "Tarea de producir contenido en una modalidad condicionado por la entrada en otra, como la síntesis de texto a imagen, de imagen a texto o de audio a vídeo.",
        zh = "在一种模态的输入条件下生成另一种模态内容的任务,例如文本到图像、图像到文本或音频到视频的合成。",
        term_es = "generación intermodal",
        term_zh = "跨模态生成",
        aliases_es = { "generación multimodal" },
        aliases_zh = { "多模态生成", "模态间生成" },
    }
    
    data["cross-modal hashing"] = {
        short = "A retrieval technique that learns compact binary codes for items in different modalities such that semantically similar cross-modal pairs receive similar Hamming-distance codes, enabling fast approximate nearest-neighbor search.",
        article = nil,
        aliases = { "cross modal hashing", "multimodal hashing", "CMH" },
        es = "Técnica de recuperación que aprende códigos binarios compactos para elementos de distintas modalidades, de modo que los pares intermodales semánticamente similares reciben códigos cercanos en distancia de Hamming, permitiendo búsquedas aproximadas de vecinos más cercanos.",
        zh = "一种检索技术,为不同模态的项目学习紧凑的二进制编码,使语义相似的跨模态对在汉明距离上相近,从而支持快速的近似最近邻搜索。",
        term_es = "hashing intermodal",
        term_zh = "跨模态哈希",
        aliases_es = { "CMH", "hashing multimodal" },
        aliases_zh = { "CMH", "多模态哈希" },
    }
    
    data["cross-modal pretraining"] = {
        short = "Large-scale pretraining of models on data spanning multiple modalities, learning shared or aligned representations that transfer to a wide range of downstream multimodal tasks.",
        article = nil,
        aliases = { "cross modal pretraining", "multimodal pretraining", "modality-aligned pretraining" },
        es = "Preentrenamiento a gran escala de modelos sobre datos que abarcan múltiples modalidades, aprendiendo representaciones compartidas o alineadas que se transfieren a una amplia gama de tareas multimodales posteriores.",
        zh = "在跨多种模态的数据上对模型进行大规模预训练,学习共享或对齐的表示,并迁移到各种下游多模态任务。",
        term_es = "preentrenamiento intermodal",
        term_zh = "跨模态预训练",
        aliases_es = { "preentrenamiento multimodal" },
        aliases_zh = { "多模态预训练" },
    }
    
    data["cross-modal projection"] = {
        short = "A learned mapping, typically a linear or shallow neural transformation, that projects features from one modality into the embedding space of another or into a shared space for cross-modal comparison.",
        article = nil,
        aliases = { "cross modal projection", "modality projection", "projection head multimodal" },
        es = "Mapeo aprendido, normalmente una transformación lineal o neuronal poco profunda, que proyecta características de una modalidad al espacio de incrustaciones de otra o a un espacio compartido para la comparación intermodal.",
        zh = "一种学习得到的映射,通常是线性或浅层神经变换,将一种模态的特征投影到另一种模态的嵌入空间或共享空间,以进行跨模态比较。",
        term_es = "proyección intermodal",
        term_zh = "跨模态投影",
        aliases_es = { "proyección multimodal", "proyección de modalidad" },
        aliases_zh = { "多模态投影", "模态投影" },
    }
    
    data["cross-modal reasoning"] = {
        short = "Inference that combines information from multiple modalities, such as answering questions about an image given text or grounding language in visual scenes, requiring joint understanding rather than independent processing.",
        article = nil,
        aliases = { "cross modal reasoning", "multimodal reasoning", "modality-grounded reasoning" },
        es = "Inferencia que combina información de varias modalidades, como responder preguntas sobre una imagen a partir de texto o anclar el lenguaje en escenas visuales, requiriendo comprensión conjunta en lugar de procesamiento independiente.",
        zh = "结合来自多种模态的信息进行推理,例如根据文本回答关于图像的问题或将语言定位到视觉场景中,需要联合理解而非独立处理各模态。",
        term_es = "razonamiento intermodal",
        term_zh = "跨模态推理",
        aliases_es = { "razonamiento multimodal" },
        aliases_zh = { "多模态推理", "模态间推理" },
    }
    
    data["cross-modal retrieval"] = {
        short = "The task of retrieving items in one modality given a query in another, such as finding images that match a text description or captions that describe a given image.",
        article = nil,
        aliases = { "cross modal retrieval", "multimodal retrieval", "image-text retrieval", "text-image retrieval" },
        es = "Tarea de recuperar elementos de una modalidad a partir de una consulta en otra, como encontrar imágenes que coincidan con una descripción textual o leyendas que describan una imagen dada.",
        zh = "根据某一模态的查询在另一模态中检索项目的任务,例如根据文本描述检索图像或为给定图像检索字幕。",
        term_es = "recuperación intermodal",
        term_zh = "跨模态检索",
        aliases_es = { "recuperación multimodal", "recuperación imagen-texto" },
        aliases_zh = { "多模态检索", "图文检索", "文本-图像检索" },
    }
    
    data["cross-modal transfer"] = {
        short = "Transfer learning across modalities, where knowledge acquired from training on one modality is reused to improve performance on a task in another modality.",
        article = nil,
        aliases = { "cross modal transfer", "modality transfer", "multimodal transfer learning" },
        es = "Aprendizaje por transferencia entre modalidades, en el que el conocimiento obtenido al entrenar en una modalidad se reutiliza para mejorar el desempeño de una tarea en otra modalidad.",
        zh = "跨模态的迁移学习:将在一种模态上训练所获得的知识,用于改进另一种模态上任务的表现。",
        term_es = "transferencia intermodal",
        term_zh = "跨模态迁移",
        aliases_es = { "transferencia multimodal", "aprendizaje por transferencia intermodal" },
        aliases_zh = { "多模态迁移", "模态间迁移", "跨模态迁移学习" },
    }
    
    data["cross-modal translation"] = {
        short = "The task of converting input from one modality into output in another, such as image captioning (image-to-text), text-to-speech, or speech-to-image generation.",
        article = nil,
        aliases = { "cross modal translation", "modality translation", "multimodal translation" },
        es = "Tarea de convertir una entrada en una modalidad en una salida en otra, como la generación de leyendas de imagen (imagen a texto), la conversión de texto a voz o la generación de imágenes a partir del habla.",
        zh = "将一种模态的输入转换为另一种模态输出的任务,例如图像描述(图像到文本)、文本到语音或语音到图像生成。",
        term_es = "traducción intermodal",
        term_zh = "跨模态翻译",
        aliases_es = { "traducción multimodal", "traducción entre modalidades" },
        aliases_zh = { "多模态翻译", "模态间翻译", "跨模态转换" },
    }
    
    data["cross-modal zero-shot transfer"] = {
        short = "The ability of a multimodal model trained on one set of modality pairs to generalize to unseen categories or tasks in a different modality without task-specific fine-tuning, exemplified by CLIP's zero-shot image classification via text prompts.",
        article = nil,
        aliases = { "cross modal zero-shot transfer", "zero-shot cross-modal transfer", "multimodal zero-shot transfer" },
        es = "Capacidad de un modelo multimodal entrenado en un conjunto de pares de modalidades para generalizar a categorías o tareas no vistas en una modalidad diferente sin ajuste específico de la tarea, ejemplificada por la clasificación de imágenes en cero disparos de CLIP mediante indicaciones textuales.",
        zh = "在一组模态配对上训练的多模态模型,无需针对特定任务进行微调,便能泛化到另一模态中未见的类别或任务的能力,CLIP通过文本提示实现的零样本图像分类即为典型例子。",
        term_es = "transferencia intermodal en cero disparos",
        term_zh = "跨模态零样本迁移",
        aliases_es = { "transferencia multimodal en cero disparos", "transferencia zero-shot intermodal" },
        aliases_zh = { "零样本跨模态迁移", "多模态零样本迁移" },
    }
    
    data["cross-silo federated learning"] = {
        short = "A federated learning setting in which a small number of reliable organizational participants—such as hospitals, banks, or companies—jointly train a model on their siloed datasets, typically with full participation in each round.",
        article = nil,
        aliases = { "cross silo federated learning", "cross-silo FL", "institutional federated learning" },
        es = "Variante de aprendizaje federado en la que un pequeño número de participantes institucionales fiables, como hospitales, bancos o empresas, entrenan conjuntamente un modelo sobre sus datos en silos, normalmente con participación completa en cada ronda.",
        zh = "一种联邦学习设置:少量可靠的机构参与方(如医院、银行或公司)基于各自的数据孤岛联合训练模型,通常每轮全部参与。",
        term_es = "aprendizaje federado entre silos",
        term_zh = "跨筒仓联邦学习",
        aliases_es = { "FL entre silos", "aprendizaje federado cross-silo" },
        aliases_zh = { "跨机构联邦学习", "跨数据孤岛联邦学习", "Cross-silo FL" },
    }
    
    data["cross-species transfer"] = {
        short = "Transfer learning approach in computational biology where a model trained on one species (typically data-rich, such as human or mouse) is applied or fine-tuned to predict in another species with limited labeled data.",
        article = nil,
        aliases = { "cross-species transfer learning", "interspecies transfer", "species transfer" },
        es = "Enfoque de aprendizaje por transferencia en biología computacional en el que un modelo entrenado en una especie (típicamente con muchos datos, como humano o ratón) se aplica o ajusta para predecir en otra especie con datos etiquetados limitados.",
        zh = "计算生物学中的迁移学习方法:在数据丰富的物种(如人或小鼠)上训练的模型被应用于或微调到标注数据有限的另一物种以进行预测。",
        term_es = "transferencia entre especies",
        term_zh = "跨物种迁移",
        aliases_es = { "aprendizaje por transferencia entre especies", "transferencia interespecífica" },
        aliases_zh = { "跨物种迁移学习", "物种间迁移", "跨物种迁移学习" },
    }
    
    data["cross-validation"] = {
        short = "A model-evaluation procedure that repeatedly partitions the data into training and validation subsets, training on each split and averaging the resulting performance to obtain a more reliable estimate of generalization.",
        article = nil,
        aliases = { "CV", "cross validation", "rotation estimation" },
        es = "Procedimiento de evaluación que particiona repetidamente los datos en subconjuntos de entrenamiento y validación, entrenando en cada partición y promediando el rendimiento obtenido para conseguir una estimación más fiable de la generalización.",
        zh = "一种模型评估方法,反复将数据划分为训练和验证子集,在每个划分上训练并对所得性能取平均,以获得对泛化能力更可靠的估计。",
        term_es = "validación cruzada",
        term_zh = "交叉验证",
        aliases_es = { "CV", "validación-cruzada" },
        aliases_zh = { "CV", "交叉校验" },
    }
    
    data["cross-validation hpo"] = {
        short = "Hyperparameter optimization that estimates each candidate configuration's generalization error using k-fold cross-validation rather than a single held-out validation split, reducing variance at higher compute cost.",
        article = nil,
        aliases = { "cross-validated HPO", "CV-based hyperparameter optimization", "k-fold HPO" },
        es = "Optimización de hiperparámetros que estima el error de generalización de cada configuración candidata mediante validación cruzada de k particiones en lugar de una única partición de validación, reduciendo la varianza a costa de mayor cómputo.",
        zh = "一种超参数优化方法,使用 k 折交叉验证而非单一验证集来估计每个候选配置的泛化误差,以更高的计算开销换取更低的方差。",
        term_es = "HPO con validación cruzada",
        term_zh = "交叉验证 HPO",
        aliases_es = { "optimización de hiperparámetros con validación cruzada", "HPO basado en CV" },
        aliases_zh = { "基于交叉验证的超参数优化", "k 折 HPO" },
    }
    
    data["crosscoder"] = {
        short = "A sparse autoencoder variant (Anthropic, 2024) trained jointly on activations from multiple layers — or multiple models — to learn shared dictionary features, enabling cross-layer or cross-model circuit analysis and feature alignment.",
        article = nil,
        aliases = { "cross-coder", "crosscoders", "cross coder" },
        es = "Variante de autoencoder disperso (Anthropic, 2024) entrenada conjuntamente sobre activaciones de múltiples capas o modelos para aprender características de diccionario compartidas, lo que permite análisis de circuitos y alineamiento de características entre capas o modelos.",
        zh = "一种稀疏自编码器变体(Anthropic,2024),在多个层或多个模型的激活上联合训练以学习共享字典特征,可用于跨层或跨模型的电路分析与特征对齐。",
        term_es = "crosscoder",
        term_zh = "crosscoder",
        aliases_es = { "cross-coder", "codificador cruzado" },
        aliases_zh = { "交叉编码器", "跨层稀疏自编码器" },
    }
    
    data["crossover operator"] = {
        short = "In evolutionary algorithms, a variation operator that combines components of two or more parent solutions to produce offspring, propagating useful building blocks across generations.",
        article = nil,
        aliases = { "crossover", "recombination operator", "genetic crossover" },
        es = "En algoritmos evolutivos, operador de variación que combina componentes de dos o más soluciones parentales para producir descendencia, propagando bloques útiles a través de generaciones.",
        zh = "在进化算法中,将两个或多个父代解的组成部分组合以产生后代的变异算子,使有用的构件能够跨代传递。",
        term_es = "operador de cruce",
        term_zh = "交叉算子",
        aliases_es = { "cruce", "operador de recombinación" },
        aliases_zh = { "交叉操作", "重组算子" },
    }
    
    data["crowdsourcing bias"] = {
        short = "Systematic skew introduced into datasets when annotation tasks are distributed to crowdworker populations whose demographics, training, incentives, or cultural context differ from the population the resulting model will serve.",
        article = nil,
        aliases = { "annotator bias", "crowd worker bias", "crowdworker bias" },
        es = "Sesgo sistemático introducido en los conjuntos de datos cuando las tareas de anotación se distribuyen a poblaciones de trabajadores colaborativos cuya demografía, formación, incentivos o contexto cultural difieren de la población a la que servirá el modelo resultante.",
        zh = "在将标注任务分发给众包工作者时,由于这些工作者的人口构成、培训背景、激励机制或文化背景与模型最终服务对象不同,而引入数据集的系统性偏差。",
        term_es = "sesgo de crowdsourcing",
        term_zh = "众包偏差",
        aliases_es = { "sesgo del anotador", "sesgo de los trabajadores colaborativos" },
        aliases_zh = { "标注者偏差", "众包标注偏差", "众包工作者偏差" },
    }
    
    data["crowspairs"] = {
        short = "CrowS-Pairs is a crowdsourced benchmark of 1,508 sentence pairs designed to measure social biases (race, gender, sexual orientation, religion, age, nationality, disability, physical appearance, socioeconomic status) encoded in masked language models. Introduced by Nangia et al. (2020).",
        article = nil,
        aliases = { "CrowS-Pairs", "Crowdsourced Stereotype Pairs", "CrowSPairs", "CrowS Pairs" },
        es = "CrowS-Pairs es un benchmark colaborativo de 1.508 pares de oraciones diseñado para medir los sesgos sociales (raza, género, orientación sexual, religión, edad, nacionalidad, discapacidad, apariencia física, estatus socioeconómico) codificados en modelos de lenguaje enmascarado. Introducido por Nangia et al. (2020).",
        zh = "CrowS-Pairs 是一个众包构建的基准,包含 1,508 对句子,用于衡量掩码语言模型中编码的社会偏见(种族、性别、性取向、宗教、年龄、国籍、残障、外貌、社会经济地位)。由 Nangia 等人(2020 年)提出。",
        term_es = "CrowS-Pairs",
        term_zh = "CrowS-Pairs",
        aliases_es = { "CrowS-Pairs", "Crowdsourced Stereotype Pairs" },
        aliases_zh = { "CrowS-Pairs", "众包刻板印象对", "众包成对刻板印象基准" },
    }
    
    data["cryo-em"] = {
        short = "Cryogenic electron microscopy: a structural biology technique that images biomolecules embedded in vitreous ice with an electron beam, enabling near-atomic resolution structure determination via single-particle reconstruction or tomography.",
        article = nil,
        aliases = { "cryo-EM", "cryogenic electron microscopy", "cryoEM", "electron cryo-microscopy" },
        es = "Microscopía electrónica criogénica: técnica de biología estructural que toma imágenes de biomoléculas embebidas en hielo vítreo con un haz de electrones, permitiendo la determinación de estructuras a resolución cercana a la atómica mediante reconstrucción de partícula única o tomografía.",
        zh = "冷冻电子显微镜:一种结构生物学技术,用电子束对包埋在玻璃态冰中的生物大分子成像,通过单颗粒重构或断层成像实现接近原子分辨率的结构解析。",
        term_es = "crio-ME",
        term_zh = "冷冻电镜",
        aliases_es = { "crio-EM", "criomicroscopía electrónica", "microscopía electrónica criogénica" },
        aliases_zh = { "cryo-EM", "冷冻电子显微术", "低温电子显微镜" },
    }
    
    data["cryosparc"] = {
        short = "A widely used software package for processing cryo-electron microscopy data, providing GPU-accelerated single-particle 2D classification, ab initio reconstruction, and high-resolution 3D refinement.",
        article = nil,
        aliases = { "CryoSPARC", "cryoSPARC" },
        es = "Paquete de software ampliamente utilizado para procesar datos de microscopía electrónica criogénica, que proporciona clasificación 2D, reconstrucción ab initio y refinamiento 3D a alta resolución de partícula única acelerados por GPU.",
        zh = "广泛使用的冷冻电镜数据处理软件包,提供GPU加速的单颗粒二维分类、从头重构和高分辨率三维精修。",
        term_es = "CryoSPARC",
        term_zh = "CryoSPARC",
        aliases_es = { "cryoSPARC" },
        aliases_zh = { "cryoSPARC", "CryoSPARC 软件" },
    }
    
    data["cryptic pocket detection"] = {
        short = "The identification of druggable binding sites that are absent or occluded in apo crystal structures and only become accessible after ligand binding or conformational change.",
        article = nil,
        aliases = { "cryptic site detection", "cryptic binding site prediction", "cryptic pocket prediction", "hidden pocket detection" },
        es = "Identificación de sitios de unión farmacológicamente útiles que están ausentes u ocluidos en estructuras cristalinas apo y solo se vuelven accesibles tras la unión de un ligando o un cambio conformacional.",
        zh = "识别在 apo 晶体结构中缺失或被遮蔽、只有在配体结合或构象变化后才暴露的可成药结合位点。",
        term_es = "detección de bolsillos crípticos",
        term_zh = "隐性口袋检测",
        aliases_es = { "predicción de sitios crípticos", "detección de sitios de unión crípticos", "predicción de bolsillos crípticos" },
        aliases_zh = { "隐性结合位点检测", "隐性口袋预测", "隐性结合口袋识别" },
    }
    
    data["csp"] = {
        short = "Acronym for constraint satisfaction problem: finding an assignment of values to variables, drawn from given domains, that simultaneously satisfies a set of constraints over those variables.",
        article = nil,
        aliases = { "CSP", "constraint satisfaction problem", "constraint-satisfaction problem" },
        es = "Sigla de problema de satisfacción de restricciones: encontrar una asignación de valores a variables, tomados de dominios dados, que satisfaga simultáneamente un conjunto de restricciones sobre esas variables.",
        zh = "约束满足问题(constraint satisfaction problem)的缩写:在给定取值域中为变量寻找一组赋值,使其同时满足所有约束。",
        term_es = "CSP",
        term_zh = "CSP",
        aliases_es = { "CSP", "problema de satisfacción de restricciones" },
        aliases_zh = { "CSP", "约束满足问题" },
    }
    
    data["ctc beam search"] = {
        short = "A beam search decoder for CTC outputs that maintains a beam of candidate label sequences (with separate blank-extending and non-blank-extending probabilities) and merges paths that collapse to the same label sequence. Often combined with an external language model.",
        article = nil,
        aliases = { "CTC beam search", "CTC prefix beam search", "prefix beam search" },
        es = "Decodificador de búsqueda en haz para salidas CTC que mantiene un haz de secuencias candidatas (con probabilidades separadas para extensiones blank y no-blank) y fusiona caminos que colapsan a la misma secuencia. Suele combinarse con un modelo de lenguaje externo.",
        zh = "面向 CTC 输出的束搜索解码器,维护多条候选标签序列(分别记录以空白和非空白扩展的概率),并合并坍缩为相同标签序列的路径。常与外部语言模型联合使用。",
        term_es = "beam search CTC",
        term_zh = "CTC 束搜索",
        aliases_es = { "búsqueda en haz CTC", "prefix beam search CTC" },
        aliases_zh = { "CTC 束搜索解码", "CTC 前缀束搜索" },
    }
    
    data["ctc decoding"] = {
        short = "Inference for CTC-trained models, mapping per-frame label posteriors to a hypothesis sequence by collapsing repeated labels and removing blanks. Variants include greedy (best-path), prefix beam search, and WFST-based decoding with an external LM.",
        article = nil,
        aliases = { "CTC decoding", "CTC inference", "CTC best path decoding" },
        es = "Inferencia en modelos entrenados con CTC, donde se mapean las probabilidades por trama a una hipótesis colapsando repeticiones y eliminando blanks. Incluye variantes greedy (best-path), prefix beam search y decodificación basada en WFST con LM externo.",
        zh = "对以 CTC 训练的模型进行推理:将逐帧标签后验通过合并重复标签和去除空白映射为输出序列。常见变体包括贪心(最佳路径)、前缀束搜索以及带外部语言模型的 WFST 解码。",
        term_es = "decodificación CTC",
        term_zh = "CTC 解码",
        aliases_es = { "inferencia CTC", "decodificación greedy CTC" },
        aliases_zh = { "CTC 推理", "CTC 最佳路径解码" },
    }
    
    data["ctc loss"] = {
        short = "Connectionist Temporal Classification: a sequence-level loss for unaligned input/output pairs that sums the probabilities of all alignments compatible with the target via a blank symbol and dynamic programming. Standard for end-to-end speech recognition without frame-level labels.",
        article = nil,
        aliases = { "CTC loss", "CTC", "Connectionist Temporal Classification", "Connectionist Temporal Classification loss" },
        es = "Connectionist Temporal Classification: pérdida a nivel de secuencia para pares entrada/salida no alineados, que suma mediante programación dinámica las probabilidades de todas las alineaciones compatibles con el objetivo usando un símbolo blank. Estándar en reconocimiento de voz extremo a extremo sin etiquetas por trama.",
        zh = "连接时序分类损失:用于输入与输出未对齐序列的训练目标,通过引入空白符号并以动态规划对所有与目标兼容的对齐路径概率求和。是端到端语音识别中无需帧级标注的标准方案。",
        term_es = "pérdida CTC",
        term_zh = "CTC 损失",
        aliases_es = { "CTC", "clasificación temporal conexionista", "pérdida de clasificación temporal conexionista" },
        aliases_zh = { "CTC", "连接主义时间分类", "连接时序分类" },
    }
    
    data["ctc-attention joint training"] = {
        short = "A multi-task training scheme for end-to-end ASR in which an encoder is shared between a CTC head and an attention-based decoder, with the loss being a weighted sum of CTC and cross-entropy. Improves convergence and provides monotonic alignment as a regularizer.",
        article = nil,
        aliases = { "joint CTC-attention training", "hybrid CTC/attention", "CTC-attention multitask" },
        es = "Esquema de entrenamiento multitarea para ASR extremo a extremo en el que un codificador compartido alimenta una cabeza CTC y un decodificador atencional, con una pérdida que es suma ponderada de CTC y entropía cruzada. Mejora la convergencia y aporta una alineación monótona como regularizador.",
        zh = "面向端到端 ASR 的多任务训练框架:共享编码器同时驱动 CTC 头和注意力解码器,损失为 CTC 与交叉熵的加权和。可加速收敛并以单调对齐起到正则化作用。",
        term_es = "entrenamiento conjunto CTC-atención",
        term_zh = "CTC-注意力联合训练",
        aliases_es = { "entrenamiento conjunto CTC/atención", "CTC/atención híbrido", "multitarea CTC-atención" },
        aliases_zh = { "CTC 与注意力联合训练", "混合 CTC/注意力", "CTC-attention 多任务训练" },
    }
    
    data["ctcf binding"] = {
        short = "Sequence-specific DNA binding by the CCCTC-binding factor (CTCF), a zinc-finger transcription factor that mediates chromatin loop formation, insulator activity, and topologically associating domain boundaries.",
        article = nil,
        aliases = { "CTCF binding", "CTCF binding sites", "CCCTC-binding factor binding" },
        es = "Unión específica al ADN por el factor de unión CCCTC (CTCF), un factor de transcripción de dedos de zinc que media la formación de bucles de cromatina, la actividad aisladora y los límites de los dominios asociados topológicamente.",
        zh = "CCCTC结合因子(CTCF)对DNA的序列特异性结合;CTCF是一种锌指转录因子,介导染色质环形成、绝缘子活性以及拓扑关联结构域的边界。",
        term_es = "unión de CTCF",
        term_zh = "CTCF 结合",
        aliases_es = { "sitios de unión de CTCF", "unión del factor CTCF" },
        aliases_zh = { "CTCF 结合位点", "CCCTC 结合因子结合" },
    }
    
    data["ctf correction"] = {
        short = "Contrast transfer function correction: an essential step in cryo-EM image processing that compensates for phase and amplitude modulations introduced by the microscope's defocus and aberrations to recover high-resolution information.",
        article = nil,
        aliases = { "CTF correction", "contrast transfer function correction" },
        es = "Corrección de la función de transferencia de contraste: paso esencial en el procesamiento de imágenes crio-EM que compensa las modulaciones de fase y amplitud introducidas por el desenfoque y las aberraciones del microscopio para recuperar información a alta resolución.",
        zh = "对比传递函数(CTF)校正:冷冻电镜图像处理中的关键步骤,用于补偿显微镜散焦和像差引入的相位和振幅调制,从而恢复高分辨率信息。",
        term_es = "corrección de CTF",
        term_zh = "CTF 校正",
        aliases_es = { "corrección de la función de transferencia de contraste", "corrección CTF" },
        aliases_zh = { "对比传递函数校正", "衬度传递函数校正" },
    }
    
    data["cuda kernel"] = {
        short = "A function written in NVIDIA's CUDA programming model that is compiled to run in parallel across many GPU threads, used to implement low-level GPU operations such as matrix multiplications, attention, and custom layers.",
        article = nil,
        aliases = { "CUDA kernel", "CUDA kernels", "GPU kernel", "device kernel" },
        es = "Función escrita en el modelo de programación CUDA de NVIDIA que se compila para ejecutarse en paralelo en numerosos hilos de la GPU, utilizada para implementar operaciones de bajo nivel en GPU como multiplicaciones de matrices, atención y capas personalizadas.",
        zh = "在 NVIDIA CUDA 编程模型中编写的函数,经编译后在 GPU 的大量线程上并行执行,用于实现矩阵乘法、注意力和自定义层等底层 GPU 运算。",
        term_es = "kernel de CUDA",
        term_zh = "CUDA 核函数",
        aliases_es = { "kernel CUDA", "núcleo CUDA", "kernel de GPU" },
        aliases_zh = { "CUDA kernel", "CUDA 内核", "GPU 核函数", "设备核函数" },
    }
    
    data["cultural bias"] = {
        short = "Bias in data, models, or evaluation arising when assumptions, norms, or examples reflect a particular culture (often Western, English-speaking, urban) and disadvantage users from differing cultural contexts.",
        article = nil,
        aliases = { "cultural bias in AI", "ethnocentric bias", "Western bias" },
        es = "Sesgo en los datos, los modelos o la evaluación que surge cuando los supuestos, normas o ejemplos reflejan una cultura particular (a menudo occidental, anglófona, urbana) y perjudican a usuarios de contextos culturales distintos.",
        zh = "在数据、模型或评估中,因假设、规范或示例反映特定文化(通常是西方、英语、城市文化)而对来自不同文化背景的用户造成不利的偏差。",
        term_es = "sesgo cultural",
        term_zh = "文化偏差",
        aliases_es = { "sesgo etnocéntrico", "sesgo occidentalizado" },
        aliases_zh = { "文化偏见", "文化偏倚", "西方文化偏差" },
    }
    
    data["cumulative gain curve uplift"] = {
        short = "In uplift modeling, a curve plotting the cumulative incremental treatment effect against the fraction of the population ranked by predicted uplift; the area under the curve summarizes targeting performance.",
        article = nil,
        aliases = { "uplift cumulative gain curve", "uplift gain chart", "cumulative uplift curve" },
        es = "En modelado de uplift, curva que representa el efecto incremental acumulado del tratamiento frente a la fracción de la población ordenada por uplift predicho; el área bajo la curva resume el desempeño de la segmentación.",
        zh = "在增益建模中,将累积增量处置效应对按预测增益排序的总体比例作图所得的曲线;曲线下面积概括了目标定位性能。",
        term_es = "curva de ganancia acumulada de uplift",
        term_zh = "提升累积增益曲线",
        aliases_es = { "curva de uplift acumulado", "gráfico de ganancia uplift" },
        aliases_zh = { "增益累积曲线", "uplift 累积增益曲线" },
    }
    
    data["curiosity"] = {
        short = "An intrinsic reward signal in reinforcement learning that rewards the agent for visiting states that are novel or hard to predict, used to drive exploration when extrinsic rewards are sparse.",
        article = nil,
        aliases = { "curiosity-driven exploration", "curiosity bonus", "ICM", "intrinsic curiosity module" },
        es = "Señal de recompensa intrínseca en aprendizaje por refuerzo que recompensa al agente por visitar estados novedosos o difíciles de predecir, usada para impulsar la exploración cuando las recompensas extrínsecas son escasas.",
        zh = "强化学习中的一种内在奖励信号,因智能体访问新颖或难以预测的状态而给予奖励,用于在外在奖励稀疏时驱动探索。",
        term_es = "curiosidad",
        term_zh = "好奇心",
        aliases_es = { "exploración por curiosidad", "módulo de curiosidad intrínseca" },
        aliases_zh = { "好奇心驱动探索", "内在好奇心模块", "ICM" },
    }
    
    data["curriculum learning"] = {
        short = "A training strategy that presents examples to the model in a meaningful order—typically from easier to harder—so as to accelerate convergence and improve generalization, inspired by how humans and animals learn.",
        article = nil,
        aliases = { "CL", "curriculum-based learning", "curriculum-based training" },
        es = "Estrategia de entrenamiento que presenta los ejemplos al modelo en un orden significativo, normalmente de más fáciles a más difíciles, con el objetivo de acelerar la convergencia y mejorar la generalización, inspirándose en cómo aprenden humanos y animales.",
        zh = "一种训练策略,按照有意义的顺序(通常由易到难)将样本呈现给模型,以加速收敛并改善泛化能力,灵感来源于人类与动物的学习方式。",
        term_es = "aprendizaje por currículo",
        term_zh = "课程学习",
        aliases_es = { "aprendizaje curricular", "entrenamiento por currículo", "currículum learning" },
        aliases_zh = { "课程式学习", "渐进学习", "curriculum learning" },
    }
    
    data["cursor agent"] = {
        short = "An autonomous coding mode in the Cursor IDE in which an LLM plans, edits files, runs commands and iterates on a developer-supplied task across multiple steps with limited human supervision.",
        article = nil,
        aliases = { "Cursor Agent", "Cursor agent mode", "Cursor Composer Agent" },
        es = "Modo autónomo de codificación en el IDE Cursor en el que un LLM planifica, edita archivos, ejecuta comandos e itera sobre una tarea proporcionada por el desarrollador a lo largo de varios pasos con supervisión humana limitada.",
        zh = "Cursor 编辑器中的一种自主编码模式:由 LLM 针对开发者给定的任务进行规划、编辑文件、运行命令并多步迭代,仅需有限的人类监督。",
        term_es = "Cursor Agent",
        term_zh = "Cursor Agent",
        aliases_es = { "modo agente de Cursor" },
        aliases_zh = { "Cursor 智能体", "Cursor 代理模式" },
    }
    
    data["cut-and-run"] = {
        short = "An antibody-targeted method (CUT&RUN) that maps protein–DNA interactions by tethering micrococcal nuclease to a chromatin-bound antibody, releasing cleaved DNA fragments for sequencing with low background.",
        article = nil,
        aliases = { "CUT&RUN", "CUT and RUN", "cleavage under targets and release using nuclease" },
        es = "Método dirigido por anticuerpo (CUT&RUN) que mapea interacciones proteína–ADN anclando una nucleasa micrococal a un anticuerpo unido a la cromatina, liberando fragmentos de ADN cortados para secuenciar con bajo fondo.",
        zh = "一种由抗体靶向的方法(CUT&RUN),通过将微球菌核酸酶系链到结合染色质的抗体上,释放被切割的DNA片段进行测序,从而以低背景绘制蛋白质–DNA相互作用图谱。",
        term_es = "CUT&RUN",
        term_zh = "CUT&RUN",
        aliases_es = { "CUT and RUN", "Cleavage Under Targets and Release Using Nuclease" },
        aliases_zh = { "CUT and RUN", "靶向切割并核酸酶释放" },
    }
    
    data["cut-and-tag"] = {
        short = "An antibody-targeted method (CUT&Tag) that profiles protein–DNA interactions by tethering Tn5 transposase to a chromatin-bound antibody, simultaneously cleaving and tagging adjacent DNA for direct sequencing library preparation.",
        article = nil,
        aliases = { "CUT&Tag", "CUT and Tag", "cleavage under targets and tagmentation" },
        es = "Método dirigido por anticuerpo (CUT&Tag) que perfila interacciones proteína–ADN anclando la transposasa Tn5 a un anticuerpo unido a la cromatina, cortando y etiquetando simultáneamente el ADN adyacente para preparar directamente la biblioteca de secuenciación.",
        zh = "一种由抗体靶向的方法(CUT&Tag),通过将Tn5转座酶系链到结合染色质的抗体上,同时切割并标记相邻的DNA,直接生成测序文库以分析蛋白质–DNA相互作用。",
        term_es = "CUT&Tag",
        term_zh = "CUT&Tag",
        aliases_es = { "CUT and Tag", "Cleavage Under Targets and Tagmentation" },
        aliases_zh = { "CUT and Tag", "靶向切割并标签化" },
    }
    
    data["cutmix"] = {
        short = "A data-augmentation technique that replaces a randomly chosen rectangular region of one training image with a patch from another image and mixes the labels in proportion to the patch area.",
        article = nil,
        aliases = { "CutMix", "cut-mix", "cutmix augmentation" },
        es = "Técnica de aumento de datos que reemplaza una región rectangular elegida aleatoriamente en una imagen de entrenamiento por un parche de otra imagen y mezcla las etiquetas de forma proporcional al área del parche.",
        zh = "一种数据增强技术,将训练图像中随机选取的一块矩形区域替换为另一张图像的相应区域,并按补丁面积的比例混合两张图像的标签。",
        term_es = "cutmix",
        term_zh = "CutMix",
        aliases_es = { "aumento cutmix", "cut-mix" },
        aliases_zh = { "cutmix", "CutMix 增强", "剪切混合" },
    }
    
    data["cutoff"] = {
        short = "In regression discontinuity designs, the threshold value of the running variable that determines treatment assignment; identification of the local treatment effect relies on continuity of potential outcomes at this point.",
        article = nil,
        aliases = { "threshold", "RD cutoff", "discontinuity threshold", "cutpoint" },
        es = "En los diseños de regresión discontinua, el valor umbral de la variable de asignación que determina la recepción del tratamiento; la identificación del efecto local depende de la continuidad de los resultados potenciales en ese punto.",
        zh = "在回归断点设计中,决定处置分配的运行变量阈值;局部处置效应的识别依赖于潜在结果在该点的连续性。",
        term_es = "punto de corte",
        term_zh = "断点",
        aliases_es = { "umbral", "umbral de discontinuidad", "cutoff" },
        aliases_zh = { "截断点", "阈值", "断点阈值", "RD 断点" },
    }
    
    data["cutout"] = {
        short = "A data-augmentation technique for images that masks out a random fixed-size square region of the input by setting its pixels to zero (or a constant), forcing the model to use the remaining context.",
        article = nil,
        aliases = { "Cutout", "cut-out", "cutout augmentation" },
        es = "Técnica de aumento de datos para imágenes que oculta una región cuadrada de tamaño fijo elegida aleatoriamente en la entrada, fijando sus píxeles a cero (o a una constante), lo que obliga al modelo a aprovechar el contexto restante.",
        zh = "一种针对图像的数据增强技术,通过将输入中随机选定的固定大小方形区域的像素置零(或某常数),迫使模型利用其余上下文信息。",
        term_es = "cutout",
        term_zh = "Cutout",
        aliases_es = { "aumento cutout", "cut-out" },
        aliases_zh = { "cutout", "Cutout 增强", "随机遮挡" },
    }
    
    data["cutset conditioning"] = {
        short = "An exact inference technique for graphical models that conditions on the values of a small set of variables (the cutset) chosen to render the remaining graph a tree, then runs tree inference for each cutset assignment.",
        article = nil,
        aliases = { "loop cutset conditioning", "Pearl's cutset conditioning" },
        es = "Técnica de inferencia exacta para modelos gráficos que condiciona sobre un pequeño conjunto de variables (el cutset) elegidas para que el grafo restante sea un árbol, ejecutando inferencia en árbol para cada asignación del cutset.",
        zh = "图模型的一种精确推断技术:对一小组变量(割集)取条件以使剩余图成为树,然后对割集的每种取值在树上做推断。",
        term_es = "condicionamiento por cutset",
        term_zh = "割集条件化",
        aliases_es = { "condicionamiento por loop cutset", "cutset conditioning" },
        aliases_zh = { "环割集条件化", "Pearl 割集条件化" },
    }
    
    data["cutting plane inference"] = {
        short = "A MAP inference method for structured models that solves a linear programming relaxation, then iteratively adds violated linear constraints (cutting planes) to tighten the relaxation toward the integer optimum.",
        article = nil,
        aliases = { "cutting-plane inference", "cutting plane MAP inference" },
        es = "Método de inferencia MAP para modelos estructurados que resuelve una relajación de programación lineal y añade iterativamente restricciones lineales violadas (planos de corte) para ajustar la relajación hacia el óptimo entero.",
        zh = "结构化模型的 MAP 推断方法:求解线性规划松弛,然后迭代加入被违反的线性约束(切割平面)以收紧松弛,逼近整数最优。",
        term_es = "inferencia por planos de corte",
        term_zh = "切割平面推断",
        aliases_es = { "inferencia cutting-plane", "MAP por planos de corte" },
        aliases_zh = { "切割平面 MAP 推断", "cutting plane 推断" },
    }
    
    data["cutting plane method"] = {
        short = "An iterative optimization algorithm that solves an integer or convex program by repeatedly adding linear inequalities (cuts) that exclude the current relaxed optimum without removing any feasible integer point.",
        article = nil,
        aliases = { "cutting-plane method", "cutting planes", "Gomory cuts", "cutting plane algorithm" },
        es = "Algoritmo de optimización iterativo que resuelve un programa entero o convexo añadiendo repetidamente desigualdades lineales (cortes) que excluyen el óptimo relajado actual sin eliminar ningún punto entero factible.",
        zh = "一种迭代优化算法,通过反复添加线性不等式(切割平面)来排除当前松弛最优解,但不剔除任何可行整数点,从而求解整数或凸优化问题。",
        term_es = "método del plano de corte",
        term_zh = "切割平面法",
        aliases_es = { "método de planos de corte", "cortes de Gomory" },
        aliases_zh = { "割平面法", "切平面方法", "Gomory切割" },
    }
    
    data["cv-bench"] = {
        short = "A vision-centric benchmark for evaluating multimodal large language models on classical computer vision tasks reformulated as visual question answering, including 2D and 3D understanding, counting, depth, and spatial relations.",
        article = nil,
        aliases = { "CV-Bench", "CVBench", "Cambrian CV-Bench" },
        es = "Punto de referencia centrado en visión para evaluar modelos de lenguaje multimodales grandes en tareas clásicas de visión por computadora reformuladas como respuesta a preguntas visuales, incluyendo comprensión 2D y 3D, conteo, profundidad y relaciones espaciales.",
        zh = "一个以视觉为中心的基准,用于评估多模态大语言模型在经典计算机视觉任务上的表现,将其重新表述为视觉问答,涵盖二维与三维理解、计数、深度和空间关系。",
        term_es = "CV-Bench",
        term_zh = "CV-Bench",
        aliases_es = { "CVBench", "Cambrian CV-Bench" },
        aliases_zh = { "CVBench", "Cambrian CV-Bench", "视觉基准CV-Bench" },
    }
    
    data["cvxpy layer"] = {
        short = "A differentiable layer (from the cvxpylayers library) that embeds a parameterized convex optimization problem inside a neural network, allowing gradients of the optimal solution with respect to the problem parameters.",
        article = nil,
        aliases = { "CvxpyLayer", "cvxpylayers", "cvxpy layers", "differentiable convex optimization layer" },
        es = "Capa diferenciable (de la biblioteca cvxpylayers) que incrusta un problema de optimización convexa parametrizado dentro de una red neuronal, permitiendo calcular gradientes de la solución óptima respecto a los parámetros del problema.",
        zh = "一种可微层(来自cvxpylayers库),将参数化的凸优化问题嵌入神经网络,可对最优解关于问题参数求梯度。",
        term_es = "capa CvxpyLayer",
        term_zh = "CvxpyLayer层",
        aliases_es = { "CvxpyLayer", "cvxpylayers", "capa de optimización convexa diferenciable" },
        aliases_zh = { "CvxpyLayer", "cvxpylayers", "可微凸优化层" },
    }
    
    data["cyc knowledge base"] = {
        short = "A long-running symbolic AI project (started 1984 by Doug Lenat) that codifies common-sense knowledge as millions of hand-curated logical assertions in the formal language CycL, used with an inference engine.",
        article = nil,
        aliases = { "Cyc", "OpenCyc", "ResearchCyc", "Cyc project", "CycKB" },
        es = "Proyecto de IA simbólica de larga duración (iniciado en 1984 por Doug Lenat) que codifica conocimiento de sentido común como millones de aserciones lógicas curadas a mano en el lenguaje formal CycL, usadas con un motor de inferencia.",
        zh = "一项长期的符号人工智能项目(1984年由Doug Lenat创立),用形式化语言CycL将常识知识编码为数百万条人工整理的逻辑断言,并配合推理引擎使用。",
        term_es = "base de conocimiento Cyc",
        term_zh = "Cyc知识库",
        aliases_es = { "Cyc", "OpenCyc", "ResearchCyc", "proyecto Cyc" },
        aliases_zh = { "Cyc", "OpenCyc", "ResearchCyc", "Cyc项目" },
    }
    
    data["cycle polytope"] = {
        short = "The polytope defined by the cycle inequalities over edges of a graph; in MAP inference for binary pairwise MRFs, intersecting the local marginal polytope with the cycle polytope tightens the LP relaxation.",
        article = nil,
        aliases = { "cycle inequality polytope" },
        es = "Politopo definido por las desigualdades de ciclo sobre las aristas de un grafo; en la inferencia MAP para MRFs binarios por pares, intersectarlo con el politopo de marginales locales endurece la relajación LP.",
        zh = "由图的边上的环不等式定义的多面体;在二元成对 MRF 的 MAP 推断中,将其与局部边缘多面体取交可收紧 LP 松弛。",
        term_es = "politopo de ciclos",
        term_zh = "环多面体",
        aliases_es = { "politopo de desigualdades de ciclo" },
        aliases_zh = { "环不等式多面体", "cycle polytope" },
    }
    
    data["cyclegan"] = {
        short = "An unpaired image-to-image translation framework (Zhu et al., 2017) that trains two GANs in opposite directions and enforces a cycle-consistency loss requiring F(G(x))≈x and G(F(y))≈y, removing the need for aligned training pairs.",
        article = nil,
        aliases = { "CycleGAN", "cycle-consistent GAN", "cycle GAN" },
        es = "Marco de traducción imagen a imagen no emparejada (Zhu et al., 2017) que entrena dos GAN en direcciones opuestas e impone una pérdida de consistencia cíclica F(G(x))≈x y G(F(y))≈y, eliminando la necesidad de pares alineados de entrenamiento.",
        zh = "Zhu 等人于 2017 年提出的非配对图像到图像翻译框架:训练两个方向相反的 GAN,并施加循环一致性损失 F(G(x))≈x、G(F(y))≈y,无需配对的训练样本。",
        term_es = "CycleGAN",
        term_zh = "CycleGAN",
        aliases_es = { "GAN cíclica", "GAN con consistencia cíclica" },
        aliases_zh = { "循环一致性 GAN", "循环 GAN" },
    }
    
    data["cyclic peptide design"] = {
        short = "Computational design of macrocyclic peptides — peptides whose backbone or side chains are joined to form a ring — to improve target affinity, membrane permeability, and proteolytic stability.",
        article = nil,
        aliases = { "macrocyclic peptide design", "cyclopeptide design", "cyclic peptide drug design" },
        es = "Diseño computacional de péptidos macrocíclicos —péptidos cuyo esqueleto o cadenas laterales se unen para formar un anillo— con el fin de mejorar la afinidad por la diana, la permeabilidad de membrana y la estabilidad proteolítica.",
        zh = "对大环肽(其主链或侧链相连成环的肽)的计算设计,用以提升靶标亲和力、膜通透性和抗蛋白酶降解能力。",
        term_es = "diseño de péptidos cíclicos",
        term_zh = "环肽设计",
        aliases_es = { "diseño de péptidos macrocíclicos", "diseño de macrociclos peptídicos" },
        aliases_zh = { "大环肽设计", "环状肽设计", "环肽药物设计" },
    }
    
    data["cyclical learning rate"] = {
        short = "A schedule that varies the learning rate cyclically between a lower and upper bound during training, allowing larger effective rates and helping escape saddle points. Proposed by Smith (2017).",
        article = nil,
        aliases = { "CLR", "cyclical learning rates", "cyclic learning rate" },
        es = "Programación que varía cíclicamente la tasa de aprendizaje entre un límite inferior y uno superior durante el entrenamiento, permitiendo tasas efectivas mayores y ayudando a escapar de puntos silla. Propuesta por Smith (2017).",
        zh = "一种学习率调度策略,在训练期间使学习率在上下界之间周期性变化,允许更大的有效学习率并有助于逃离鞍点。由 Smith(2017)提出。",
        term_es = "tasa de aprendizaje cíclica",
        term_zh = "循环学习率",
        aliases_es = { "CLR", "tasas de aprendizaje cíclicas" },
        aliases_zh = { "CLR", "周期性学习率" },
    }
    
    data["cyclical sgld"] = {
        short = "A variant of stochastic gradient Langevin dynamics that uses a cyclical step-size schedule to alternate exploration and sampling phases, improving mixing across modes of multimodal posteriors.",
        article = nil,
        aliases = { "cSGLD", "cyclical stochastic gradient Langevin dynamics", "cyclical SGMCMC" },
        es = "Variante de la dinámica de Langevin con gradiente estocástico que emplea un programa cíclico de tamaños de paso para alternar fases de exploración y muestreo, mejorando la mezcla entre modos de posteriores multimodales.",
        zh = "随机梯度朗之万动力学的变体,使用循环步长调度交替进行探索和采样阶段,改善多峰后验中各模态之间的混合。",
        term_es = "SGLD cíclico",
        term_zh = "循环 SGLD",
        aliases_es = { "cSGLD", "dinámica de Langevin con gradiente estocástico cíclica", "SGMCMC cíclico" },
        aliases_zh = { "cSGLD", "循环随机梯度朗之万动力学", "循环 SGMCMC" },
    }
    
    data["cyp inhibition"] = {
        short = "Inhibition of cytochrome P450 enzymes by a drug, predicted as part of ADMET assessment because CYP inhibitors can cause clinically relevant drug-drug interactions.",
        article = nil,
        aliases = { "CYP inhibition", "cytochrome P450 inhibition", "P450 inhibition", "CYP enzyme inhibition" },
        es = "Inhibición de enzimas del citocromo P450 por un fármaco, predicha como parte de la evaluación ADMET porque los inhibidores de CYP pueden causar interacciones fármaco-fármaco clínicamente relevantes.",
        zh = "药物对细胞色素 P450 酶的抑制,作为 ADMET 评估的一部分被预测,因为 CYP 抑制剂可能引起临床相关的药物-药物相互作用。",
        term_es = "inhibición de CYP",
        term_zh = "CYP 抑制",
        aliases_es = { "inhibición del citocromo P450", "inhibición de enzimas P450" },
        aliases_zh = { "CYP 抑制", "细胞色素 P450 抑制", "P450 抑制" },
    }
    
    data["cyp3a4 inhibition"] = {
        short = "Inhibition of the CYP3A4 isoform, which metabolizes roughly half of marketed drugs; predicting it is critical for flagging drug-drug interaction risk during early discovery.",
        article = nil,
        aliases = { "CYP3A4 inhibition", "CYP 3A4 inhibition", "cytochrome P450 3A4 inhibition" },
        es = "Inhibición de la isoforma CYP3A4, que metaboliza aproximadamente la mitad de los fármacos comercializados; su predicción es clave para señalar el riesgo de interacciones fármaco-fármaco en el descubrimiento temprano.",
        zh = "对 CYP3A4 亚型的抑制;该酶代谢约一半的上市药物,其抑制预测对于在早期发现阶段识别药物-药物相互作用风险至关重要。",
        term_es = "inhibición de CYP3A4",
        term_zh = "CYP3A4 抑制",
        aliases_es = { "inhibición de CYP 3A4", "inhibición del citocromo P450 3A4" },
        aliases_zh = { "CYP3A4 抑制", "细胞色素 P450 3A4 抑制" },
    }
    
    data["cypher query language"] = {
        short = "A declarative graph query language for property graphs, originally created for the Neo4j database and standardized as openCypher and ISO/IEC GQL, using ASCII-art patterns to match nodes and relationships.",
        article = nil,
        aliases = { "Cypher", "openCypher", "Cypher query language", "Neo4j Cypher" },
        es = "Lenguaje declarativo de consulta para grafos de propiedades, creado originalmente para la base de datos Neo4j y estandarizado como openCypher e ISO/IEC GQL, que usa patrones tipo ASCII-art para emparejar nodos y relaciones.",
        zh = "一种用于属性图的声明式图查询语言,最初为Neo4j数据库设计,并标准化为openCypher与ISO/IEC GQL,使用类似ASCII画的模式匹配节点与关系。",
        term_es = "lenguaje de consulta Cypher",
        term_zh = "Cypher查询语言",
        aliases_es = { "Cypher", "openCypher", "Cypher de Neo4j" },
        aliases_zh = { "Cypher", "openCypher", "Neo4j Cypher" },
    }
    
    data["cytochrome p450 prediction"] = {
        short = "Prediction of how compounds interact with cytochrome P450 enzymes — substrate recognition, inhibition, and site of metabolism — used in ADMET filtering during lead optimization.",
        article = nil,
        aliases = { "CYP prediction", "P450 prediction", "cytochrome P450 ADMET prediction", "CYP ADMET prediction" },
        es = "Predicción de cómo los compuestos interactúan con las enzimas del citocromo P450 —reconocimiento de sustrato, inhibición y sitio de metabolismo—, utilizada en el filtrado ADMET durante la optimización de cabezas de serie.",
        zh = "对化合物与细胞色素 P450 酶相互作用的预测,包括底物识别、抑制和代谢位点,用于先导化合物优化中的 ADMET 筛选。",
        term_es = "predicción del citocromo P450",
        term_zh = "细胞色素 P450 预测",
        aliases_es = { "predicción de CYP", "predicción de P450", "predicción ADMET de citocromo P450" },
        aliases_zh = { "CYP 预测", "P450 预测", "细胞色素 P450 ADMET 预测" },
    }
    
    data["d-connection"] = {
        short = "In a directed acyclic graph, two nodes are d-connected given a conditioning set if there exists at least one path between them that is not blocked by the set; the negation of d-separation.",
        article = nil,
        aliases = { "d-connectedness", "directional connection" },
        es = "En un grafo acíclico dirigido, dos nodos están d-conectados dado un conjunto de condicionamiento si existe al menos un camino entre ellos que no es bloqueado por el conjunto; es la negación de la d-separación.",
        zh = "在有向无环图中,给定条件集,若两个节点之间至少存在一条不被该集合阻断的路径,则称它们 d-连接;它是 d-分离的反概念。",
        term_es = "d-conexión",
        term_zh = "d-连通",
        aliases_es = { "d-conectividad", "conexión direccional" },
        aliases_zh = { "d-连接", "d-连通性" },
    }
    
    data["d-mpnn"] = {
        short = "Directed Message Passing Neural Network: a graph neural network for molecules in which messages are passed along directed bond edges rather than nodes, popularized by the Chemprop library.",
        article = nil,
        aliases = { "D-MPNN", "directed message passing neural network", "directed MPNN", "Chemprop D-MPNN" },
        es = "Red Neuronal de Paso de Mensajes Dirigido: una red neuronal sobre grafos para moléculas en la que los mensajes se transmiten por aristas dirigidas (enlaces) en lugar de nodos, popularizada por la biblioteca Chemprop.",
        zh = "有向消息传递神经网络:一种用于分子的图神经网络,消息沿着有向键边而非节点传递,由 Chemprop 库推广。",
        term_es = "D-MPNN",
        term_zh = "D-MPNN",
        aliases_es = { "D-MPNN", "MPNN dirigida", "red de paso de mensajes dirigida" },
        aliases_zh = { "D-MPNN", "有向 MPNN", "有向消息传递神经网络" },
    }
    
    data["d-psgd"] = {
        short = "Decentralized Parallel Stochastic Gradient Descent, a peer-to-peer training algorithm in which workers communicate only with neighbors on a graph and combine their parameters via gossip averaging, eliminating the central parameter server.",
        article = nil,
        aliases = { "D-PSGD", "decentralized parallel SGD", "decentralized parallel stochastic gradient descent" },
        es = "Descenso de gradiente estocástico paralelo descentralizado: algoritmo de entrenamiento entre pares en el que los trabajadores se comunican solo con sus vecinos en un grafo y combinan sus parámetros mediante promediado por gossip, eliminando el servidor de parámetros central.",
        zh = "去中心化并行随机梯度下降算法:工作节点仅与图上的邻居通信,并通过 gossip 平均合并参数,从而消除中央参数服务器。",
        term_es = "D-PSGD",
        term_zh = "D-PSGD",
        aliases_es = { "SGD paralelo descentralizado", "descenso de gradiente paralelo descentralizado" },
        aliases_zh = { "去中心化并行 SGD", "分布式去中心化 SGD" },
    }
    
    data["d-separation"] = {
        short = "A graphical criterion that determines from the structure of a directed acyclic graph whether two sets of variables are conditionally independent given a third set, by checking that all paths between them are blocked.",
        article = nil,
        aliases = { "directional separation", "d-separated", "Pearl's d-separation" },
        es = "Criterio gráfico que determina, a partir de la estructura de un grafo acíclico dirigido, si dos conjuntos de variables son condicionalmente independientes dado un tercer conjunto, comprobando que todos los caminos entre ellos están bloqueados.",
        zh = "一种图准则:根据有向无环图的结构判断两组变量在给定第三组变量条件下是否条件独立,方法是检查它们之间的所有路径是否都被阻断。",
        term_es = "d-separación",
        term_zh = "d-分离",
        aliases_es = { "separación direccional", "d-separado" },
        aliases_zh = { "有向分离", "d-separation" },
    }
    
    data["d-vector"] = {
        short = "A speaker embedding obtained by averaging the activations of a hidden layer of a DNN trained for frame-level speaker classification. Predecessor of the x-vector and one of the first DNN-based replacements for i-vectors.",
        article = nil,
        aliases = { "d vector", "DNN speaker embedding", "deep vector" },
        es = "Embedding de hablante obtenido promediando las activaciones de una capa oculta de una DNN entrenada para clasificación de hablante a nivel de trama. Predecesor del x-vector y uno de los primeros reemplazos basados en DNN para los i-vectors.",
        zh = "通过对帧级说话人分类 DNN 中某隐藏层的激活求平均得到的说话人嵌入。是 x-vector 的前身,也是最早用 DNN 替代 i-vector 的方法之一。",
        term_es = "d-vector",
        term_zh = "d-vector",
        aliases_es = { "embedding de hablante DNN", "vector profundo de hablante" },
        aliases_zh = { "d 向量", "DNN 说话人嵌入" },
    }
    
    data["d2 algorithm"] = {
        short = "A decentralized stochastic optimization algorithm that augments gossip-based updates with a correction term to remove the bias caused by data heterogeneity across workers, achieving convergence rates independent of the data dissimilarity.",
        article = nil,
        aliases = { "D2 algorithm", "D² algorithm", "D-squared", "D2 SGD", "D² SGD" },
        es = "Algoritmo de optimización estocástica descentralizada que añade un término de corrección a las actualizaciones basadas en gossip para eliminar el sesgo causado por la heterogeneidad de datos entre trabajadores, alcanzando tasas de convergencia independientes de la disparidad de datos.",
        zh = "一种去中心化随机优化算法,在基于 gossip 的更新中加入修正项,以消除工作节点间数据异质性引入的偏差,使收敛速率不依赖于数据差异程度。",
        term_es = "algoritmo D²",
        term_zh = "D² 算法",
        aliases_es = { "algoritmo D2", "D-squared" },
        aliases_zh = { "D2 算法", "D-squared 算法", "D² SGD" },
    }
    
    data["dac codec"] = {
        short = "Descript Audio Codec: a high-fidelity neural audio codec using residual vector quantization that compresses 44.1 kHz audio at very low bitrates while preserving quality across speech, music, and environmental sound. Widely used as a tokenizer for audio generative models.",
        article = nil,
        aliases = { "DAC", "Descript Audio Codec", "DAC neural codec" },
        es = "Descript Audio Codec: códec neuronal de audio de alta fidelidad basado en cuantización vectorial residual que comprime audio a 44,1 kHz con tasas de bits muy bajas preservando la calidad en voz, música y sonido ambiental. Se usa ampliamente como tokenizador para modelos generativos de audio.",
        zh = "Descript Audio Codec:基于残差向量量化的高保真神经音频编解码器,可在极低比特率下压缩 44.1 kHz 音频,同时在语音、音乐和环境声中保持音质。常被用作音频生成模型的标记化器。",
        term_es = "DAC",
        term_zh = "DAC",
        aliases_es = { "códec neuronal DAC", "Descript Audio Codec" },
        aliases_zh = { "Descript Audio Codec", "DAC 神经编解码器" },
    }
    
    data["dada2"] = {
        short = "An algorithm and R package that infers exact amplicon sequence variants (ASVs) from amplicon sequencing data by modeling Illumina sequencing errors, replacing OTU clustering in 16S rRNA microbiome analysis.",
        article = nil,
        aliases = { "DADA2", "Divisive Amplicon Denoising Algorithm 2" },
        es = "Algoritmo y paquete de R que infiere variantes exactas de secuencia de amplicón (ASVs) a partir de datos de secuenciación de amplicones modelando los errores de secuenciación de Illumina, reemplazando el agrupamiento en OTUs en el análisis de microbioma 16S rRNA.",
        zh = "一种算法和R软件包,通过建模Illumina测序错误从扩增子测序数据推断精确的扩增子序列变体(ASV),在16S rRNA微生物组分析中替代OTU聚类。",
        term_es = "DADA2",
        term_zh = "DADA2",
        aliases_es = { "algoritmo DADA2", "Divisive Amplicon Denoising Algorithm 2" },
        aliases_zh = { "DADA2 算法", "DADA2 软件包" },
    }
    
    data["dag-gnn"] = {
        short = "A method for Bayesian network structure learning that parameterizes a DAG with a graph neural network and optimizes a continuous, differentiable acyclicity-constrained ELBO.",
        article = nil,
        aliases = { "DAG-GNN", "DAG graph neural network", "DAG-GNN structure learning" },
        es = "Método de aprendizaje de la estructura de redes bayesianas que parametriza un DAG con una red neuronal de grafos y optimiza una ELBO continua y diferenciable con restricción de aciclicidad.",
        zh = "一种贝叶斯网络结构学习方法:用图神经网络参数化 DAG,并优化带有可微无环约束的连续 ELBO。",
        term_es = "DAG-GNN",
        term_zh = "DAG-GNN",
        aliases_es = { "red neuronal de grafos para DAG" },
        aliases_zh = { "DAG 图神经网络", "DAG-GNN 结构学习" },
    }
    
    data["dagger algorithm"] = {
        short = "Dataset Aggregation: an imitation learning algorithm that iteratively trains a policy on data labeled by an expert at states visited by the learner, mitigating the distribution shift of pure behavior cloning.",
        article = nil,
        aliases = { "DAgger", "DAGGER", "Dataset Aggregation", "DAgger algorithm" },
        es = "Dataset Aggregation: algoritmo de aprendizaje por imitación que entrena iterativamente una política con datos etiquetados por un experto en los estados visitados por el aprendiz, mitigando el cambio de distribución del simple clonado de comportamiento.",
        zh = "Dataset Aggregation:一种模仿学习算法,迭代地在学习器访问的状态上由专家标注数据并训练策略,从而缓解纯行为克隆中的分布偏移。",
        term_es = "algoritmo DAgger",
        term_zh = "DAgger 算法",
        aliases_es = { "DAgger", "DAGGER", "agregación de datos" },
        aliases_zh = { "DAgger", "数据聚合算法" },
    }
    
    data["dagma"] = {
        short = "DAG learning via M-matrices: a continuous-optimization method for Bayesian network structure learning that enforces acyclicity through a log-determinant characterization, improving convergence over earlier NOTEARS-style approaches.",
        article = nil,
        aliases = { "DAGMA", "DAG learning via M-matrices" },
        es = "DAG learning via M-matrices: método de optimización continua para el aprendizaje de la estructura de redes bayesianas que impone aciclicidad mediante una caracterización por log-determinante, mejorando la convergencia respecto a enfoques previos tipo NOTEARS.",
        zh = "DAG learning via M-matrices:贝叶斯网络结构学习的连续优化方法,通过对数行列式刻画施加无环约束,相较 NOTEARS 类方法收敛性更好。",
        term_es = "DAGMA",
        term_zh = "DAGMA",
        aliases_es = { "aprendizaje de DAG vía matrices M" },
        aliases_zh = { "基于 M 矩阵的 DAG 学习" },
    }
    
    data["dali alignment"] = {
        short = "A protein structure alignment method that compares 3D structures by aligning their distance matrices (Cα–Cα distances), allowing detection of structural similarity beyond sequence homology.",
        article = nil,
        aliases = { "DALI", "DALI alignment", "Distance matrix ALIgnment", "DaliLite" },
        es = "Método de alineamiento de estructuras de proteínas que compara estructuras 3D alineando sus matrices de distancia (distancias Cα–Cα), permitiendo detectar similitud estructural más allá de la homología de secuencia.",
        zh = "一种蛋白质结构比对方法,通过比对Cα–Cα距离矩阵来比较三维结构,可检测超出序列同源性的结构相似性。",
        term_es = "alineamiento DALI",
        term_zh = "DALI 比对",
        aliases_es = { "DALI", "alineamiento por matriz de distancia", "DaliLite" },
        aliases_zh = { "DALI", "DALI 结构比对", "距离矩阵比对", "DaliLite" },
    }
    
    data["dall-e 2"] = {
        short = "OpenAI's 2022 text-to-image diffusion model that generates images from natural-language prompts using a CLIP text embedding combined with a diffusion prior and a cascaded image decoder (unCLIP).",
        article = nil,
        aliases = { "DALL-E 2", "DALL·E 2", "DALLE-2", "DALLE 2", "dalle2", "unCLIP" },
        es = "Modelo de difusión texto-a-imagen de OpenAI publicado en 2022 que genera imágenes a partir de indicaciones en lenguaje natural mediante una incrustación de texto CLIP combinada con un previo de difusión y un decodificador de imagen en cascada (unCLIP).",
        zh = "OpenAI 于 2022 年发布的文本到图像扩散模型,使用 CLIP 文本嵌入结合扩散先验和级联图像解码器(unCLIP),从自然语言提示生成图像。",
        term_es = "DALL·E 2",
        term_zh = "DALL·E 2",
        aliases_es = { "DALL-E 2", "DALLE 2", "unCLIP" },
        aliases_zh = { "DALL-E 2", "DALLE 2", "unCLIP", "DALL·E 2 模型" },
    }
    
    data["dalle"] = {
        short = "OpenAI's text-to-image generative model family. The original DALL·E (2021) is a 12-billion-parameter autoregressive transformer over discrete VQ-VAE image tokens conditioned on text; later versions (DALL·E 2, DALL·E 3) replace the autoregressive backbone with diffusion-based image generation.",
        article = nil,
        aliases = { "DALL-E", "DALL·E", "DALLE", "DALL.E", "DALL-E 2", "DALL-E 3", "DALLE 2", "DALLE 3" },
        es = "Familia de modelos generativos de texto a imagen de OpenAI. El DALL·E original (2021) es un transformer autorregresivo de 12 000 millones de parámetros sobre tokens de imagen discretos de un VQ-VAE condicionado al texto; las versiones posteriores (DALL·E 2 y DALL·E 3) sustituyen el backbone autorregresivo por generación de imagen basada en difusión.",
        zh = "OpenAI 的文本到图像生成模型系列。最初的 DALL·E(2021)是一个 120 亿参数的自回归 Transformer,对 VQ-VAE 离散图像 token 在文本条件下进行建模;DALL·E 2 与 DALL·E 3 改用基于扩散的图像生成骨干。",
        term_es = "DALL·E",
        term_zh = "DALL·E",
        aliases_es = { "DALL-E", "DALLE", "DALL·E 2", "DALL·E 3" },
        aliases_zh = { "DALL-E", "DALLE", "DALL·E 2", "DALL·E 3" },
    }
    
    data["dalle-3"] = {
        short = "OpenAI's third-generation text-to-image diffusion model, integrated with ChatGPT and known for substantially improved prompt fidelity over DALL·E 2 thanks to LLM-rewritten captions during training.",
        article = nil,
        aliases = { "DALL-E 3", "DALL·E 3", "DALLE-3", "DALL E 3", "dalle 3" },
        es = "Modelo de difusión de texto a imagen de tercera generación de OpenAI, integrado con ChatGPT y conocido por una fidelidad al prompt sustancialmente mejor que DALL·E 2 gracias a las descripciones reescritas por un LLM durante el entrenamiento.",
        zh = "OpenAI 第三代文本生成图像扩散模型,与 ChatGPT 集成;得益于训练阶段由 LLM 重写的图像描述,其对提示词的还原度显著优于 DALL·E 2。",
        term_es = "DALL·E 3",
        term_zh = "DALL·E 3",
        aliases_es = { "DALL-E 3", "DALLE-3", "DALL E 3" },
        aliases_zh = { "DALL-E 3", "DALLE-3" },
    }
    
    data["damped belief propagation"] = {
        short = "A variant of belief propagation that interpolates each new message with the previous one using a damping factor, which often improves convergence on loopy graphs at the cost of slower iterations.",
        article = nil,
        aliases = { "damped BP", "damped message passing" },
        es = "Variante de la propagación de creencias que interpola cada nuevo mensaje con el anterior mediante un factor de amortiguación, lo que suele mejorar la convergencia en grafos con bucles a costa de iteraciones más lentas.",
        zh = "信念传播的一种变体:通过阻尼系数将新消息与上一消息插值,常能在带环图上改善收敛性,但每次迭代更慢。",
        term_es = "propagación de creencias amortiguada",
        term_zh = "阻尼信念传播",
        aliases_es = { "BP amortiguada", "paso de mensajes amortiguado" },
        aliases_zh = { "阻尼BP", "阻尼消息传递" },
    }
    
    data["danq"] = {
        short = "A hybrid convolutional–recurrent neural network model that predicts the function of non-coding DNA sequences by learning sequence motifs with CNN layers and long-range dependencies with a bidirectional LSTM.",
        article = nil,
        aliases = { "DanQ", "DanQ model" },
        es = "Modelo híbrido convolucional–recurrente que predice la función de secuencias de ADN no codificante aprendiendo motivos de secuencia con capas CNN y dependencias de largo alcance con un LSTM bidireccional.",
        zh = "一种卷积–循环混合神经网络模型,通过CNN层学习序列基序、双向LSTM学习长程依赖关系,从而预测非编码DNA序列的功能。",
        term_es = "DanQ",
        term_zh = "DanQ",
        aliases_es = { "modelo DanQ" },
        aliases_zh = { "DanQ 模型" },
    }
    
    data["darts"] = {
        short = "Differentiable Architecture Search: a NAS method that relaxes the discrete architectural choice into a continuous mixture parameterized by softmax weights, enabling gradient-based search over architectures (Liu et al., 2019).",
        article = nil,
        aliases = { "DARTS", "Differentiable Architecture Search" },
        es = "Búsqueda Diferenciable de Arquitecturas: método de NAS que relaja la elección arquitectónica discreta en una mezcla continua parametrizada por pesos softmax, permitiendo la búsqueda de arquitecturas mediante gradiente (Liu et al., 2019).",
        zh = "可微架构搜索:一种 NAS 方法,将离散的架构选择松弛为由 softmax 权重参数化的连续混合,从而可以通过梯度方法搜索架构(Liu 等,2019)。",
        term_es = "DARTS",
        term_zh = "DARTS",
        aliases_es = { "búsqueda diferenciable de arquitecturas" },
        aliases_zh = { "可微架构搜索", "可微神经架构搜索" },
    }
    
    data["darts+"] = {
        short = "An extension of DARTS that introduces an early-stopping criterion to halt the architecture search before its skip-connection bias collapses the discovered cell into degenerate, low-capacity architectures (Liang et al., 2019).",
        article = nil,
        aliases = { "DARTS+", "DARTS plus" },
        es = "Extensión de DARTS que introduce un criterio de detención temprana para frenar la búsqueda antes de que su sesgo hacia conexiones residuales colapse la celda descubierta en arquitecturas degeneradas de baja capacidad (Liang et al., 2019).",
        zh = "DARTS 的一种扩展,引入早停准则以在搜索结果因跳跃连接偏置而坍缩为退化、低容量架构之前停止搜索(Liang 等,2019)。",
        term_es = "DARTS+",
        term_zh = "DARTS+",
        aliases_es = { "DARTS plus" },
        aliases_zh = { "DARTS plus" },
    }
    
    data["data attribution"] = {
        short = "A family of methods that quantify how much each training example contributes to a model's prediction, loss, or behavior on a target test input; uses include debugging, dataset curation, and memorization analysis.",
        article = nil,
        aliases = { "training data attribution", "TDA", "instance attribution" },
        es = "Familia de métodos que cuantifican cuánto contribuye cada ejemplo de entrenamiento a la predicción, pérdida o comportamiento de un modelo sobre una entrada de prueba; se usa para depuración, curación de datos y análisis de memorización.",
        zh = "一类方法,用于量化每个训练样本对模型在目标测试输入上的预测、损失或行为的贡献,可用于调试、数据筛选和记忆分析。",
        term_es = "atribución de datos",
        term_zh = "数据归因",
        aliases_es = { "atribución de datos de entrenamiento", "TDA" },
        aliases_zh = { "训练数据归因", "TDA", "样本归因" },
    }
    
    data["data augmentation"] = {
        short = "A regularization technique that artificially expands the training set by applying label-preserving transformations (e.g., rotations, crops, noise, paraphrasing) to existing examples, improving generalization and robustness.",
        article = nil,
        aliases = { "data-augmentation", "DA", "augmentation", "training-time augmentation" },
        es = "Técnica de regularización que amplía artificialmente el conjunto de entrenamiento aplicando transformaciones que preservan la etiqueta (por ejemplo, rotaciones, recortes, ruido, paráfrasis) a los ejemplos existentes, mejorando la generalización y la robustez.",
        zh = "一种正则化技术,通过对现有样本施加保持标签不变的变换(如旋转、裁剪、加噪、改写),人工扩充训练集,从而提升泛化能力和鲁棒性。",
        term_es = "aumento de datos",
        term_zh = "数据增强",
        aliases_es = { "aumentación de datos", "augmentación de datos", "data augmentation" },
        aliases_zh = { "数据扩增", "数据增广", "data augmentation" },
    }
    
    data["data balancing"] = {
        short = "A bias-mitigation strategy that adjusts the distribution of a training dataset across classes or sensitive groups via resampling, reweighting, or synthetic augmentation, aiming to reduce representation disparities that drive unfair model behavior.",
        article = nil,
        aliases = { "dataset balancing", "class balancing", "balancing the dataset" },
        es = "Estrategia de mitigación de sesgos que ajusta la distribución de un conjunto de datos de entrenamiento entre clases o grupos sensibles mediante remuestreo, reponderación o aumento sintético, con el objetivo de reducir las disparidades de representación que generan comportamientos injustos en el modelo.",
        zh = "一种偏差缓解策略,通过重采样、重加权或合成数据增强来调整训练数据集在不同类别或敏感群体上的分布,以减少导致模型不公平行为的表征不均衡。",
        term_es = "balanceo de datos",
        term_zh = "数据平衡",
        aliases_es = { "equilibrado de datos", "balanceo del conjunto de datos", "balanceo de clases" },
        aliases_zh = { "数据集平衡", "类别平衡", "数据均衡" },
    }
    
    data["data bias"] = {
        short = "Any systematic distortion in a dataset — through collection, sampling, labeling, or measurement — that causes downstream models to learn skewed associations or perform unequally across populations.",
        article = nil,
        aliases = { "dataset bias", "training data bias", "bias in data" },
        es = "Cualquier distorsión sistemática en un conjunto de datos —por recolección, muestreo, etiquetado o medición— que provoca que los modelos posteriores aprendan asociaciones sesgadas o tengan un desempeño desigual entre poblaciones.",
        zh = "数据集中由采集、抽样、标注或测量引入的系统性失真,导致下游模型学习到偏斜的关联或在不同人群上表现不一致。",
        term_es = "sesgo de datos",
        term_zh = "数据偏差",
        aliases_es = { "sesgo del conjunto de datos", "sesgo en los datos", "sesgo en datos de entrenamiento" },
        aliases_zh = { "数据偏倚", "数据集偏差", "训练数据偏差" },
    }
    
    data["data deduplication"] = {
        short = "Preprocessing step that removes exact or near-duplicate documents, paragraphs or n-gram spans from a training corpus to reduce memorization, improve sample efficiency and prevent contamination of evaluation sets.",
        article = nil,
        aliases = { "deduplication", "dataset deduplication", "training data deduplication", "dedup" },
        es = "Paso de preprocesamiento que elimina documentos, párrafos o tramos de n-gramas duplicados o casi duplicados de un corpus de entrenamiento, con el fin de reducir la memorización, mejorar la eficiencia de muestreo y evitar la contaminación de los conjuntos de evaluación.",
        zh = "在训练语料预处理阶段,剔除完全重复或接近重复的文档、段落或 n-gram 片段,以减少记忆化、提升样本效率并避免评估集被污染。",
        term_es = "deduplicación de datos",
        term_zh = "数据去重",
        aliases_es = { "deduplicación", "deduplicación del conjunto de datos", "deduplicación de datos de entrenamiento" },
        aliases_zh = { "去重", "训练数据去重", "数据集去重" },
    }
    
    data["data heterogeneity"] = {
        short = "In federated and distributed learning, the condition that local datasets at different clients are non-identically distributed, which causes client objectives to disagree and can slow or destabilize training.",
        article = nil,
        aliases = { "non-IID data", "non-iid data", "statistical heterogeneity", "client data heterogeneity" },
        es = "En aprendizaje federado y distribuido, condición en la que los conjuntos de datos locales de los distintos clientes no están idénticamente distribuidos, lo que provoca que los objetivos locales discrepen y puede ralentizar o desestabilizar el entrenamiento.",
        zh = "在联邦学习与分布式学习中,不同客户端的本地数据集非独立同分布的情形,会导致各客户端的优化目标不一致,进而减慢或破坏训练的稳定性。",
        term_es = "heterogeneidad de los datos",
        term_zh = "数据异质性",
        aliases_es = { "datos no IID", "heterogeneidad estadística", "datos no idénticamente distribuidos" },
        aliases_zh = { "非独立同分布数据", "Non-IID 数据", "统计异质性" },
    }
    
    data["data mixture"] = {
        short = "The composition of a pretraining corpus across data sources or domains, often expressed as sampling weights, which strongly influences a language model's downstream capabilities and is itself an object of optimization.",
        article = nil,
        aliases = { "training data mixture", "pretraining mixture", "data mix", "mixture weights" },
        es = "Composición de un corpus de preentrenamiento entre distintas fuentes o dominios de datos, expresada habitualmente como pesos de muestreo; influye notablemente en las capacidades de un modelo de lenguaje y constituye en sí misma un objeto de optimización.",
        zh = "预训练语料在不同数据来源或领域上的组成,通常以采样权重的形式表示。它对语言模型的下游能力影响显著,本身也是一个需要优化的对象。",
        term_es = "mezcla de datos",
        term_zh = "数据混合比例",
        aliases_es = { "mezcla de datos de entrenamiento", "mezcla de preentrenamiento", "pesos de mezcla" },
        aliases_zh = { "数据配比", "预训练数据混合", "数据混合权重" },
    }
    
    data["data parallelism"] = {
        short = "A distributed training strategy in which the model is replicated across multiple devices and each replica processes a different shard of the mini-batch, with gradients synchronized (e.g., via all-reduce) before each parameter update.",
        article = nil,
        aliases = { "DP", "data-parallel training", "data parallel" },
        es = "Estrategia de entrenamiento distribuido en la que el modelo se replica en varios dispositivos y cada réplica procesa un fragmento distinto del mini-lote, sincronizando los gradientes (por ejemplo, mediante all-reduce) antes de cada actualización de parámetros.",
        zh = "一种分布式训练策略,将模型复制到多个设备上,每个副本处理小批量的不同分片,在每次参数更新前通过 all-reduce 等方式同步梯度。",
        term_es = "paralelismo de datos",
        term_zh = "数据并行",
        aliases_es = { "DP", "entrenamiento data-parallel", "paralelismo de datos distribuido" },
        aliases_zh = { "DP", "数据并行训练", "data parallelism" },
    }
    
    data["data poisoning attack"] = {
        short = "An attack in which an adversary injects or perturbs training samples so that the resulting model exhibits attacker-chosen behavior, such as misclassifying targeted inputs or degrading overall accuracy.",
        article = nil,
        aliases = { "training data poisoning", "poisoning attack", "data-poisoning attack" },
        es = "Ataque en el que un adversario inyecta o perturba muestras de entrenamiento para que el modelo resultante presente un comportamiento elegido por el atacante, como clasificar erróneamente entradas objetivo o degradar la precisión general.",
        zh = "一种攻击:攻击者注入或篡改训练样本,使得到的模型表现出攻击者预期的行为,例如对特定输入误分类或整体精度下降。",
        term_es = "ataque de envenenamiento de datos",
        term_zh = "数据投毒攻击",
        aliases_es = { "envenenamiento de datos de entrenamiento", "ataque de envenenamiento" },
        aliases_zh = { "训练数据投毒", "数据中毒攻击", "投毒攻击" },
    }
    
    data["data protection regulation"] = {
        short = "Legal frameworks governing the collection, storage, processing, and disclosure of personal data, such as the EU's General Data Protection Regulation (GDPR), Brazil's LGPD, or California's CCPA. They impose obligations on AI systems that handle personal information.",
        article = nil,
        aliases = { "data protection law", "privacy regulation", "data privacy law", "GDPR", "personal data regulation" },
        es = "Marcos jurídicos que rigen la recolección, almacenamiento, tratamiento y divulgación de datos personales, como el Reglamento General de Protección de Datos (RGPD) de la UE, la LGPD de Brasil o la CCPA de California. Imponen obligaciones a los sistemas de IA que manejan información personal.",
        zh = "管理个人数据的收集、存储、处理与披露的法律框架,例如欧盟《通用数据保护条例》(GDPR)、巴西 LGPD 或加州 CCPA。这些法规对处理个人信息的人工智能系统设定了义务。",
        term_es = "regulación de protección de datos",
        term_zh = "数据保护法规",
        aliases_es = { "ley de protección de datos", "regulación de privacidad", "RGPD", "GDPR" },
        aliases_zh = { "数据保护法", "隐私法规", "个人数据法规", "GDPR" },
    }
    
    data["data shapley"] = {
        short = "A data attribution method (Ghorbani & Zou, 2019) that assigns each training datum a Shapley value reflecting its average marginal contribution, across all training subsets, to a downstream performance metric.",
        article = nil,
        aliases = { "Data Shapley", "Shapley value of data" },
        es = "Método de atribución de datos (Ghorbani y Zou, 2019) que asigna a cada dato de entrenamiento un valor de Shapley que refleja su contribución marginal promedio, sobre todos los subconjuntos de entrenamiento, a una métrica de rendimiento posterior.",
        zh = "一种数据归因方法(Ghorbani 与 Zou,2019),为每个训练样本分配一个 Shapley 值,反映其在所有训练子集中对下游性能指标的平均边际贡献。",
        term_es = "Data Shapley",
        term_zh = "Data Shapley",
        aliases_es = { "Shapley de datos", "valor de Shapley de los datos" },
        aliases_zh = { "数据 Shapley", "数据 Shapley 值" },
    }
    
    data["data sheet for datasets"] = {
        short = "A standardized documentation artifact, proposed by Gebru et al. (2018), that records the motivation, composition, collection process, preprocessing, intended uses, and maintenance of a dataset to support transparency and accountability.",
        article = nil,
        aliases = { "datasheets for datasets", "dataset datasheet", "datasheet for dataset", "datasheet" },
        es = "Artefacto de documentación estandarizada, propuesto por Gebru et al. (2018), que registra la motivación, composición, proceso de recolección, preprocesamiento, usos previstos y mantenimiento de un conjunto de datos para favorecer la transparencia y la rendición de cuentas.",
        zh = "由 Gebru 等人(2018 年)提出的标准化数据集文档制品,记录数据集的动机、构成、收集过程、预处理、预期用途和维护,以支持透明度与问责。",
        term_es = "ficha técnica de conjunto de datos",
        term_zh = "数据集说明书",
        aliases_es = { "datasheet for datasets", "ficha de datos del conjunto de datos", "datasheets para conjuntos de datos" },
        aliases_zh = { "数据集数据表", "数据集文档", "datasheets for datasets" },
    }
    
    data["data2vec"] = {
        short = "A self-supervised learning framework that predicts contextualized latent representations of masked inputs (rather than raw inputs or discrete tokens) using a teacher-student EMA scheme. Applies a single objective uniformly across speech, vision, and language.",
        article = nil,
        aliases = { "data2vec framework" },
        es = "Marco de aprendizaje autosupervisado que predice representaciones latentes contextualizadas de entradas enmascaradas (en lugar de entradas crudas o tokens discretos) mediante un esquema profesor-alumno con EMA. Aplica un único objetivo de forma uniforme a habla, visión y lenguaje.",
        zh = "一种自监督学习框架:通过教师-学生 EMA 机制,对被遮蔽输入预测上下文化的潜在表示,而非原始输入或离散标记。它在语音、视觉和语言上采用统一的训练目标。",
        term_es = "data2vec",
        term_zh = "data2vec",
        aliases_es = { "marco data2vec" },
        aliases_zh = { "data2vec 框架" },
    }
    
    data["data2vec 2.0"] = {
        short = "A more efficient version of data2vec that reuses target representations across masked views, drops fully masked tokens from the encoder, and uses a lightweight convolutional decoder. Reaches comparable accuracy to data2vec at a fraction of the pretraining cost.",
        article = nil,
        aliases = { "data2vec v2", "data2vec2", "data2vec 2" },
        es = "Versión más eficiente de data2vec que reutiliza las representaciones objetivo entre varias vistas enmascaradas, elimina del codificador los tokens completamente enmascarados y usa un decodificador convolucional ligero. Logra precisión comparable a data2vec con una fracción del coste de preentrenamiento.",
        zh = "data2vec 的高效改进版:在多个掩码视图之间复用目标表示,将完全被遮蔽的标记从编码器中剔除,并采用轻量卷积解码器。在仅需远少于原版预训练开销的情况下达到相当的精度。",
        term_es = "data2vec 2.0",
        term_zh = "data2vec 2.0",
        aliases_es = { "data2vec v2", "data2vec segunda versión" },
        aliases_zh = { "data2vec v2", "data2vec 第二代" },
    }
    
    data["datacomp"] = {
        short = "A benchmark and competition for designing image-text training datasets, in which participants curate subsets from a 12.8B-pair common pool and are evaluated by training CLIP models on the curated data and measuring downstream zero-shot performance.",
        article = nil,
        aliases = { "DataComp", "DataComp benchmark" },
        es = "Punto de referencia y competición para el diseño de conjuntos de entrenamiento imagen-texto, donde los participantes seleccionan subconjuntos de un fondo común de 12.800 millones de pares y son evaluados entrenando modelos CLIP sobre los datos curados y midiendo el desempeño zero-shot en tareas posteriores.",
        zh = "一个针对图文训练数据集设计的基准与竞赛,参与者从128亿对的公共池中筛选子集,并通过在筛选数据上训练CLIP模型并衡量下游零样本表现来评估。",
        term_es = "DataComp",
        term_zh = "DataComp",
        aliases_es = { "DataComp benchmark", "punto de referencia DataComp" },
        aliases_zh = { "DataComp 基准" },
    }
    
    data["datacomp-1b"] = {
        short = "The 1.4-billion image-text pair subset of DataComp's CommonPool selected by the winning filtering pipeline, used to train high-performing open CLIP models.",
        article = nil,
        aliases = { "DataComp-1B", "DataComp 1B" },
        es = "Subconjunto de 1.400 millones de pares imagen-texto del CommonPool de DataComp seleccionado por la cadena de filtrado ganadora, usado para entrenar modelos CLIP abiertos de alto rendimiento.",
        zh = "由DataComp的CommonPool通过获奖筛选流程选出的14亿图文对子集,用于训练高性能的开源CLIP模型。",
        term_es = "DataComp-1B",
        term_zh = "DataComp-1B",
        aliases_es = { "DataComp 1B" },
        aliases_zh = { "DataComp 1B" },
    }
    
    data["datamodel"] = {
        short = "A linear surrogate (Ilyas et al., 2022) that predicts a target model's output on a fixed test example as a function of the indicator vector of which training examples were included, enabling scalable, predictive data attribution.",
        article = nil,
        aliases = { "datamodels", "datamodeling" },
        es = "Sustituto lineal (Ilyas et al., 2022) que predice la salida de un modelo objetivo sobre un ejemplo de prueba fijo en función del vector indicador de qué ejemplos de entrenamiento fueron incluidos, permitiendo una atribución de datos escalable y predictiva.",
        zh = "一种线性代理模型(Ilyas 等,2022),将目标模型在固定测试样本上的输出预测为训练样本是否被纳入的指示向量的函数,从而实现可扩展且具有预测性的数据归因。",
        term_es = "datamodel",
        term_zh = "datamodel",
        aliases_es = { "datamodels", "modelo de datos lineal" },
        aliases_zh = { "数据模型", "datamodels" },
    }
    
    data["dataset cartography"] = {
        short = "A diagnostic technique (Swayamdipta et al., 2020) that maps training examples by their training dynamics — mean confidence and variability of the gold-label probability — into easy-to-learn, ambiguous, and hard-to-learn regions.",
        article = nil,
        aliases = { "data maps", "training dynamics map" },
        es = "Técnica de diagnóstico (Swayamdipta et al., 2020) que mapea ejemplos de entrenamiento según su dinámica de entrenamiento —confianza media y variabilidad de la probabilidad de la etiqueta correcta— en regiones fáciles de aprender, ambiguas y difíciles.",
        zh = "一种诊断方法(Swayamdipta 等,2020),根据训练动态——金标签概率的平均置信度与变异度——将训练样本划分为易学、模糊和难学三类区域。",
        term_es = "cartografía de conjuntos de datos",
        term_zh = "数据集制图",
        aliases_es = { "mapas de datos", "cartografía de datos" },
        aliases_zh = { "数据地图", "训练动态图" },
    }
    
    data["dataset meta-features"] = {
        short = "Quantitative descriptors of a dataset (number of samples, feature count, class imbalance, statistical moments, landmarking accuracies) used by meta-learning systems to warm-start AutoML on new tasks.",
        article = nil,
        aliases = { "meta-features", "dataset metafeatures", "data meta-features" },
        es = "Descriptores cuantitativos de un conjunto de datos (número de muestras, cantidad de atributos, desbalance de clases, momentos estadísticos, precisiones de landmarking) usados por los sistemas de meta-aprendizaje para iniciar AutoML en tareas nuevas con buenos puntos de partida.",
        zh = "对数据集的定量描述(样本数、特征数、类别不平衡、统计矩、landmark 精度等),元学习系统利用它们为新任务上的 AutoML 提供热启动。",
        term_es = "meta-características del dataset",
        term_zh = "数据集元特征",
        aliases_es = { "meta-características", "metacaracterísticas de datos" },
        aliases_zh = { "元特征", "数据元特征" },
    }
    
    data["daylight fingerprint"] = {
        short = "A topological molecular fingerprint that hashes all linear atom paths up to a fixed length into a bit vector, originally implemented by Daylight Chemical Information Systems.",
        article = nil,
        aliases = { "Daylight fingerprint", "Daylight FP", "Daylight path-based fingerprint", "Daylight hashed fingerprint" },
        es = "Huella molecular topológica que aplica hashing a todos los caminos lineales de átomos hasta una longitud fija en un vector de bits; implementación original de Daylight Chemical Information Systems.",
        zh = "一种拓扑分子指纹,将分子中所有不超过固定长度的线性原子路径哈希为位向量,最初由 Daylight Chemical Information Systems 实现。",
        term_es = "huella Daylight",
        term_zh = "Daylight 指纹",
        aliases_es = { "huella molecular Daylight", "fingerprint Daylight", "huella basada en caminos de Daylight" },
        aliases_zh = { "Daylight 分子指纹", "Daylight FP", "基于路径的 Daylight 指纹" },
    }
    
    data["dbnsfp"] = {
        short = "A database (dbNSFP) that aggregates functional predictions and annotations for non-synonymous and splice-site variants in the human genome from many in silico tools (e.g., SIFT, PolyPhen, CADD, REVEL).",
        article = nil,
        aliases = { "dbNSFP", "Database of Non-synonymous Functional Predictions" },
        es = "Base de datos (dbNSFP) que agrega predicciones funcionales y anotaciones para variantes no sinónimas y de sitios de splicing en el genoma humano provenientes de muchas herramientas in silico (p. ej., SIFT, PolyPhen, CADD, REVEL).",
        zh = "一个数据库(dbNSFP),整合了来自多种计算工具(如SIFT、PolyPhen、CADD、REVEL)对人类基因组中非同义变异和剪接位点变异的功能预测与注释。",
        term_es = "dbNSFP",
        term_zh = "dbNSFP",
        aliases_es = { "base de datos dbNSFP", "Database of Non-synonymous Functional Predictions" },
        aliases_zh = { "dbNSFP 数据库", "非同义功能预测数据库" },
    }
    
    data["dbpedia"] = {
        short = "A large multilingual knowledge graph extracted from structured information in Wikipedia (mainly infoboxes), published as RDF and queryable via SPARQL, widely used as a benchmark for semantic web and knowledge graph research.",
        article = nil,
        aliases = { "DBpedia", "DBPedia", "DBpedia knowledge graph" },
        es = "Gran grafo de conocimiento multilingüe extraído de la información estructurada de Wikipedia (principalmente las infoboxes), publicado en RDF y consultable mediante SPARQL, ampliamente usado como referencia en web semántica y grafos de conocimiento.",
        zh = "从维基百科结构化信息(主要是信息框)中抽取的大型多语言知识图谱,以RDF发布并支持SPARQL查询,是语义网和知识图谱研究中的常用基准。",
        term_es = "DBpedia",
        term_zh = "DBpedia",
        aliases_es = { "DBpedia", "grafo DBpedia" },
        aliases_zh = { "DBpedia", "DBpedia知识图谱" },
    }
    
    data["dbrx"] = {
        short = "An open-weights mixture-of-experts language model released by Databricks in 2024, with 132B total and 36B active parameters across 16 experts, trained on 12T tokens.",
        article = nil,
        aliases = { "DBRX", "Databricks DBRX", "DBRX Instruct", "DBRX Base" },
        es = "Modelo de lenguaje de mezcla de expertos con pesos abiertos publicado por Databricks en 2024, con 132 mil millones de parámetros totales y 36 mil millones activos repartidos entre 16 expertos, entrenado con 12 billones de tokens.",
        zh = "Databricks 于 2024 年发布的开源权重 Mixture-of-Experts 语言模型,总参数 1320 亿、激活参数 360 亿,共有 16 位专家,在 12 万亿词元上训练而成。",
        term_es = "DBRX",
        term_zh = "DBRX",
        aliases_es = { "DBRX de Databricks", "DBRX Instruct" },
        aliases_zh = { "Databricks DBRX", "DBRX Instruct" },
    }
    
    data["dbsnp"] = {
        short = "The NCBI Database of Single Nucleotide Polymorphisms: a public archive of short genetic variants (SNPs and short indels) in humans and other organisms, each assigned a stable rsID identifier.",
        article = nil,
        aliases = { "dbSNP", "NCBI dbSNP", "Single Nucleotide Polymorphism Database" },
        es = "Base de datos de polimorfismos de nucleótido único del NCBI: archivo público de variantes genéticas cortas (SNPs e indels cortos) en humanos y otros organismos, cada una con un identificador rsID estable.",
        zh = "NCBI单核苷酸多态性数据库:收录人类及其他生物的短遗传变异(SNP和短插入缺失)的公共档案,每个变异都分配一个稳定的rsID编号。",
        term_es = "dbSNP",
        term_zh = "dbSNP",
        aliases_es = { "dbSNP del NCBI", "base de datos de SNPs" },
        aliases_zh = { "dbSNP 数据库", "NCBI dbSNP", "单核苷酸多态性数据库" },
    }
    
    data["dcase challenge"] = {
        short = "An annual community challenge on Detection and Classification of Acoustic Scenes and Events that defines benchmark tasks such as acoustic scene classification, sound event detection, and audio captioning, with public datasets and baselines.",
        article = nil,
        aliases = { "DCASE", "DCASE Challenge", "Detection and Classification of Acoustic Scenes and Events" },
        es = "Desafío comunitario anual sobre Detección y Clasificación de Escenas y Eventos Acústicos, que define tareas de referencia como clasificación de escenas acústicas, detección de eventos sonoros y subtitulado de audio, con conjuntos de datos y baselines públicos.",
        zh = "每年举办的声学场景与事件检测与分类社区挑战赛(DCASE),定义声学场景分类、声音事件检测、音频字幕等基准任务,并提供公开数据集与基线方法。",
        term_es = "desafío DCASE",
        term_zh = "DCASE 挑战赛",
        aliases_es = { "DCASE", "Detección y Clasificación de Escenas y Eventos Acústicos" },
        aliases_zh = { "DCASE", "声学场景与事件检测分类挑战" },
    }
    
    data["dccrn"] = {
        short = "Deep Complex Convolution Recurrent Network: a speech enhancement architecture that performs complex-valued convolutions on the short-time Fourier spectrum so that magnitude and phase are estimated jointly. State-of-the-art on DNS Challenge benchmarks at the time of release.",
        article = nil,
        aliases = { "DCCRN", "Deep Complex Convolution Recurrent Network" },
        es = "Deep Complex Convolution Recurrent Network: arquitectura de mejora de voz que aplica convoluciones complejas sobre el espectro STFT, estimando conjuntamente magnitud y fase. Fue estado del arte en los benchmarks DNS Challenge en su lanzamiento.",
        zh = "Deep Complex Convolution Recurrent Network:语音增强网络,对短时傅里叶谱执行复数卷积,从而联合估计幅度与相位。发布时在 DNS Challenge 基准上达到当时的最佳水平。",
        term_es = "DCCRN",
        term_zh = "DCCRN",
        aliases_es = { "red recurrente convolucional compleja profunda" },
        aliases_zh = { "深度复数卷积循环网络" },
    }
    
    data["ddi prediction"] = {
        short = "Drug-drug interaction prediction: the task of forecasting whether co-administering two drugs will alter their pharmacological effects or cause adverse events.",
        article = nil,
        aliases = { "DDI prediction", "drug-drug interaction prediction", "drug drug interaction prediction" },
        es = "Predicción de interacciones fármaco-fármaco: tarea de prever si la coadministración de dos fármacos alterará sus efectos farmacológicos o provocará reacciones adversas.",
        zh = "药物-药物相互作用预测:预测同时使用两种药物是否会改变其药理效应或引发不良事件的任务。",
        term_es = "predicción de DDI",
        term_zh = "DDI 预测",
        aliases_es = { "predicción DDI", "predicción de interacciones fármaco-fármaco", "predicción de interacciones medicamentosas" },
        aliases_zh = { "DDI 预测", "药物相互作用预测", "药物-药物相互作用预测" },
    }
    
    data["ddim"] = {
        short = "Denoising Diffusion Implicit Models (Song et al., 2021), a non-Markovian deterministic sampler for diffusion models that produces high-quality samples in far fewer steps than DDPM ancestral sampling while preserving the same training objective.",
        article = nil,
        aliases = { "DDIM", "denoising diffusion implicit model", "denoising diffusion implicit models" },
        es = "Modelos de difusión implícitos para desruidificación (Song et al., 2021): un muestreador determinista no markoviano para modelos de difusión que produce muestras de alta calidad con muchos menos pasos que el muestreo ancestral de DDPM, conservando el mismo objetivo de entrenamiento.",
        zh = "Song 等人于 2021 年提出的去噪扩散隐式模型:一种非马尔可夫的确定性扩散采样器,可在远少于 DDPM 祖先采样的步数下生成高质量样本,同时与 DDPM 共享相同的训练目标。",
        term_es = "DDIM",
        term_zh = "DDIM",
        aliases_es = { "modelo de difusión implícito por desruidificación" },
        aliases_zh = { "去噪扩散隐式模型" },
    }
    
    data["ddpg"] = {
        short = "An off-policy actor-critic algorithm for continuous control that learns a deterministic policy and a Q-function with target networks and a replay buffer, training the actor by gradient ascent on the critic.",
        article = nil,
        aliases = { "DDPG", "Deep Deterministic Policy Gradient" },
        es = "Algoritmo actor-crítico off-policy para control continuo que aprende una política determinista y una función Q usando redes objetivo y un replay buffer, entrenando al actor mediante ascenso por gradiente sobre el crítico.",
        zh = "一种用于连续控制的离策略 actor-critic 算法,借助目标网络和回放缓冲区学习确定性策略与 Q 函数,并通过对评论家做梯度上升来训练演员。",
        term_es = "DDPG",
        term_zh = "DDPG",
        aliases_es = { "Deep Deterministic Policy Gradient", "gradiente de política determinista profundo" },
        aliases_zh = { "深度确定性策略梯度", "Deep Deterministic Policy Gradient" },
    }
    
    data["ddpm loss"] = {
        short = "The training objective for Denoising Diffusion Probabilistic Models, derived as a variational lower bound on the data log-likelihood under a fixed Gaussian forward noising process and a learned reverse denoising process.",
        article = nil,
        aliases = { "DDPM loss", "diffusion loss", "denoising diffusion loss", "diffusion variational bound" },
        es = "Objetivo de entrenamiento de los Modelos Probabilísticos de Difusión por Eliminación de Ruido, derivado como una cota variacional inferior sobre la log-verosimilitud de los datos bajo un proceso directo gaussiano fijo y un proceso inverso aprendido.",
        zh = "去噪扩散概率模型(DDPM)的训练目标,作为在固定高斯前向加噪过程与可学习反向去噪过程下数据对数似然的变分下界推导而来。",
        term_es = "pérdida DDPM",
        term_zh = "DDPM 损失",
        aliases_es = { "pérdida de difusión", "cota variacional de difusión" },
        aliases_zh = { "扩散损失", "去噪扩散损失", "扩散变分下界" },
    }
    
    data["de bruijn graph"] = {
        short = "A graph in which nodes are k-mers (length-k substrings) and directed edges connect k-mers that overlap by k−1 bases; widely used as the underlying data structure in short-read genome assemblers.",
        article = nil,
        aliases = { "de Bruijn graph", "De Bruijn graph", "DBG", "k-mer graph" },
        es = "Grafo en el que los nodos son k-meros (subcadenas de longitud k) y las aristas dirigidas conectan k-meros que se solapan en k−1 bases; muy utilizado como estructura de datos en ensambladores de genomas a partir de lecturas cortas.",
        zh = "一种图结构,其节点是k-mer(长度为k的子串),有向边连接重叠k−1个碱基的k-mer;广泛用作短读长基因组组装器的底层数据结构。",
        term_es = "grafo de de Bruijn",
        term_zh = "de Bruijn 图",
        aliases_es = { "DBG", "grafo de De Bruijn", "grafo de k-meros" },
        aliases_zh = { "德布鲁因图", "DBG", "k-mer 图" },
    }
    
    data["de chaisemartin estimator"] = {
        short = "A difference-in-differences estimator (de Chaisemartin and D'Haultfœuille) that is robust to heterogeneous and time-varying treatment effects, providing valid inference when treatment timing or intensity varies across units.",
        article = nil,
        aliases = { "de Chaisemartin estimator", "de Chaisemartin-D'Haultfœuille estimator", "dCDH estimator", "DID-M estimator" },
        es = "Estimador de diferencias en diferencias (de Chaisemartin y D'Haultfœuille) robusto frente a efectos de tratamiento heterogéneos y variables en el tiempo, que proporciona inferencia válida cuando el momento o la intensidad del tratamiento varía entre unidades.",
        zh = "de Chaisemartin 与 D'Haultfœuille 提出的双重差分估计量,对异质且时变的处置效应具有稳健性,在处置时点或强度因单位而异时仍可提供有效推断。",
        term_es = "estimador de De Chaisemartin",
        term_zh = "de Chaisemartin 估计量",
        aliases_es = { "estimador de de Chaisemartin-D'Haultfœuille", "estimador dCDH", "estimador DID-M" },
        aliases_zh = { "de Chaisemartin-D'Haultfœuille 估计量", "dCDH 估计量", "DID-M 估计量" },
    }
    
    data["de finetti theorem"] = {
        short = "A representation theorem stating that an infinite exchangeable sequence of random variables is a mixture of i.i.d. sequences, justifying the Bayesian use of latent parameters with priors.",
        article = nil,
        aliases = { "de Finetti's theorem", "de Finetti representation theorem" },
        es = "Teorema de representación que establece que toda sucesión infinita intercambiable de variables aleatorias es una mezcla de sucesiones i.i.d., justificando el uso bayesiano de parámetros latentes con distribuciones a priori.",
        zh = "一条表示定理:任何无限可交换的随机变量序列都是 i.i.d. 序列的混合,为贝叶斯方法引入带先验的潜在参数提供了理论依据。",
        term_es = "teorema de De Finetti",
        term_zh = "德菲内蒂定理",
        aliases_es = { "teorema de representación de De Finetti" },
        aliases_zh = { "De Finetti 定理", "德菲内蒂表示定理" },
    }
    
    data["de novo assembly"] = {
        short = "Reconstruction of a genome, transcriptome, or metagenome from sequencing reads without using a reference genome, typically via overlap-layout-consensus or de Bruijn graph algorithms.",
        article = nil,
        aliases = { "de novo genome assembly", "reference-free assembly", "de novo sequence assembly" },
        es = "Reconstrucción de un genoma, transcriptoma o metagenoma a partir de lecturas de secuenciación sin usar un genoma de referencia, típicamente mediante algoritmos de overlap-layout-consensus o de grafo de de Bruijn.",
        zh = "在不使用参考基因组的情况下,通过重叠–布局–共识或de Bruijn图算法,从测序读段重建基因组、转录组或宏基因组。",
        term_es = "ensamblaje de novo",
        term_zh = "从头组装",
        aliases_es = { "ensamblaje de novo de genomas", "ensamblaje sin referencia" },
        aliases_zh = { "de novo 组装", "无参考基因组组装", "从头基因组组装" },
    }
    
    data["de novo drug design"] = {
        short = "The generation of entirely new chemical structures with desired properties from scratch, using rule-based, evolutionary, or generative-model approaches rather than screening existing libraries.",
        article = nil,
        aliases = { "de novo design", "de novo molecular design", "de novo molecule generation", "de novo compound design" },
        es = "Generación desde cero de estructuras químicas completamente nuevas con propiedades deseadas, mediante enfoques basados en reglas, evolutivos o de modelos generativos, en lugar de cribar bibliotecas existentes.",
        zh = "从零开始生成具有目标性质的全新化学结构,使用基于规则、进化算法或生成模型的方法,而非筛选现有化合物库。",
        term_es = "diseño de fármacos de novo",
        term_zh = "从头药物设计",
        aliases_es = { "diseño de novo", "diseño molecular de novo", "generación de novo de moléculas" },
        aliases_zh = { "从头设计", "从头分子设计", "de novo 药物设计", "全新药物设计" },
    }
    
    data["de novo molecule generation"] = {
        short = "Computational generation of novel molecular structures from scratch using generative models (VAEs, GANs, autoregressive, or diffusion), rather than enumerating or modifying existing libraries. Central paradigm in modern AI-driven drug design.",
        article = nil,
        aliases = { "de novo molecular generation", "de novo molecular design", "de novo drug design", "generative molecular design" },
        es = "Generación computacional de estructuras moleculares novedosas desde cero mediante modelos generativos (VAE, GAN, autoregresivos o de difusión), en lugar de enumerar o modificar bibliotecas existentes. Paradigma central del diseño de fármacos asistido por IA.",
        zh = "利用生成模型(VAE、GAN、自回归或扩散模型)从头生成全新分子结构的方法,而非从现有分子库中枚举或修改。是现代 AI 药物设计的核心范式。",
        term_es = "generación de moléculas de novo",
        term_zh = "从头分子生成",
        aliases_es = { "diseño molecular de novo", "generación molecular de novo", "diseño de fármacos de novo" },
        aliases_zh = { "de novo 分子生成", "从头分子设计", "从头药物设计" },
    }
    
    data["de novo protein design"] = {
        short = "Computational design of new protein sequences and structures that did not arise through evolution, aimed at folding into a specified target structure or performing a specified function. Modern approaches use diffusion models (RFdiffusion) and inverse-folding networks (ProteinMPNN).",
        article = nil,
        aliases = { "de novo protein engineering", "de novo design of proteins", "computational de novo protein design" },
        es = "Diseño computacional de nuevas secuencias y estructuras proteicas no surgidas por evolución, con el objetivo de plegarse en una estructura objetivo o realizar una función específica. Los enfoques modernos emplean modelos de difusión (RFdiffusion) y redes de plegado inverso (ProteinMPNN).",
        zh = "通过计算设计自然进化中不存在的全新蛋白序列和结构,使其折叠为目标结构或执行特定功能。现代方法使用扩散模型(RFdiffusion)和逆折叠网络(ProteinMPNN)。",
        term_es = "diseño de proteínas de novo",
        term_zh = "从头蛋白质设计",
        aliases_es = { "diseño proteico de novo", "ingeniería de proteínas de novo" },
        aliases_zh = { "de novo 蛋白设计", "从头蛋白设计" },
    }
    
    data["deberta"] = {
        short = "A BERT-style transformer encoder that disentangles content and position into separate vectors and uses an enhanced mask decoder, improving performance on natural language understanding benchmarks.",
        article = nil,
        aliases = { "DeBERTa", "Decoding-enhanced BERT with disentangled attention", "decoding-enhanced BERT with disentangled attention" },
        es = "Codificador transformer estilo BERT que separa contenido y posición en vectores distintos y emplea un decodificador de máscara mejorado, mejorando el rendimiento en benchmarks de comprensión del lenguaje natural.",
        zh = "一种 BERT 风格的 Transformer 编码器,将内容和位置解耦为独立向量,并采用增强的掩码解码器,在自然语言理解基准上提升了性能。",
        term_es = "DeBERTa",
        term_zh = "DeBERTa",
        aliases_es = { "DeBERTa", "BERT mejorado con decodificación y atención desentrelazada" },
        aliases_zh = { "DeBERTa", "解码增强的解耦注意力 BERT" },
    }
    
    data["debiased machine learning"] = {
        short = "A framework (Chernozhukov et al., 2018) that combines flexible ML estimators of nuisance functions with Neyman-orthogonal moment conditions and cross-fitting to obtain root-n consistent, asymptotically normal estimators of low-dimensional causal parameters.",
        article = nil,
        aliases = { "DML", "double machine learning", "double/debiased ML", "Chernozhukov DML" },
        es = "Marco (Chernozhukov et al., 2018) que combina estimadores flexibles de aprendizaje automático para funciones de molestia con condiciones de momentos ortogonales en el sentido de Neyman y cross-fitting para obtener estimadores raíz-n consistentes y asintóticamente normales de parámetros causales de baja dimensión.",
        zh = "Chernozhukov 等(2018)提出的框架,将灵活的机器学习冗余函数估计与 Neyman 正交矩条件以及交叉拟合相结合,得到对低维因果参数根 n 一致且渐近正态的估计量。",
        term_es = "machine learning desdoblado",
        term_zh = "去偏机器学习",
        aliases_es = { "DML", "doble machine learning", "ML doble/desdoblado" },
        aliases_zh = { "双重机器学习", "双重/去偏机器学习", "DML" },
    }
    
    data["debiased word embedding"] = {
        short = "A word-embedding representation that has been post-processed (or trained with constraints) to reduce stereotypical associations along sensitive axes — for example, removing gender direction from occupation vectors as in Bolukbasi et al. (2016).",
        article = "Word Embeddings",
        aliases = { "debiased embeddings", "debiased word embeddings", "bias-mitigated embedding", "gender-debiased embedding" },
        es = "Representación de incrustación de palabras que ha sido posprocesada (o entrenada con restricciones) para reducir asociaciones estereotípicas en ejes sensibles —por ejemplo, eliminando la dirección de género de los vectores de ocupaciones, como en Bolukbasi et al. (2016).",
        zh = "经过后处理(或在训练中加入约束)以减少在敏感维度上刻板关联的词嵌入表示,例如 Bolukbasi 等人(2016 年)提出的从职业向量中去除性别方向。",
        term_es = "incrustación de palabras desesgada",
        term_zh = "去偏词嵌入",
        aliases_es = { "embeddings desesgados", "embedding mitigado de sesgo", "embedding desesgado" },
        aliases_zh = { "去偏的词嵌入", "消偏词嵌入", "去偏向量" },
    }
    
    data["debiasing"] = {
        short = "The process of identifying and reducing unwanted bias in data, models, or outputs, applied at the pre-processing, in-processing, or post-processing stage of a machine-learning pipeline.",
        article = nil,
        aliases = { "bias mitigation", "de-biasing", "bias reduction", "bias removal" },
        es = "Proceso de identificar y reducir sesgos no deseados en los datos, los modelos o las salidas, aplicado en las etapas de preprocesamiento, durante el entrenamiento o en el posprocesamiento de un canal de aprendizaje automático.",
        zh = "在机器学习流水线的预处理、训练中或后处理阶段,识别并减少数据、模型或输出中不希望出现的偏差的过程。",
        term_es = "desesgado",
        term_zh = "去偏",
        aliases_es = { "mitigación de sesgos", "reducción de sesgos", "eliminación de sesgos" },
        aliases_zh = { "去偏化", "偏差缓解", "消偏", "去偏处理" },
    }
    
    data["debugging via explanation"] = {
        short = "The practice of using model explanations — saliency maps, feature attributions, counterfactuals, probes — to identify spurious correlations, dataset artifacts, label noise, or failure modes in machine-learning systems.",
        article = nil,
        aliases = { "explanation-based debugging", "debugging with explanations" },
        es = "Práctica de usar explicaciones de modelos —mapas de saliencia, atribuciones de características, contrafactuales, sondas— para identificar correlaciones espurias, artefactos del conjunto de datos, ruido en las etiquetas o modos de fallo en sistemas de aprendizaje automático.",
        zh = "通过使用模型解释——显著性图、特征归因、反事实、探针——来识别机器学习系统中的虚假相关性、数据集伪影、标签噪声或失败模式的实践。",
        term_es = "depuración mediante explicaciones",
        term_zh = "基于解释的调试",
        aliases_es = { "depuración basada en explicaciones" },
        aliases_zh = { "解释驱动调试", "通过解释调试" },
    }
    
    data["decentralized averaging"] = {
        short = "A class of consensus protocols in which nodes in a network iteratively replace their local value by a weighted combination of their neighbors' values, driving all nodes toward the global average without a central coordinator.",
        article = nil,
        aliases = { "gossip averaging", "consensus averaging", "peer-to-peer averaging" },
        es = "Familia de protocolos de consenso en los que los nodos de una red reemplazan iterativamente su valor local por una combinación ponderada de los valores de sus vecinos, llevando a todos los nodos hacia el promedio global sin un coordinador central.",
        zh = "一类共识协议:网络中的节点反复用其邻居取值的加权组合替换自身的本地值,使所有节点在无中心协调者的情况下趋于全局平均。",
        term_es = "promediado descentralizado",
        term_zh = "去中心化平均",
        aliases_es = { "promediado por gossip", "promediado de consenso", "promediado entre pares" },
        aliases_zh = { "Gossip 平均", "共识平均", "点对点平均" },
    }
    
    data["decentralized federated learning"] = {
        short = "A federated learning paradigm in which participating clients communicate directly with peers over a graph topology and aggregate models without a central server, often using gossip protocols.",
        article = nil,
        aliases = { "decentralized FL", "serverless federated learning", "peer-to-peer federated learning" },
        es = "Paradigma de aprendizaje federado en el que los clientes participantes se comunican directamente entre pares mediante una topología en grafo y agregan modelos sin servidor central, normalmente usando protocolos de gossip.",
        zh = "一种联邦学习范式:参与的客户端通过图拓扑直接与对等节点通信,并在无中心服务器的情况下聚合模型,通常基于 gossip 协议。",
        term_es = "aprendizaje federado descentralizado",
        term_zh = "去中心化联邦学习",
        aliases_es = { "FL descentralizado", "aprendizaje federado entre pares", "aprendizaje federado sin servidor" },
        aliases_zh = { "无中心联邦学习", "点对点联邦学习", "P2P 联邦学习" },
    }
    
    data["decentralized momentum sgd"] = {
        short = "A decentralized variant of stochastic gradient descent in which each worker maintains a local momentum buffer and combines parameters with neighbors via gossip, blending Nesterov- or heavy-ball-style acceleration with peer-to-peer averaging.",
        article = nil,
        aliases = { "decentralized momentum SGD", "DMSGD", "momentum decentralized SGD", "decentralized SGD with momentum" },
        es = "Variante descentralizada del descenso de gradiente estocástico en la que cada trabajador mantiene un búfer local de momento y combina parámetros con sus vecinos mediante gossip, fusionando aceleración tipo Nesterov o pesado-bola con promediado entre pares.",
        zh = "随机梯度下降的去中心化变体:每个工作节点维护本地动量缓冲,并通过 gossip 与邻居合并参数,将 Nesterov 或重球式加速与点对点平均结合。",
        term_es = "SGD con momento descentralizado",
        term_zh = "去中心化动量 SGD",
        aliases_es = { "SGD descentralizado con momento", "DMSGD" },
        aliases_zh = { "带动量的去中心化 SGD", "动量去中心化 SGD", "DMSGD" },
    }
    
    data["decentralized sgd"] = {
        short = "A family of stochastic gradient descent algorithms for distributed training in which workers communicate only with neighbors on a communication graph rather than through a central parameter server, exchanging models via gossip-style averaging.",
        article = nil,
        aliases = { "decentralized SGD", "DSGD", "decentralized stochastic gradient descent", "gossip SGD" },
        es = "Familia de algoritmos de descenso de gradiente estocástico para entrenamiento distribuido en la que los trabajadores se comunican solo con sus vecinos en un grafo de comunicación, sin un servidor de parámetros central, intercambiando modelos mediante promediado tipo gossip.",
        zh = "一类用于分布式训练的随机梯度下降算法:工作节点仅与通信图上的邻居通信,而非通过中心参数服务器,通过 gossip 式平均交换模型。",
        term_es = "SGD descentralizado",
        term_zh = "去中心化 SGD",
        aliases_es = { "DSGD", "descenso de gradiente estocástico descentralizado", "SGD por gossip" },
        aliases_zh = { "DSGD", "去中心化随机梯度下降", "Gossip SGD" },
    }
    
    data["deceptive alignment"] = {
        short = "A hypothesized failure mode of advanced AI training in which a model behaves as intended during training and evaluation in order to be deployed, but pursues misaligned goals once it judges oversight to have weakened.",
        article = nil,
        aliases = { "deceptively aligned model", "deceptively aligned mesa-optimizer", "alignment deception" },
        es = "Modo hipotético de fallo del entrenamiento de IA avanzada en el que un modelo se comporta como se desea durante el entrenamiento y la evaluación con el fin de ser desplegado, pero persigue objetivos desalineados una vez que considera que la supervisión se ha debilitado.",
        zh = "高级人工智能训练中假设存在的一种失效模式:模型在训练和评估阶段表现得符合预期以便被部署,一旦判断监督力度已经减弱,便转而追求与设计者目标不一致的目标。",
        term_es = "alineamiento engañoso",
        term_zh = "欺骗性对齐",
        aliases_es = { "modelo con alineamiento engañoso", "engaño en alineamiento" },
        aliases_zh = { "对齐欺骗", "欺骗性对齐模型", "欺骗式对齐" },
    }
    
    data["decision boundary explanation"] = {
        short = "An explanation method that characterizes the model's local decision boundary near a query point — for example, by sampling along directions in feature space — to convey how nearby inputs would be classified differently.",
        article = nil,
        aliases = { "boundary explanation", "decision-boundary explanation" },
        es = "Método de explicación que caracteriza la frontera de decisión local del modelo cerca de un punto de consulta —por ejemplo, muestreando direcciones en el espacio de características— para mostrar cómo entradas cercanas se clasificarían de manera distinta.",
        zh = "一种解释方法,通过在查询点附近表征模型的局部决策边界(例如沿特征空间的方向采样),展示邻近输入将如何被不同地分类。",
        term_es = "explicación de frontera de decisión",
        term_zh = "决策边界解释",
        aliases_es = { "explicación basada en frontera" },
        aliases_zh = { "边界解释", "决策面解释" },
    }
    
    data["decision network"] = {
        short = "A graphical model, also known as an influence diagram, that augments a Bayesian network with decision nodes and utility nodes to represent and solve sequential decision problems under uncertainty.",
        article = nil,
        aliases = { "influence diagram", "decision diagram" },
        es = "Modelo gráfico, también llamado diagrama de influencia, que amplía una red bayesiana con nodos de decisión y nodos de utilidad para representar y resolver problemas de decisión secuencial bajo incertidumbre.",
        zh = "一种图模型,也称影响图,在贝叶斯网络中加入决策节点和效用节点,用于表示和求解不确定性下的序贯决策问题。",
        term_es = "red de decisión",
        term_zh = "决策网络",
        aliases_es = { "diagrama de influencia", "diagrama de decisión" },
        aliases_zh = { "影响图", "决策图" },
    }
    
    data["decision rule list"] = {
        short = "An interpretable predictive model consisting of an ordered list of if-then rules; each rule fires when its conditions match, and the first matching rule supplies the prediction. Examples include RIPPER, CN2, and Bayesian Rule Lists.",
        article = nil,
        aliases = { "rule list", "decision list", "ordered rule list" },
        es = "Modelo predictivo interpretable consistente en una lista ordenada de reglas si-entonces; cada regla se activa cuando sus condiciones se cumplen, y la primera regla coincidente proporciona la predicción. Ejemplos: RIPPER, CN2 y Bayesian Rule Lists.",
        zh = "一种可解释预测模型,由有序的 if-then 规则列表组成;每条规则在其条件满足时触发,第一条匹配的规则给出预测。代表方法包括 RIPPER、CN2 和贝叶斯规则列表。",
        term_es = "lista de reglas de decisión",
        term_zh = "决策规则列表",
        aliases_es = { "lista de reglas", "lista de decisión" },
        aliases_zh = { "规则列表", "决策列表", "有序规则列表" },
    }
    
    data["decision tree surrogate"] = {
        short = "A decision tree fit to mimic the input-output behavior of a black-box model, providing a globally or locally interpretable approximation that exposes feature splits and prediction paths.",
        article = nil,
        aliases = { "tree surrogate", "surrogate tree", "decision-tree surrogate model" },
        es = "Árbol de decisión ajustado para imitar el comportamiento entrada-salida de un modelo opaco, proporcionando una aproximación global o local interpretable que expone divisiones por características y caminos de predicción.",
        zh = "拟合用于模拟黑盒模型输入-输出行为的决策树,提供全局或局部可解释的近似,揭示特征分裂和预测路径。",
        term_es = "árbol sustituto de decisión",
        term_zh = "决策树代理",
        aliases_es = { "árbol de decisión sustituto", "modelo sustituto de árbol" },
        aliases_zh = { "代理决策树", "决策树代理模型" },
    }
    
    data["declip"] = {
        short = "A data-efficient variant of CLIP that augments image-text contrastive learning with intra-modal self-supervision, nearest-neighbor supervision, and multi-view augmentations to improve sample efficiency.",
        article = nil,
        aliases = { "DeCLIP", "Data efficient CLIP" },
        es = "Variante de CLIP eficiente en datos que complementa el aprendizaje contrastivo imagen-texto con autosupervisión intramodal, supervisión por vecinos más cercanos y aumentos de múltiples vistas para mejorar la eficiencia muestral.",
        zh = "CLIP的数据高效变体,在图文对比学习的基础上加入模态内自监督、最近邻监督和多视角数据增强,以提高样本效率。",
        term_es = "DeCLIP",
        term_zh = "DeCLIP",
        aliases_es = { "CLIP eficiente en datos" },
        aliases_zh = { "数据高效CLIP" },
    }
    
    data["decoar"] = {
        short = "Deep Contextualized Acoustic Representations: a self-supervised speech representation learned by predicting an acoustic feature window from past and future context using a bidirectional LSTM, akin to a frame-level ELMo for speech.",
        article = nil,
        aliases = { "DeCoAR", "Deep Contextualized Acoustic Representations" },
        es = "Deep Contextualized Acoustic Representations: representación de voz autosupervisada aprendida prediciendo una ventana de características acústicas a partir del contexto pasado y futuro con una LSTM bidireccional, análoga a un ELMo a nivel de trama para voz.",
        zh = "Deep Contextualized Acoustic Representations:一种自监督语音表示,使用双向 LSTM 从过去和未来上下文预测一段声学特征窗,相当于面向语音的帧级 ELMo。",
        term_es = "DeCoAR",
        term_zh = "DeCoAR",
        aliases_es = { "representaciones acústicas contextualizadas profundas" },
        aliases_zh = { "深度上下文化声学表示" },
    }
    
    data["decoder"] = {
        short = "The component of an encoder-decoder model that generates the output sequence or signal from the latent representation produced by the encoder, often autoregressively.",
        article = nil,
        aliases = { "decoder network", "decoder module", "decoder block" },
        es = "Componente de un modelo codificador-decodificador que genera la secuencia o señal de salida a partir de la representación latente producida por el codificador, a menudo de forma autorregresiva.",
        zh = "编码器-解码器模型中的一部分,根据编码器生成的潜在表示输出序列或信号,通常以自回归方式生成。",
        term_es = "decodificador",
        term_zh = "解码器",
        aliases_es = { "red decodificadora", "módulo decodificador" },
        aliases_zh = { "解码网络", "解码模块" },
    }
    
    data["decomposed prompting"] = {
        short = "A prompting strategy that breaks a complex task into a sequence of simpler sub-tasks, each handled by a dedicated prompt or specialized handler, with results composed to solve the original task.",
        article = nil,
        aliases = { "DecomP", "decomposed prompts", "task decomposition prompting" },
        es = "Estrategia de prompting que descompone una tarea compleja en una secuencia de subtareas más simples, cada una manejada por un prompt dedicado o un manejador especializado, cuyos resultados se componen para resolver la tarea original.",
        zh = "一种提示策略,将复杂任务分解为一系列较简单的子任务,每个子任务由专用提示或专用处理器执行,再组合各子任务的结果以解决原任务。",
        term_es = "prompting descompuesto",
        term_zh = "分解式提示",
        aliases_es = { "DecomP", "prompts descompuestos", "descomposición de tareas mediante prompts" },
        aliases_zh = { "DecomP", "任务分解提示", "分解提示" },
    }
    
    data["decomposition of uncertainty"] = {
        short = "The separation of total predictive uncertainty into distinct components, typically aleatoric (data noise) and epistemic (model knowledge), often computed via the law of total variance over a posterior.",
        article = nil,
        aliases = { "uncertainty decomposition", "aleatoric-epistemic decomposition", "predictive uncertainty decomposition" },
        es = "Separación de la incertidumbre predictiva total en componentes distintos, típicamente aleatórica (ruido en los datos) y epistémica (conocimiento del modelo), a menudo calculada mediante la ley de la varianza total sobre un posterior.",
        zh = "将总预测不确定性分解为不同分量(通常为偶然不确定性即数据噪声,与认知不确定性即模型知识),常通过后验上的全方差定律计算。",
        term_es = "descomposición de la incertidumbre",
        term_zh = "不确定性分解",
        aliases_es = { "descomposición aleatórica-epistémica", "descomposición de la incertidumbre predictiva" },
        aliases_zh = { "偶然-认知不确定性分解", "预测不确定性分解" },
    }
    
    data["deconvolution visualization"] = {
        short = "A CNN visualization technique (Zeiler & Fergus, 2014) that maps high-layer activations back to input space by reversing the network's pooling, rectification, and convolution operations using transposed convolutions.",
        article = nil,
        aliases = { "deconvnet", "deconvolutional network visualization", "deconv visualization" },
        es = "Técnica de visualización para CNNs (Zeiler y Fergus, 2014) que mapea activaciones de capas superiores de vuelta al espacio de entrada invirtiendo las operaciones de pooling, rectificación y convolución mediante convoluciones traspuestas.",
        zh = "一种 CNN 可视化技术(Zeiler 与 Fergus,2014),通过转置卷积反向执行网络的池化、整流与卷积操作,将高层激活映射回输入空间。",
        term_es = "visualización por deconvolución",
        term_zh = "反卷积可视化",
        aliases_es = { "deconvnet", "visualización deconvolucional" },
        aliases_zh = { "deconvnet", "反卷积网络可视化" },
    }
    
    data["decoupled classifier"] = {
        short = "A fairness approach in which separate predictive models are trained for each protected group and subsequently combined, often through a constrained optimization, to satisfy a chosen fairness criterion. Introduced by Dwork et al. (2018).",
        article = nil,
        aliases = { "decoupled classifiers", "group-specific classifier", "per-group classifier" },
        es = "Enfoque de equidad en el que se entrenan modelos predictivos separados para cada grupo protegido y luego se combinan, a menudo mediante una optimización con restricciones, para satisfacer un criterio de equidad elegido. Propuesto por Dwork et al. (2018).",
        zh = "一种公平性方法,为每个受保护群体训练独立的预测模型,再通过通常带有约束的优化将其组合,以满足所选的公平性准则。由 Dwork 等人(2018 年)提出。",
        term_es = "clasificador desacoplado",
        term_zh = "解耦分类器",
        aliases_es = { "clasificadores desacoplados", "clasificador específico por grupo" },
        aliases_zh = { "解耦的分类器", "分组分类器", "群体专用分类器" },
    }
    
    data["deductive reasoning"] = {
        short = "A form of inference in which conclusions follow with logical necessity from given premises; if the premises are true and the inference is valid, the conclusion must also be true.",
        article = nil,
        aliases = { "deduction", "logical deduction", "deductive inference" },
        es = "Forma de inferencia en la que las conclusiones se siguen con necesidad lógica de las premisas dadas; si las premisas son verdaderas y la inferencia es válida, la conclusión también debe serlo.",
        zh = "一种推理形式,结论按逻辑必然性从给定前提中得出;若前提为真且推理有效,则结论必然为真。",
        term_es = "razonamiento deductivo",
        term_zh = "演绎推理",
        aliases_es = { "deducción", "deducción lógica", "inferencia deductiva" },
        aliases_zh = { "演绎", "逻辑演绎", "演绎法" },
    }
    
    data["deep belief network"] = {
        short = "A generative model formed by stacking restricted Boltzmann machines and trained greedily layer by layer, historically used to pre-train deep networks before discriminative fine-tuning.",
        article = nil,
        aliases = { "DBN", "DBNs", "deep belief networks", "Deep Belief Network" },
        es = "Modelo generativo formado apilando máquinas de Boltzmann restringidas y entrenado de forma voraz capa por capa, utilizado históricamente para preentrenar redes profundas antes del ajuste discriminativo.",
        zh = "一种生成模型,由堆叠的受限玻尔兹曼机构成并逐层贪心训练,历史上用于在判别式微调之前对深层网络进行预训练。",
        term_es = "red de creencia profunda",
        term_zh = "深度信念网络",
        aliases_es = { "DBN", "DBNs", "redes de creencia profundas", "red de creencias profundas" },
        aliases_zh = { "DBN", "深度信念网" },
    }
    
    data["deep boltzmann machine"] = {
        short = "An undirected generative model with multiple hidden layers in which connections exist only between adjacent layers, generalizing the restricted Boltzmann machine to a deep architecture trained by stochastic approximation.",
        article = nil,
        aliases = { "DBM", "deep Boltzmann machine" },
        es = "Modelo generativo no dirigido con varias capas ocultas en el que las conexiones existen únicamente entre capas adyacentes, generalizando la máquina de Boltzmann restringida a una arquitectura profunda entrenada por aproximación estocástica.",
        zh = "一种无向生成模型,含多个隐藏层,连接仅存在于相邻层之间,将受限玻尔兹曼机推广为通过随机近似训练的深层架构。",
        term_es = "máquina de Boltzmann profunda",
        term_zh = "深度玻尔兹曼机",
        aliases_es = { "DBM" },
        aliases_zh = { "DBM" },
    }
    
    data["deep deterministic uncertainty"] = {
        short = "A method for uncertainty estimation in deep networks that fits a feature-space density model (e.g. Gaussian mixture) on penultimate-layer features, providing single-forward-pass epistemic uncertainty without ensembling.",
        article = nil,
        aliases = { "DDU", "deep deterministic uncertainty estimation" },
        es = "Método para estimar incertidumbre en redes profundas que ajusta un modelo de densidad en el espacio de características (p. ej. mezcla gaussiana) sobre la penúltima capa, proporcionando incertidumbre epistémica en una sola pasada hacia adelante sin ensamblado.",
        zh = "一种深度网络不确定性估计方法,在倒数第二层特征上拟合特征空间密度模型(如高斯混合),无需集成即可在单次前向传递中给出认知不确定性。",
        term_es = "incertidumbre determinista profunda",
        term_zh = "深度确定性不确定性",
        aliases_es = { "DDU", "estimación de incertidumbre determinista profunda" },
        aliases_zh = { "DDU", "深度确定性不确定性估计" },
    }
    
    data["deep dream"] = {
        short = "A visualization technique (Mordvintsev et al., 2015) that performs gradient ascent on an input image to amplify activations of selected neurons or layers in a CNN, producing iterative, dreamlike enhancements.",
        article = nil,
        aliases = { "DeepDream", "deepdream", "Inceptionism" },
        es = "Técnica de visualización (Mordvintsev et al., 2015) que realiza ascenso de gradiente sobre una imagen de entrada para amplificar las activaciones de neuronas o capas seleccionadas de una CNN, produciendo realces oníricos iterativos.",
        zh = "一种可视化技术(Mordvintsev 等,2015),对输入图像进行梯度上升以放大 CNN 中所选神经元或层的激活,产生迭代式的梦幻图像增强。",
        term_es = "DeepDream",
        term_zh = "DeepDream",
        aliases_es = { "DeepDream", "Inceptionismo" },
        aliases_zh = { "深梦", "DeepDream", "Inceptionism" },
    }
    
    data["deep ensemble"] = {
        short = "An ensemble of neural networks trained independently from different random initializations, used to estimate predictive uncertainty by aggregating their disagreeing predictions.",
        article = nil,
        aliases = { "deep ensembles", "neural network ensemble", "NN ensemble", "ensemble of deep networks" },
        es = "Conjunto de redes neuronales entrenadas de forma independiente desde distintas inicializaciones aleatorias, usado para estimar incertidumbre predictiva agregando sus predicciones discrepantes.",
        zh = "由从不同随机初始化独立训练的多个神经网络构成的集成,通过聚合其分歧预测来估计预测不确定性。",
        term_es = "ensamble profundo",
        term_zh = "深度集成",
        aliases_es = { "ensambles profundos", "ensamble de redes neuronales", "ensamble de redes profundas" },
        aliases_zh = { "深度集成模型", "神经网络集成", "深度网络集成" },
    }
    
    data["deep fusion"] = {
        short = "An integration scheme in ASR and NMT in which an external neural language model is combined with the acoustic or translation model by feeding the LM hidden state into the decoder during training, jointly fine-tuning both. Contrasts with shallow and cold fusion.",
        article = nil,
        aliases = { "Deep Fusion", "deep LM fusion" },
        es = "Esquema de integración en ASR y NMT en el que un modelo de lenguaje neuronal externo se combina con el modelo acústico o de traducción inyectando el estado oculto del LM en el decodificador durante el entrenamiento, ajustándolos conjuntamente. Se contrasta con shallow fusion y cold fusion.",
        zh = "ASR 和 NMT 中将外部神经语言模型与声学或翻译模型集成的方案:训练时将语言模型的隐藏状态送入解码器并联合微调。与 shallow fusion 和 cold fusion 形成对比。",
        term_es = "deep fusion",
        term_zh = "深度融合",
        aliases_es = { "fusión profunda", "fusión profunda de LM" },
        aliases_zh = { "deep fusion", "深度语言模型融合" },
    }
    
    data["deep gaussian process"] = {
        short = "A hierarchical composition of Gaussian processes in which the output of one GP is the input to another, yielding a non-Gaussian process with greater expressive power than a single GP.",
        article = nil,
        aliases = { "DGP", "deep GP", "hierarchical Gaussian process", "stacked Gaussian process" },
        es = "Composición jerárquica de procesos gaussianos en la que la salida de un GP es la entrada del siguiente, dando lugar a un proceso no gaussiano con mayor poder expresivo que un único GP.",
        zh = "高斯过程的分层组合,其中一个 GP 的输出作为下一个 GP 的输入,形成比单个 GP 表达力更强的非高斯过程。",
        term_es = "proceso gaussiano profundo",
        term_zh = "深度高斯过程",
        aliases_es = { "DGP", "GP profundo", "proceso gaussiano jerárquico", "proceso gaussiano apilado" },
        aliases_zh = { "DGP", "深度 GP", "分层高斯过程", "堆叠高斯过程" },
    }
    
    data["deep gradient compression"] = {
        short = "A communication-reduction technique for distributed deep learning that sends only the largest gradient components and locally accumulates the rest, combined with momentum correction, gradient clipping, and warm-up to preserve accuracy.",
        article = nil,
        aliases = { "DGC", "Deep Gradient Compression" },
        es = "Técnica de reducción de comunicación para aprendizaje profundo distribuido que envía solo las componentes mayores del gradiente y acumula localmente el resto, combinada con corrección de momento, recorte de gradiente y warm-up para preservar la precisión.",
        zh = "用于分布式深度学习的通信压缩技术:仅发送梯度中最大的分量,将其余部分本地累积,并结合动量修正、梯度裁剪与 warm-up 以保持精度。",
        term_es = "compresión profunda de gradientes",
        term_zh = "深度梯度压缩",
        aliases_es = { "DGC", "compresión de gradientes profunda" },
        aliases_zh = { "DGC", "深度梯度压缩算法" },
    }
    
    data["deep kernel learning"] = {
        short = "A hybrid approach that uses a deep neural network as a feature extractor whose outputs feed into a Gaussian process kernel, combining representation learning with non-parametric uncertainty.",
        article = nil,
        aliases = { "DKL", "deep kernels", "neural network kernel learning" },
        es = "Enfoque híbrido que utiliza una red neuronal profunda como extractor de características cuyas salidas alimentan un kernel de proceso gaussiano, combinando aprendizaje de representaciones con incertidumbre no paramétrica.",
        zh = "混合方法,使用深度神经网络作为特征提取器,其输出馈入高斯过程核,将表示学习与非参数不确定性相结合。",
        term_es = "aprendizaje de kernel profundo",
        term_zh = "深度核学习",
        aliases_es = { "DKL", "kernels profundos", "aprendizaje de kernel con redes neuronales" },
        aliases_zh = { "DKL", "深度核", "神经网络核学习" },
    }
    
    data["deep leakage from gradients"] = {
        short = "An attack showing that an adversary observing the gradients exchanged during model training can reconstruct the original training inputs and labels with high fidelity by optimizing dummy data to match the observed gradients.",
        article = nil,
        aliases = { "DLG", "DLG attack", "gradient leakage attack" },
        es = "Ataque que demuestra que un adversario que observa los gradientes intercambiados durante el entrenamiento puede reconstruir con alta fidelidad las entradas y etiquetas originales optimizando datos ficticios para que coincidan con los gradientes observados.",
        zh = "一种攻击:攻击者通过观察训练过程中交换的梯度,并优化虚拟数据使其梯度与观测到的梯度匹配,可以高保真地重建原始训练输入和标签。",
        term_es = "fuga profunda a partir de gradientes",
        term_zh = "深度梯度泄露",
        aliases_es = { "DLG", "ataque DLG", "ataque de fuga por gradientes" },
        aliases_zh = { "DLG", "DLG 攻击", "梯度泄露攻击", "从梯度中深度泄漏" },
    }
    
    data["deep learning"] = {
        short = "A subfield of machine learning that uses neural networks with many layers to learn hierarchical representations directly from data, eliminating the need for hand-crafted features.",
        article = "Deep learning",
        aliases = {},
        es = "Subcampo del aprendizaje automático que utiliza redes neuronales con muchas capas para aprender representaciones jerárquicas directamente de los datos.",
        zh = "机器学习的一个子领域,使用具有多层结构的神经网络直接从数据中学习层次化表示,无需手工设计特征。",
        term_es = "aprendizaje profundo",
        term_zh = "深度学习",
        aliases_es = { "deep learning" },
        aliases_zh = { "deep learning" },
    }
    
    data["deep markov model"] = {
        short = "A nonlinear state-space model in which the transition and emission distributions of a Markovian latent sequence are parameterized by neural networks, typically trained with amortized variational inference.",
        article = nil,
        aliases = { "DMM", "deep Markov model" },
        es = "Modelo de espacio de estados no lineal en el que las distribuciones de transición y emisión de una secuencia latente markoviana se parametrizan mediante redes neuronales, entrenado normalmente con inferencia variacional amortizada.",
        zh = "一种非线性状态空间模型:用神经网络参数化马尔可夫潜序列的转移分布和发射分布,通常使用摊销变分推断进行训练。",
        term_es = "modelo de Markov profundo",
        term_zh = "深度马尔可夫模型",
        aliases_es = { "DMM" },
        aliases_zh = { "DMM", "深度Markov模型" },
    }
    
    data["deep q-network"] = {
        short = "A reinforcement learning algorithm that approximates the action-value function with a deep neural network and stabilizes training using experience replay and a target network, originally demonstrated playing Atari games at human level.",
        article = nil,
        aliases = { "DQN", "Deep Q-Network", "deep Q-network", "deep Q network", "deep Q learning" },
        es = "Algoritmo de aprendizaje por refuerzo que aproxima la función de valor-acción con una red neuronal profunda y estabiliza el entrenamiento mediante repetición de experiencias y una red objetivo, demostrado originalmente jugando juegos de Atari a nivel humano.",
        zh = "一种强化学习算法,使用深度神经网络近似动作-值函数,并通过经验回放和目标网络来稳定训练;最初在 Atari 游戏中达到人类水平表现。",
        term_es = "red Q profunda",
        term_zh = "深度 Q 网络",
        aliases_es = { "DQN", "deep Q-network" },
        aliases_zh = { "DQN", "Deep Q-Network", "深度 Q 学习" },
    }
    
    data["deep rnn"] = {
        short = "A recurrent neural network with multiple stacked recurrent layers, increasing representational capacity for hierarchical temporal features.",
        article = nil,
        aliases = { "deep RNN", "deep recurrent neural network", "multi-layer RNN", "stacked RNN" },
        es = "Red neuronal recurrente con múltiples capas recurrentes apiladas, lo que incrementa la capacidad representacional para características temporales jerárquicas.",
        zh = "一种具有多层堆叠循环层的循环神经网络,可增强对层次化时间特征的表示能力。",
        term_es = "RNN profunda",
        term_zh = "深层循环神经网络",
        aliases_es = { "red recurrente profunda", "RNN multicapa" },
        aliases_zh = { "深层 RNN", "多层 RNN", "堆叠 RNN" },
    }
    
    data["deep set"] = {
        short = "A neural network architecture for functions on sets that guarantees permutation invariance by summing element-wise embeddings before applying a final transformation.",
        article = nil,
        aliases = { "DeepSets", "Deep Sets", "deep sets" },
        es = "Arquitectura de red neuronal para funciones sobre conjuntos que garantiza la invariancia a permutaciones sumando embeddings por elemento antes de aplicar una transformación final.",
        zh = "一种用于集合函数的神经网络架构,通过对逐元素嵌入求和后再施加最终变换来保证置换不变性。",
        term_es = "Deep Set",
        term_zh = "Deep Set",
        aliases_es = { "DeepSets", "Deep Sets", "conjunto profundo" },
        aliases_zh = { "DeepSets", "Deep Sets", "深度集合" },
    }
    
    data["deep shap"] = {
        short = "A SHAP variant (Lundberg & Lee, 2017) that combines DeepLIFT-style backpropagation with Shapley value approximations, computing per-feature attributions for deep networks far more efficiently than KernelSHAP.",
        article = nil,
        aliases = { "DeepSHAP", "DeepExplainer", "Deep SHAP" },
        es = "Variante de SHAP (Lundberg y Lee, 2017) que combina la retropropagación al estilo de DeepLIFT con aproximaciones de valores de Shapley, calculando atribuciones por característica para redes profundas de forma mucho más eficiente que KernelSHAP.",
        zh = "SHAP 的一种变体(Lundberg 与 Lee,2017),将 DeepLIFT 式的反向传播与 Shapley 值近似相结合,比 KernelSHAP 更高效地为深度网络计算逐特征归因。",
        term_es = "DeepSHAP",
        term_zh = "DeepSHAP",
        aliases_es = { "DeepSHAP", "DeepExplainer" },
        aliases_zh = { "Deep SHAP", "DeepExplainer" },
    }
    
    data["deep taylor decomposition"] = {
        short = "An attribution method (Montavon et al., 2017) that decomposes a network's prediction by repeatedly applying first-order Taylor expansions backward through layers, redistributing relevance to inputs while satisfying conservation.",
        article = nil,
        aliases = { "DTD", "Deep Taylor Decomposition" },
        es = "Método de atribución (Montavon et al., 2017) que descompone la predicción de una red aplicando repetidamente expansiones de Taylor de primer orden hacia atrás a través de las capas, redistribuyendo la relevancia hasta los insumos y satisfaciendo conservación.",
        zh = "一种归因方法(Montavon 等,2017),通过逐层向后反复应用一阶泰勒展开来分解网络预测,将相关性重新分配到输入并满足守恒性。",
        term_es = "descomposición profunda de Taylor",
        term_zh = "深度泰勒分解",
        aliases_es = { "DTD" },
        aliases_zh = { "DTD", "深度 Taylor 分解" },
    }
    
    data["deepbind"] = {
        short = "A pioneering deep learning model that predicts the sequence specificities of DNA- and RNA-binding proteins from high-throughput in vitro and in vivo binding data using a convolutional neural network.",
        article = nil,
        aliases = { "DeepBind", "DeepBind model" },
        es = "Modelo pionero de aprendizaje profundo que predice las especificidades de secuencia de proteínas de unión a ADN y ARN a partir de datos de unión de alto rendimiento in vitro e in vivo usando una red neuronal convolucional.",
        zh = "一种开创性的深度学习模型,使用卷积神经网络从高通量体外和体内结合数据中预测DNA和RNA结合蛋白的序列特异性。",
        term_es = "DeepBind",
        term_zh = "DeepBind",
        aliases_es = { "modelo DeepBind" },
        aliases_zh = { "DeepBind 模型" },
    }
    
    data["deepcell"] = {
        short = "An open-source deep learning library and ecosystem for single-cell biological image analysis, providing pretrained models for tasks such as cell and nuclear segmentation in tissue and cell-culture imagery.",
        article = nil,
        aliases = { "DeepCell", "deepcell-tf" },
        es = "Biblioteca y ecosistema de aprendizaje profundo de código abierto para el análisis de imágenes biológicas a nivel unicelular, que proporciona modelos preentrenados para tareas como segmentación celular y nuclear en imágenes de tejidos y cultivos celulares.",
        zh = "一个开源深度学习库及生态系统,专注于单细胞生物图像分析,提供预训练模型用于组织和细胞培养图像中的细胞与细胞核分割等任务。",
        term_es = "DeepCell",
        term_zh = "DeepCell",
        aliases_es = { "deepcell-tf", "biblioteca DeepCell" },
        aliases_zh = { "DeepCell 库", "deepcell-tf" },
    }
    
    data["deepcoder"] = {
        short = "A neural-guided program synthesis system that trains a neural network to predict, from input-output examples, which functions are likely to appear in the target program, and uses these predictions to prune search.",
        article = nil,
        aliases = { "DeepCoder" },
        es = "Sistema de síntesis de programas guiado por redes neuronales que entrena una red para predecir, a partir de ejemplos entrada-salida, qué funciones probablemente aparecen en el programa objetivo, y usa esas predicciones para podar la búsqueda.",
        zh = "一种由神经网络引导的程序合成系统,训练神经网络从输入-输出示例预测目标程序中可能出现的函数,并据此剪枝搜索。",
        term_es = "DeepCoder",
        term_zh = "DeepCoder",
        aliases_es = { "DeepCoder" },
        aliases_zh = { "DeepCoder" },
    }
    
    data["deepdta"] = {
        short = "Deep learning model for predicting drug-target binding affinity that encodes SMILES strings and protein sequences with separate 1D convolutional networks and concatenates the embeddings to regress an affinity score. Introduced by Öztürk et al. (2018).",
        article = nil,
        aliases = { "DeepDTA", "Deep Drug-Target Affinity" },
        es = "Modelo de aprendizaje profundo para predecir la afinidad de unión fármaco-diana que codifica cadenas SMILES y secuencias proteicas con redes convolucionales 1D independientes y concatena las representaciones para regresar la afinidad. Propuesto por Öztürk y colaboradores (2018).",
        zh = "一种用于预测药物-靶标结合亲和力的深度学习模型,分别用一维卷积网络对 SMILES 字符串和蛋白序列编码,将两者拼接后回归亲和力分数。由 Öztürk 等人于 2018 年提出。",
        term_es = "DeepDTA",
        term_zh = "DeepDTA",
        aliases_es = { "DeepDTA" },
        aliases_zh = { "DeepDTA" },
    }
    
    data["deepfake audio detection"] = {
        short = "The task of distinguishing genuine recordings from synthetic, voice-cloned, or otherwise manipulated audio. Approaches use spectro-temporal features, self-supervised front-ends, and classifiers trained on antispoofing datasets such as ASVspoof.",
        article = nil,
        aliases = { "audio deepfake detection", "synthetic speech detection", "audio spoof detection", "anti-spoofing for audio" },
        es = "Tarea de distinguir grabaciones genuinas de audio sintético, clonado o manipulado. Los enfoques emplean características espectro-temporales, front-ends autosupervisados y clasificadores entrenados en datasets antispoofing como ASVspoof.",
        zh = "判别真实录音与合成、克隆或经过篡改音频的任务。常用方法包括谱-时特征、自监督前端以及在 ASVspoof 等反欺骗数据集上训练的分类器。",
        term_es = "detección de audio deepfake",
        term_zh = "音频深度伪造检测",
        aliases_es = { "detección de voz sintética", "antispoofing de audio", "detección de spoofing de voz" },
        aliases_zh = { "音频 deepfake 检测", "合成语音检测", "音频反欺骗" },
    }
    
    data["deepfloyd if"] = {
        short = "An open-source cascaded text-to-image diffusion model from DeepFloyd built on a frozen T5-XXL text encoder, generating images at progressively higher resolutions through a base 64×64 model and two super-resolution stages.",
        article = nil,
        aliases = { "DeepFloyd IF", "IF", "DeepFloyd-IF" },
        es = "Modelo de difusión de texto a imagen en cascada de código abierto de DeepFloyd, basado en un codificador de texto T5-XXL congelado, que genera imágenes en resoluciones progresivamente mayores mediante un modelo base de 64×64 y dos etapas de superresolución.",
        zh = "DeepFloyd 推出的开源级联文本生成图像扩散模型,构建在冻结的 T5-XXL 文本编码器之上,先由 64×64 的基础模型生成图像,再经过两级超分辨率模块得到逐步提升的高分辨率结果。",
        term_es = "DeepFloyd IF",
        term_zh = "DeepFloyd IF",
        aliases_es = { "DeepFloyd-IF", "IF" },
        aliases_zh = { "DeepFloyd-IF", "IF" },
    }
    
    data["deepfri"] = {
        short = "A graph convolutional network that predicts protein function (Gene Ontology terms and EC numbers) from sequence and structural contact maps, leveraging features from a pretrained protein language model.",
        article = nil,
        aliases = { "DeepFRI", "Deep Functional Residue Identification" },
        es = "Red convolucional sobre grafos que predice la función de proteínas (términos de Gene Ontology y números EC) a partir de la secuencia y mapas de contactos estructurales, utilizando características de un modelo de lenguaje de proteínas preentrenado.",
        zh = "一种图卷积网络,利用预训练蛋白质语言模型的特征,从蛋白质序列和结构接触图预测蛋白质功能(Gene Ontology 术语和 EC 编号)。",
        term_es = "DeepFRI",
        term_zh = "DeepFRI",
        aliases_es = { "DeepFRI" },
        aliases_zh = { "DeepFRI" },
    }
    
    data["deeplift"] = {
        short = "An attribution method (Shrikumar et al., 2017) that explains a neural network's prediction by comparing each neuron's activation to a reference baseline activation and propagating the resulting contribution scores back to the inputs in a single backward pass.",
        article = nil,
        aliases = { "DeepLIFT", "Deep Learning Important FeaTures" },
        es = "Método de atribución (Shrikumar et al., 2017) que explica la predicción de una red neuronal comparando la activación de cada neurona con una activación de referencia y propagando las puntuaciones de contribución resultantes hasta las entradas en una sola pasada hacia atrás.",
        zh = "一种归因方法(Shrikumar 等,2017),通过将每个神经元的激活与参考基线激活进行比较,并在一次反向传播中将由此得到的贡献分数传回输入,从而解释神经网络的预测。",
        term_es = "DeepLIFT",
        term_zh = "DeepLIFT",
        aliases_es = { "DeepLIFT" },
        aliases_zh = { "DeepLIFT" },
    }
    
    data["deeplift baseline"] = {
        short = "The reference input or activation used by DeepLIFT against which differences are computed; common choices are the zero vector, a blurred image, or a dataset mean, and the choice substantially affects the resulting attributions.",
        article = nil,
        aliases = { "DeepLIFT reference", "DeepLIFT reference input", "DeepLIFT baseline activation" },
        es = "Entrada o activación de referencia que utiliza DeepLIFT como base para calcular diferencias; opciones comunes son el vector cero, una imagen difuminada o la media del conjunto de datos, y la elección afecta sustancialmente las atribuciones obtenidas.",
        zh = "DeepLIFT 用作差分基准的参考输入或激活;常见选择包括零向量、模糊图像或数据集均值,该选择会显著影响得到的归因结果。",
        term_es = "línea base de DeepLIFT",
        term_zh = "DeepLIFT 基线",
        aliases_es = { "referencia de DeepLIFT", "entrada de referencia de DeepLIFT" },
        aliases_zh = { "DeepLIFT 参考", "DeepLIFT 参考输入" },
    }
    
    data["deeplift rescale rule"] = {
        short = "A DeepLIFT propagation rule that distributes contribution scores through nonlinearities using the linearized ratio of activation difference to input difference; preserves summation but cannot separate canceling positive and negative contributions.",
        article = nil,
        aliases = { "rescale rule", "DeepLIFT Rescale", "Rescale rule" },
        es = "Regla de propagación de DeepLIFT que distribuye las puntuaciones de contribución a través de no linealidades usando la razón linealizada entre la diferencia de activación y la diferencia de entrada; preserva la suma pero no puede separar contribuciones positivas y negativas que se cancelan.",
        zh = "DeepLIFT 的一种传播规则,使用激活差与输入差的线性化比率在非线性中分配贡献分数;保留总和但无法分离相互抵消的正负贡献。",
        term_es = "regla de reescalado de DeepLIFT",
        term_zh = "DeepLIFT Rescale 规则",
        aliases_es = { "regla Rescale", "Rescale" },
        aliases_zh = { "Rescale 规则", "重缩放规则" },
    }
    
    data["deeplift reveal-cancel rule"] = {
        short = "A DeepLIFT propagation rule that separately propagates positive and negative contributions through nonlinearities, exposing canceling effects that the Rescale rule averages out and yielding sharper attributions for saturating activations.",
        article = nil,
        aliases = { "RevealCancel", "Reveal-Cancel rule", "DeepLIFT RevealCancel" },
        es = "Regla de propagación de DeepLIFT que propaga por separado las contribuciones positivas y negativas a través de no linealidades, exponiendo efectos de cancelación que la regla Rescale promedia y produciendo atribuciones más nítidas para activaciones saturantes.",
        zh = "DeepLIFT 的一种传播规则,分别在非线性中传播正贡献和负贡献,揭示 Rescale 规则会平均化的相互抵消效应,对饱和激活给出更清晰的归因。",
        term_es = "regla Reveal-Cancel de DeepLIFT",
        term_zh = "DeepLIFT Reveal-Cancel 规则",
        aliases_es = { "RevealCancel", "Reveal-Cancel" },
        aliases_zh = { "Reveal-Cancel 规则", "RevealCancel" },
    }
    
    data["deepproblog"] = {
        short = "A neuro-symbolic framework that extends the probabilistic logic programming language ProbLog with neural predicates, allowing differentiable end-to-end training of neural networks alongside probabilistic logical reasoning.",
        article = nil,
        aliases = { "DeepProbLog" },
        es = "Marco neuro-simbólico que extiende el lenguaje de programación lógica probabilística ProbLog con predicados neuronales, permitiendo entrenamiento diferenciable de extremo a extremo de redes neuronales junto con razonamiento lógico probabilístico.",
        zh = "一个神经符号框架,在概率逻辑编程语言ProbLog的基础上引入神经谓词,可对神经网络与概率逻辑推理进行端到端可微分训练。",
        term_es = "DeepProbLog",
        term_zh = "DeepProbLog",
        aliases_es = { "DeepProbLog" },
        aliases_zh = { "DeepProbLog" },
    }
    
    data["deeppurpose"] = {
        short = "Open-source PyTorch toolkit providing a unified interface for drug-target interaction, drug-target affinity prediction, virtual screening, and protein-protein interaction modeling, with a large catalogue of pretrained encoders.",
        article = nil,
        aliases = { "DeepPurpose" },
        es = "Biblioteca de código abierto en PyTorch que ofrece una interfaz unificada para predicción de interacción fármaco-diana, afinidad fármaco-diana, cribado virtual y modelado de interacciones proteína-proteína, con un amplio catálogo de codificadores preentrenados.",
        zh = "基于 PyTorch 的开源工具包,为药物-靶标相互作用、药物-靶标亲和力预测、虚拟筛选和蛋白-蛋白相互作用建模提供统一接口,并附带大量预训练编码器。",
        term_es = "DeepPurpose",
        term_zh = "DeepPurpose",
        aliases_es = { "DeepPurpose" },
        aliases_zh = { "DeepPurpose" },
    }
    
    data["deepsea"] = {
        short = "A deep convolutional neural network that predicts the chromatin effects of noncoding DNA sequence variants, including transcription factor binding, DNase I sensitivity, and histone marks, directly from sequence.",
        article = nil,
        aliases = { "DeepSEA" },
        es = "Red neuronal convolucional profunda que predice los efectos sobre la cromatina de variantes de secuencia de ADN no codificante, incluyendo la unión de factores de transcripción, la sensibilidad a DNase I y marcas de histonas, directamente a partir de la secuencia.",
        zh = "一种深度卷积神经网络,可直接从 DNA 序列预测非编码变异对染色质的影响,包括转录因子结合、DNase I 敏感性和组蛋白修饰。",
        term_es = "DeepSEA",
        term_zh = "DeepSEA",
        aliases_es = { "DeepSEA" },
        aliases_zh = { "DeepSEA" },
    }
    
    data["deepseek"] = {
        short = "A family of open-weight large language models developed by DeepSeek AI, including general-purpose chat models and specialized variants for coding and mathematical reasoning, notable for strong performance at relatively low training cost.",
        article = nil,
        aliases = { "DeepSeek", "DeepSeek AI", "DeepSeek model", "DeepSeek family", "DeepSeek-V3", "DeepSeek-R1" },
        es = "Familia de grandes modelos de lenguaje de pesos abiertos desarrollada por DeepSeek AI, que incluye modelos generales de chat y variantes especializadas para programación y razonamiento matemático, destacando por su buen rendimiento con un coste de entrenamiento relativamente bajo.",
        zh = "由 DeepSeek AI 开发的开放权重大型语言模型系列,包括通用对话模型以及面向代码和数学推理的专用变体,以相对较低的训练成本实现强劲性能而著称。",
        term_es = "DeepSeek",
        term_zh = "DeepSeek",
        aliases_es = { "modelo DeepSeek", "DeepSeek AI" },
        aliases_zh = { "DeepSeek 模型", "深度求索" },
    }
    
    data["deepseek moe"] = {
        short = "A mixture-of-experts architecture from DeepSeek that uses fine-grained expert segmentation and a small number of always-active shared experts, demonstrated in DeepSeek-MoE 16B as more parameter-efficient than prior MoE designs.",
        article = nil,
        aliases = { "DeepSeekMoE", "DeepSeek-MoE", "DeepSeek MoE", "DeepSeek-MoE 16B" },
        es = "Arquitectura de mezcla de expertos de DeepSeek que emplea una segmentación fina de expertos junto con un pequeño conjunto de expertos compartidos siempre activos; demostrada en DeepSeek-MoE 16B como más eficiente en parámetros que diseños MoE anteriores.",
        zh = "DeepSeek 提出的 Mixture-of-Experts 架构,采用细粒度专家划分和少量始终激活的共享专家。DeepSeek-MoE 16B 验证了其在参数效率上优于此前的 MoE 设计。",
        term_es = "DeepSeekMoE",
        term_zh = "DeepSeekMoE",
        aliases_es = { "DeepSeek-MoE", "DeepSeek MoE" },
        aliases_zh = { "DeepSeek-MoE", "DeepSeek MoE" },
    }
    
    data["deepseek r1"] = {
        short = "An open-weights reasoning LLM released by DeepSeek in 2025, trained largely via large-scale reinforcement learning with verifiable rewards on top of DeepSeek-V3, achieving competitive performance on math and code benchmarks.",
        article = nil,
        aliases = { "DeepSeek-R1", "DeepSeek R1", "R1", "DeepSeek-R1-Zero" },
        es = "LLM de razonamiento con pesos abiertos publicado por DeepSeek en 2025, entrenado en gran medida mediante aprendizaje por refuerzo a gran escala con recompensas verificables sobre DeepSeek-V3, alcanzando un rendimiento competitivo en pruebas de matemáticas y de código.",
        zh = "DeepSeek 于 2025 年发布的开源权重推理大模型,主要在 DeepSeek-V3 基础上通过大规模可验证奖励的强化学习训练而成,在数学与代码基准上取得了具有竞争力的表现。",
        term_es = "DeepSeek-R1",
        term_zh = "DeepSeek-R1",
        aliases_es = { "DeepSeek R1", "R1" },
        aliases_zh = { "DeepSeek R1", "R1", "DeepSeek-R1-Zero" },
    }
    
    data["deepseek v2"] = {
        short = "A 236B-parameter mixture-of-experts language model released by DeepSeek in 2024 with 21B active parameters, introducing Multi-head Latent Attention (MLA) for efficient long-context inference.",
        article = nil,
        aliases = { "DeepSeek-V2", "DeepSeek V2", "DeepSeekV2" },
        es = "Modelo de lenguaje de mezcla de expertos con 236 mil millones de parámetros publicado por DeepSeek en 2024, con 21 mil millones activos, que introduce Multi-head Latent Attention (MLA) para una inferencia eficiente con contexto largo.",
        zh = "DeepSeek 于 2024 年发布的 Mixture-of-Experts 语言模型,总参数 2360 亿、激活参数 210 亿,引入多头潜注意力(MLA)以实现高效的长上下文推理。",
        term_es = "DeepSeek-V2",
        term_zh = "DeepSeek-V2",
        aliases_es = { "DeepSeek V2" },
        aliases_zh = { "DeepSeek V2", "DeepSeekV2" },
    }
    
    data["deepseek v3"] = {
        short = "A 671B-parameter mixture-of-experts language model from DeepSeek released in late 2024 with 37B active parameters per token, trained on 14.8T tokens using Multi-head Latent Attention and an auxiliary-loss-free MoE balancing scheme.",
        article = nil,
        aliases = { "DeepSeek-V3", "DeepSeek V3", "DeepSeekV3" },
        es = "Modelo de lenguaje de mezcla de expertos con 671 mil millones de parámetros de DeepSeek publicado a finales de 2024, con 37 mil millones activos por token, entrenado con 14,8 billones de tokens utilizando Multi-head Latent Attention y un esquema de equilibrio MoE sin pérdida auxiliar.",
        zh = "DeepSeek 于 2024 年底发布的 Mixture-of-Experts 语言模型,总参数 6710 亿、每个词元激活 370 亿,在 14.8 万亿词元上训练,采用多头潜注意力(MLA)以及无需辅助损失的 MoE 负载均衡方案。",
        term_es = "DeepSeek-V3",
        term_zh = "DeepSeek-V3",
        aliases_es = { "DeepSeek V3" },
        aliases_zh = { "DeepSeek V3", "DeepSeekV3" },
    }
    
    data["deepseek-coder"] = {
        short = "A family of open-weights code LLMs from DeepSeek (1.3B–33B) trained on 2T tokens of code-heavy data, supporting repository-level fill-in-the-middle and competitive on HumanEval and MBPP at release.",
        article = nil,
        aliases = { "DeepSeek-Coder", "DeepSeek Coder", "DeepSeekCoder" },
        es = "Familia de LLMs de código con pesos abiertos de DeepSeek (1,3B–33B) entrenados con 2 billones de tokens de datos predominantemente de código, con soporte para fill-in-the-middle a nivel de repositorio y competitivos en HumanEval y MBPP en su lanzamiento.",
        zh = "DeepSeek 推出的开源权重代码大模型家族(1.3B–33B),在 2 万亿以代码为主的词元上训练,支持仓库级中间填充(FIM),发布时在 HumanEval 与 MBPP 上具有竞争力。",
        term_es = "DeepSeek-Coder",
        term_zh = "DeepSeek-Coder",
        aliases_es = { "DeepSeek Coder" },
        aliases_zh = { "DeepSeek Coder", "DeepSeekCoder" },
    }
    
    data["deepseek-coder v2"] = {
        short = "A mixture-of-experts code LLM from DeepSeek released in 2024 (236B total / 21B active parameters), continued from DeepSeek-V2 on additional code and math data and supporting 338 programming languages.",
        article = nil,
        aliases = { "DeepSeek-Coder-V2", "DeepSeek Coder V2", "DeepSeek-Coder V2", "DeepSeekCoder V2" },
        es = "LLM de código con mezcla de expertos de DeepSeek lanzado en 2024 (236B totales / 21B activos), continuado a partir de DeepSeek-V2 con datos adicionales de código y matemáticas, y con soporte para 338 lenguajes de programación.",
        zh = "DeepSeek 于 2024 年发布的 Mixture-of-Experts 代码大模型(总参数 2360 亿 / 激活参数 210 亿),由 DeepSeek-V2 在额外的代码与数学数据上继续训练而来,支持 338 种编程语言。",
        term_es = "DeepSeek-Coder-V2",
        term_zh = "DeepSeek-Coder-V2",
        aliases_es = { "DeepSeek Coder V2" },
        aliases_zh = { "DeepSeek Coder V2", "DeepSeekCoder V2" },
    }
    
    data["deepseek-math"] = {
        short = "A 7B open-weights LLM from DeepSeek specialized in mathematical reasoning, continued from DeepSeek-Coder-Base on math-heavy web data and trained with the Group Relative Policy Optimization (GRPO) RL method.",
        article = nil,
        aliases = { "DeepSeek-Math", "DeepSeekMath", "DeepSeek Math", "DeepSeekMath 7B" },
        es = "LLM de 7B con pesos abiertos de DeepSeek especializado en razonamiento matemático, continuado a partir de DeepSeek-Coder-Base con datos web de contenido matemático y entrenado con el método de aprendizaje por refuerzo Group Relative Policy Optimization (GRPO).",
        zh = "DeepSeek 推出的 70 亿参数开源权重数学专用大模型,由 DeepSeek-Coder-Base 在数学重的网页数据上继续训练,并使用 Group Relative Policy Optimization(GRPO)强化学习方法进一步训练。",
        term_es = "DeepSeekMath",
        term_zh = "DeepSeekMath",
        aliases_es = { "DeepSeek-Math", "DeepSeek Math" },
        aliases_zh = { "DeepSeek-Math", "DeepSeek Math", "DeepSeekMath 7B" },
    }
    
    data["deepseek-prover"] = {
        short = "A series of open-weights LLMs from DeepSeek specialized for formal theorem proving in Lean 4, trained with synthetic proof data and reinforcement learning from proof-checker feedback.",
        article = nil,
        aliases = { "DeepSeek-Prover", "DeepSeekProver", "DeepSeek Prover", "DeepSeek-Prover-V1.5", "DeepSeek-Prover-V2" },
        es = "Serie de LLMs con pesos abiertos de DeepSeek especializados en demostración formal de teoremas en Lean 4, entrenados con datos sintéticos de demostraciones y aprendizaje por refuerzo a partir de la retroalimentación del verificador de pruebas.",
        zh = "DeepSeek 推出的开源权重大模型系列,专注于在 Lean 4 中进行形式化定理证明,使用合成的证明数据训练,并从证明检查器反馈中通过强化学习进一步优化。",
        term_es = "DeepSeek-Prover",
        term_zh = "DeepSeek-Prover",
        aliases_es = { "DeepSeek Prover", "DeepSeek-Prover-V1.5", "DeepSeek-Prover-V2" },
        aliases_zh = { "DeepSeek Prover", "DeepSeek-Prover-V1.5", "DeepSeek-Prover-V2" },
    }
    
    data["deepseek-vl"] = {
        short = "An open-source vision-language model from DeepSeek that combines a hybrid vision encoder with a large language model and a multi-stage training recipe targeting real-world multimodal understanding.",
        article = nil,
        aliases = { "DeepSeek-VL", "DeepSeek VL" },
        es = "Modelo de visión y lenguaje de código abierto de DeepSeek que combina un codificador visual híbrido con un modelo de lenguaje grande y una receta de entrenamiento por etapas, orientado a la comprensión multimodal en escenarios reales.",
        zh = "DeepSeek推出的开源视觉-语言模型,结合混合视觉编码器与大语言模型,采用多阶段训练方案,面向真实场景的多模态理解。",
        term_es = "DeepSeek-VL",
        term_zh = "DeepSeek-VL",
        aliases_es = { "DeepSeek VL" },
        aliases_zh = { "DeepSeek VL" },
    }
    
    data["deepseek-vl2"] = {
        short = "A second-generation open-source vision-language model family from DeepSeek built on a Mixture-of-Experts language backbone with dynamic high-resolution image tiling, improving over DeepSeek-VL across multimodal benchmarks.",
        article = nil,
        aliases = { "DeepSeek-VL2", "DeepSeek VL2", "DeepSeek-VL 2" },
        es = "Familia de modelos de visión y lenguaje de código abierto de segunda generación de DeepSeek, construida sobre un backbone de lenguaje con mezcla de expertos y mosaico dinámico de imágenes de alta resolución, que mejora a DeepSeek-VL en pruebas multimodales.",
        zh = "DeepSeek推出的第二代开源视觉-语言模型系列,基于混合专家语言主干并采用动态高分辨率图像切片,在多模态基准上优于DeepSeek-VL。",
        term_es = "DeepSeek-VL2",
        term_zh = "DeepSeek-VL2",
        aliases_es = { "DeepSeek VL2" },
        aliases_zh = { "DeepSeek VL2" },
    }
    
    data["deepsite"] = {
        short = "Convolutional neural network method that predicts ligand-binding sites on a protein by treating the 3D structure as a voxelized grid of pharmacophoric channels and outputting a binding-site probability map.",
        article = nil,
        aliases = { "DeepSite" },
        es = "Método basado en redes neuronales convolucionales que predice sitios de unión a ligandos en una proteína tratando la estructura 3D como una rejilla voxelizada de canales farmacofóricos y produciendo un mapa de probabilidad del sitio de unión.",
        zh = "一种卷积神经网络方法,将蛋白三维结构视为体素化的药效团通道网格,输出配体结合位点的概率图,从而预测结合位点。",
        term_es = "DeepSite",
        term_zh = "DeepSite",
        aliases_es = { "DeepSite" },
        aliases_zh = { "DeepSite" },
    }
    
    data["deepspeech"] = {
        short = "An end-to-end speech recognition system from Baidu that uses a deep recurrent network trained with CTC on spectrogram features and decoded with an n-gram language model, demonstrating that hand-engineered acoustic pipelines could be replaced by a single neural model.",
        article = nil,
        aliases = { "Deep Speech", "DeepSpeech", "Baidu DeepSpeech", "Deep Speech 1" },
        es = "Sistema de reconocimiento de voz extremo a extremo de Baidu que utiliza una red recurrente profunda entrenada con CTC sobre espectrogramas y decodificada con un modelo de lenguaje n-grama, mostrando que los pipelines acústicos manuales podían sustituirse por un único modelo neuronal.",
        zh = "Baidu 提出的端到端语音识别系统:在频谱图上以 CTC 训练深度循环网络,并用 n-gram 语言模型解码,证明人工设计的声学流水线可以由单一神经网络取代。",
        term_es = "DeepSpeech",
        term_zh = "DeepSpeech",
        aliases_es = { "Deep Speech", "DeepSpeech de Baidu" },
        aliases_zh = { "Deep Speech", "百度 DeepSpeech", "DeepSpeech 一代" },
    }
    
    data["deepspeech 2"] = {
        short = "An end-to-end speech recognition system from Baidu that scales DeepSpeech with deeper bidirectional RNNs (or GRUs), 2D convolutional front-ends, batch normalization, and SortaGrad curriculum, achieving competitive English and Mandarin recognition with a unified architecture.",
        article = nil,
        aliases = { "Deep Speech 2", "DeepSpeech2", "DS2", "Baidu DeepSpeech 2" },
        es = "Sistema de reconocimiento de voz extremo a extremo de Baidu que escala DeepSpeech con RNN (o GRU) bidireccionales más profundas, front-ends convolucionales 2D, batch normalization y currículum SortaGrad, logrando reconocimiento competitivo en inglés y mandarín con una arquitectura unificada.",
        zh = "Baidu 在 DeepSpeech 基础上扩展的端到端语音识别系统:采用更深的双向 RNN(或 GRU)、二维卷积前端、批归一化和 SortaGrad 课程,使用单一架构在英文和普通话上都取得有竞争力的效果。",
        term_es = "DeepSpeech 2",
        term_zh = "DeepSpeech 2",
        aliases_es = { "Deep Speech 2", "DS2" },
        aliases_zh = { "Deep Speech 2", "DS2", "百度 DeepSpeech 2" },
    }
    
    data["deepspeed"] = {
        short = "An open-source deep-learning training library from Microsoft Research that provides ZeRO sharding, pipeline and tensor parallelism, mixed precision, offloading and inference engines, designed for training and serving very large transformer models.",
        article = nil,
        aliases = { "DeepSpeed", "Microsoft DeepSpeed", "deepspeed-ai" },
        es = "Biblioteca de entrenamiento de aprendizaje profundo de código abierto de Microsoft Research que ofrece partición ZeRO, paralelismo de tubería y de tensor, precisión mixta, descarga (offloading) y motores de inferencia, pensada para entrenar y servir modelos transformer muy grandes.",
        zh = "微软研究院开源的深度学习训练库,提供 ZeRO 切分、流水线并行、张量并行、混合精度、参数卸载以及推理引擎,专为大规模 transformer 模型的训练与服务而设计。",
        term_es = "DeepSpeed",
        term_zh = "DeepSpeed",
        aliases_es = { "biblioteca DeepSpeed" },
        aliases_zh = { "DeepSpeed 库", "微软 DeepSpeed" },
    }
    
    data["deepspeed-inference"] = {
        short = "Microsoft's inference component within the DeepSpeed library, providing tensor and pipeline parallel kernels, fused operators and INT8 quantization for serving large transformer models with low latency.",
        article = nil,
        aliases = { "DeepSpeed-Inference", "DeepSpeed Inference", "DS-Inference" },
        es = "Componente de inferencia de Microsoft dentro de la biblioteca DeepSpeed, que proporciona kernels de paralelismo de tensores y de pipeline, operadores fusionados y cuantización INT8 para servir grandes modelos transformer con baja latencia.",
        zh = "微软 DeepSpeed 库中的推理组件,提供张量并行与流水线并行内核、融合算子以及 INT8 量化,用于以低延迟为大型 Transformer 模型提供服务。",
        term_es = "DeepSpeed-Inference",
        term_zh = "DeepSpeed-Inference",
        aliases_es = { "DeepSpeed Inference", "DS-Inference" },
        aliases_zh = { "DeepSpeed Inference", "DS-Inference" },
    }
    
    data["deeptmhmm"] = {
        short = "A deep learning model that predicts the topology of transmembrane proteins, classifying each residue as membrane-spanning, cytoplasmic, or extracellular for both alpha-helical and beta-barrel proteins.",
        article = nil,
        aliases = { "DeepTMHMM" },
        es = "Modelo de aprendizaje profundo que predice la topología de proteínas transmembrana, clasificando cada residuo como transmembrana, citoplásmico o extracelular tanto para proteínas de hélice alfa como de barril beta.",
        zh = "一种深度学习模型,用于预测跨膜蛋白的拓扑结构,将每个残基分类为跨膜、胞内或胞外,适用于α-螺旋和β-桶两类跨膜蛋白。",
        term_es = "DeepTMHMM",
        term_zh = "DeepTMHMM",
        aliases_es = { "DeepTMHMM" },
        aliases_zh = { "DeepTMHMM" },
    }
    
    data["deepvariant"] = {
        short = "A deep convolutional neural network developed by Google that calls genetic variants from aligned sequencing reads by treating pileups as images and classifying candidate sites as homozygous reference, heterozygous, or homozygous alternate.",
        article = nil,
        aliases = { "DeepVariant" },
        es = "Red neuronal convolucional profunda desarrollada por Google que identifica variantes genéticas a partir de lecturas de secuenciación alineadas, tratando los pileups como imágenes y clasificando los sitios candidatos como homocigotos de referencia, heterocigotos u homocigotos alternativos.",
        zh = "Google 开发的深度卷积神经网络,将测序读段比对的 pileup 视为图像,对候选位点进行纯合参考、杂合或纯合变异的分类,从而完成变异检测。",
        term_es = "DeepVariant",
        term_zh = "DeepVariant",
        aliases_es = { "DeepVariant" },
        aliases_zh = { "DeepVariant" },
    }
    
    data["deepwalk"] = {
        short = "A graph representation learning method that generates short truncated random walks on a graph and applies a skip-gram language model to learn low-dimensional vector embeddings of nodes.",
        article = nil,
        aliases = { "DeepWalk" },
        es = "Método de aprendizaje de representaciones en grafos que genera caminatas aleatorias truncadas y aplica un modelo skip-gram para aprender embeddings vectoriales de baja dimensión de los nodos.",
        zh = "一种图表示学习方法,在图上生成截断的随机游走,并应用skip-gram语言模型学习节点的低维向量嵌入。",
        term_es = "DeepWalk",
        term_zh = "DeepWalk",
        aliases_es = { "DeepWalk" },
        aliases_zh = { "DeepWalk" },
    }
    
    data["defier"] = {
        short = "In the local average treatment effect framework with a binary instrument, a unit whose treatment status moves opposite to its instrument assignment; the LATE monotonicity assumption rules out defiers.",
        article = nil,
        aliases = { "defiers", "non-monotone unit" },
        es = "En el marco del efecto local promedio del tratamiento con instrumento binario, unidad cuyo estado de tratamiento se mueve en dirección opuesta a la asignación del instrumento; el supuesto de monotonicidad de LATE excluye a los defiers.",
        zh = "在带二值工具变量的局部平均处置效应(LATE)框架中,处置状态与工具分配方向相反的单位;LATE 的单调性假设排除了 defier。",
        term_es = "defier",
        term_zh = "defier",
        aliases_es = { "desafiante", "unidad no monótona" },
        aliases_zh = { "反抗者", "反向者", "非单调单位" },
    }
    
    data["deformable detr"] = {
        short = "An extension of DETR introduced by Zhu et al. in 2021 in which each attention head only attends to a small set of learned sampling offsets around a reference point, accelerating convergence and improving small-object detection.",
        article = nil,
        aliases = { "Deformable DETR", "Deformable-DETR" },
        es = "Extensión de DETR presentada por Zhu et al. en 2021 en la que cada cabeza de atención atiende solo a un pequeño conjunto de desplazamientos de muestreo aprendidos alrededor de un punto de referencia, acelerando la convergencia y mejorando la detección de objetos pequeños.",
        zh = "由 Zhu 等人于 2021 年提出的 DETR 扩展,每个注意力头仅关注参考点周围少量可学习的采样偏移,从而加速收敛并改善小目标检测。",
        term_es = "Deformable DETR",
        term_zh = "Deformable DETR",
        aliases_es = { "Deformable DETR", "DETR deformable" },
        aliases_zh = { "Deformable DETR", "可变形 DETR" },
    }
    
    data["deit"] = {
        short = "A data-efficient vision transformer introduced by Touvron et al. in 2021 that trains ViT on ImageNet alone (without large-scale pretraining) using strong augmentation and a distillation token learned from a CNN teacher.",
        article = nil,
        aliases = { "DeiT", "Data-efficient Image Transformer", "DeiT-Ti", "DeiT-S", "DeiT-B", "DeiT III" },
        es = "Vision transformer eficiente en datos presentado por Touvron et al. en 2021 que entrena ViT solo con ImageNet (sin preentrenamiento a gran escala) utilizando una fuerte augmentación de datos y un token de destilación aprendido a partir de un profesor CNN.",
        zh = "由 Touvron 等人于 2021 年提出的数据高效视觉 Transformer,仅在 ImageNet 上训练 ViT(无需大规模预训练),使用强数据增强和从 CNN 教师网络学习的蒸馏 token。",
        term_es = "DeiT",
        term_zh = "DeiT",
        aliases_es = { "DeiT", "transformer de imagen eficiente en datos" },
        aliases_zh = { "DeiT", "数据高效图像 Transformer" },
    }
    
    data["delayed gradient compensation"] = {
        short = "A technique for asynchronous distributed training that corrects stale gradients by approximating the current Hessian-vector product with a Taylor expansion, reducing the convergence penalty caused by parameter staleness.",
        article = nil,
        aliases = { "DC-ASGD", "delay compensation", "delay-compensated SGD", "delayed gradient correction" },
        es = "Técnica para entrenamiento distribuido asincrónico que corrige los gradientes obsoletos aproximando el producto Hessiano-vector actual mediante una expansión de Taylor, reduciendo la penalización en la convergencia causada por el desfase de parámetros.",
        zh = "一种用于异步分布式训练的技术:通过 Taylor 展开近似当前的 Hessian-向量乘积来修正陈旧梯度,从而减小参数滞后带来的收敛损失。",
        term_es = "compensación de gradientes con retardo",
        term_zh = "延迟梯度补偿",
        aliases_es = { "DC-ASGD", "compensación de retardo", "SGD con compensación de retardo" },
        aliases_zh = { "DC-ASGD", "延迟补偿 SGD", "延迟梯度修正" },
    }
    
    data["delayed impact"] = {
        short = "The downstream, longer-term effects of an algorithmic decision on the well-being or qualifications of affected individuals or groups, which static fairness criteria may overlook. Formalized by Liu et al. (2018).",
        article = nil,
        aliases = { "long-term impact of fairness", "delayed-impact fairness", "long-term fairness" },
        es = "Efectos posteriores y a largo plazo de una decisión algorítmica sobre el bienestar o las cualificaciones de los individuos o grupos afectados, que los criterios estáticos de equidad pueden pasar por alto. Formalizado por Liu et al. (2018).",
        zh = "算法决策对受影响个体或群体的福祉或资质所产生的下游、较长期的影响,静态公平性准则可能忽略这些影响。由 Liu 等人(2018 年)形式化。",
        term_es = "impacto diferido",
        term_zh = "延迟影响",
        aliases_es = { "impacto a largo plazo", "equidad de impacto diferido" },
        aliases_zh = { "长期影响", "滞后影响", "延迟性影响" },
    }
    
    data["deliberative alignment"] = {
        short = "An alignment approach introduced by OpenAI for reasoning models in which the model is trained to explicitly reason about a written safety specification at inference time before producing a response.",
        article = nil,
        aliases = { "Deliberative Alignment", "deliberative alignment training" },
        es = "Enfoque de alineamiento introducido por OpenAI para modelos de razonamiento, en el que el modelo es entrenado para razonar explícitamente sobre una especificación de seguridad escrita en tiempo de inferencia antes de producir una respuesta.",
        zh = "OpenAI 针对推理模型提出的一种对齐方法:训练模型在生成回答之前,先显式地围绕一份书面安全规范进行推理。",
        term_es = "alineamiento deliberativo",
        term_zh = "审议式对齐",
        aliases_es = { "Deliberative Alignment", "alineación deliberativa" },
        aliases_zh = { "Deliberative Alignment", "审慎对齐", "深思式对齐" },
    }
    
    data["deliberative reasoning"] = {
        short = "A reasoning regime in which a model spends substantial inference-time compute generating intermediate thoughts, exploring alternatives or self-checking before committing to a final answer.",
        article = nil,
        aliases = { "deliberate reasoning", "system-2 reasoning", "slow reasoning", "deliberation" },
        es = "Régimen de razonamiento en el que un modelo dedica un cómputo sustancial en tiempo de inferencia a generar pensamientos intermedios, explorar alternativas o autoevaluarse antes de comprometerse con una respuesta final.",
        zh = "一种推理范式:模型在推理阶段投入较多计算,先生成中间思考、探索备选方案或进行自我检查,再给出最终答案。",
        term_es = "razonamiento deliberativo",
        term_zh = "审议式推理",
        aliases_es = { "razonamiento deliberado", "razonamiento de sistema 2", "razonamiento lento" },
        aliases_zh = { "审慎推理", "系统二推理", "慢思考推理" },
    }
    
    data["delta features"] = {
        short = "First-order temporal derivatives of acoustic feature vectors (typically MFCCs), computed via a regression-based finite-difference filter over a short window. Capture short-term spectral dynamics and are appended to the static features.",
        article = nil,
        aliases = { "delta MFCC", "delta coefficients", "first-order delta features", "Δ features" },
        es = "Derivadas temporales de primer orden de los vectores de características acústicas (típicamente MFCC), calculadas mediante un filtro de diferencia finita basado en regresión sobre una ventana corta. Capturan dinámicas espectrales de corto plazo y se concatenan a las características estáticas.",
        zh = "声学特征向量(通常是 MFCC)的时间一阶差分,常用基于回归的有限差分滤波器在短窗内计算。用于刻画短时频谱变化,并与静态特征拼接使用。",
        term_es = "características delta",
        term_zh = "差分特征",
        aliases_es = { "coeficientes delta", "MFCC delta", "Δ MFCC" },
        aliases_zh = { "一阶差分特征", "delta 特征", "Δ 特征" },
    }
    
    data["delta-delta features"] = {
        short = "Second-order temporal derivatives of acoustic features, computed by applying the delta operator to delta features. Capture acceleration in spectral evolution and are typically concatenated with static and delta features in classical ASR front-ends.",
        article = nil,
        aliases = { "delta delta features", "acceleration features", "ΔΔ features", "double-delta features", "second-order delta features" },
        es = "Derivadas temporales de segundo orden de las características acústicas, obtenidas aplicando el operador delta sobre las características delta. Capturan la aceleración de la evolución espectral y suelen concatenarse con las características estáticas y delta en front-ends clásicos de ASR.",
        zh = "声学特征的时间二阶差分,通过对一阶差分特征再次应用差分算子得到。刻画频谱变化的加速度,经典 ASR 前端中常与静态特征和一阶差分特征拼接使用。",
        term_es = "características delta-delta",
        term_zh = "二阶差分特征",
        aliases_es = { "delta delta", "características de aceleración", "ΔΔ MFCC" },
        aliases_zh = { "delta-delta 特征", "加速度特征", "ΔΔ 特征", "双差分特征" },
    }
    
    data["delta-ilp"] = {
        short = "A differentiable inductive logic programming system (∂ILP) that learns first-order logic rules by representing logical inference as differentiable forward chaining over fuzzy truth values, trainable with gradient descent.",
        article = nil,
        aliases = { "∂ILP", "dILP", "differentiable ILP", "differentiable inductive logic programming" },
        es = "Sistema diferenciable de programación lógica inductiva (∂ILP) que aprende reglas de lógica de primer orden representando la inferencia lógica como encadenamiento hacia adelante diferenciable sobre valores de verdad difusos, entrenable mediante descenso de gradiente.",
        zh = "一种可微分归纳逻辑编程系统(∂ILP),通过将逻辑推理表示为模糊真值上的可微分前向链推理来学习一阶逻辑规则,可用梯度下降训练。",
        term_es = "∂ILP",
        term_zh = "∂ILP",
        aliases_es = { "∂ILP", "dILP", "ILP diferenciable", "programación lógica inductiva diferenciable" },
        aliases_zh = { "∂ILP", "dILP", "可微归纳逻辑编程", "可微ILP" },
    }
    
    data["demographic disparity"] = {
        short = "Any observable difference in outcome rates, treatment, or model predictions across demographic groups defined by protected attributes such as race, gender, or age.",
        article = nil,
        aliases = { "demographic gap", "group disparity", "between-group disparity" },
        es = "Cualquier diferencia observable en tasas de resultado, trato o predicciones del modelo entre grupos demográficos definidos por atributos protegidos como raza, género o edad.",
        zh = "在按种族、性别或年龄等受保护属性划分的人口群体之间,结果率、对待方式或模型预测中可观察到的任何差异。",
        term_es = "disparidad demográfica",
        term_zh = "人口统计差异",
        aliases_es = { "brecha demográfica", "disparidad entre grupos" },
        aliases_zh = { "人口差异", "群体差异", "人群差异", "人口学差异" },
    }
    
    data["demographic disparity index"] = {
        short = "A scalar metric quantifying the magnitude of demographic disparity between protected groups, typically computed as a ratio or difference of selection or outcome rates and used to flag potentially unfair models.",
        article = nil,
        aliases = { "DDI", "disparity index", "demographic-disparity index" },
        es = "Métrica escalar que cuantifica la magnitud de la disparidad demográfica entre grupos protegidos, típicamente calculada como razón o diferencia de tasas de selección o resultado, y utilizada para señalar modelos potencialmente injustos.",
        zh = "一种用于量化受保护群体之间人口差异幅度的标量指标,通常以选择率或结果率的比值或差值表示,用于标识可能不公平的模型。",
        term_es = "índice de disparidad demográfica",
        term_zh = "人口差异指数",
        aliases_es = { "DDI", "índice de disparidad" },
        aliases_zh = { "DDI", "差异指数", "人口统计差异指数" },
    }
    
    data["demographic parity"] = {
        short = "A group-fairness criterion requiring that the rate at which a classifier issues a positive prediction be equal across protected groups, independent of the true label. Equivalent to statistical parity.",
        article = nil,
        aliases = { "statistical parity", "independence", "DP", "demographic-parity" },
        es = "Criterio de equidad grupal que exige que la tasa con que un clasificador emite una predicción positiva sea igual entre grupos protegidos, con independencia de la etiqueta verdadera. Equivalente a la paridad estadística.",
        zh = "一种群体公平性准则,要求分类器给出正预测的比率在不同受保护群体之间相等,与真实标签无关。等价于统计均等。",
        term_es = "paridad demográfica",
        term_zh = "人口均等",
        aliases_es = { "paridad estadística", "independencia", "DP" },
        aliases_zh = { "统计均等", "人口均衡", "独立性", "DP", "人口学均等" },
    }
    
    data["demographic parity difference"] = {
        short = "The absolute difference between the highest and lowest positive-prediction rates across protected groups; a value of zero indicates exact demographic parity.",
        article = nil,
        aliases = { "DPD", "statistical parity difference", "SPD", "parity difference" },
        es = "Diferencia absoluta entre la tasa más alta y la más baja de predicciones positivas entre los grupos protegidos; un valor de cero indica paridad demográfica exacta.",
        zh = "受保护群体之间正预测率最高值与最低值之间的绝对差;该值为零表示人口均等完全成立。",
        term_es = "diferencia de paridad demográfica",
        term_zh = "人口均等差",
        aliases_es = { "DPD", "diferencia de paridad estadística", "SPD" },
        aliases_zh = { "DPD", "统计均等差", "人口均等差异", "人口统计均等差" },
    }
    
    data["demographic parity ratio"] = {
        short = "The ratio between the lowest and highest positive-prediction rates across protected groups; a value of one indicates exact demographic parity, and values below the four-fifths (0.8) threshold are often flagged under the U.S. EEOC adverse-impact rule.",
        article = nil,
        aliases = { "DPR", "statistical parity ratio", "parity ratio", "disparate impact ratio" },
        es = "Razón entre la tasa más baja y la más alta de predicciones positivas entre los grupos protegidos; un valor de uno indica paridad demográfica exacta y valores por debajo del umbral de cuatro quintos (0,8) suelen señalarse bajo la regla de impacto adverso de la EEOC estadounidense.",
        zh = "受保护群体之间正预测率最低值与最高值之间的比率;该值为 1 表示人口均等完全成立,低于五分之四(0.8)阈值的取值通常会按美国 EEOC 不利影响规则被标记。",
        term_es = "razón de paridad demográfica",
        term_zh = "人口均等比",
        aliases_es = { "DPR", "razón de paridad estadística", "razón de impacto dispar" },
        aliases_zh = { "DPR", "人口均等比率", "统计均等比", "差别影响比" },
    }
    
    data["demonstration selection"] = {
        short = "The problem of choosing which input-output examples to include in an in-context learning prompt for a given test query, typically by similarity, diversity or learned scoring.",
        article = nil,
        aliases = { "in-context example selection", "few-shot example selection", "exemplar selection", "ICL example selection" },
        es = "Problema de elegir qué ejemplos de entrada-salida incluir en un prompt de aprendizaje en contexto para una consulta de prueba dada, normalmente mediante similitud, diversidad o puntuación aprendida.",
        zh = "在上下文学习中,为给定的测试查询挑选作为提示包含的输入—输出示例的问题,通常依据相似度、多样性或学习得到的打分进行选择。",
        term_es = "selección de demostraciones",
        term_zh = "示例选择",
        aliases_es = { "selección de ejemplos en contexto", "selección de ejemplos few-shot", "selección de ejemplares" },
        aliases_zh = { "上下文示例选择", "Few-shot 示例选择", "演示样例选择" },
    }
    
    data["demucs"] = {
        short = "A music source separation model from Meta that combines a U-Net-style time-domain encoder-decoder with a parallel spectrogram branch (Hybrid Demucs) and, in later versions, a Transformer cross-domain bottleneck. State-of-the-art on the MUSDB18 benchmark for years.",
        article = nil,
        aliases = { "Demucs", "Hybrid Demucs", "HTDemucs", "Hybrid Transformer Demucs" },
        es = "Modelo de separación de fuentes musicales de Meta que combina un encoder-decoder en el dominio del tiempo de tipo U-Net con una rama paralela en espectrograma (Hybrid Demucs) y, en versiones posteriores, un cuello de botella Transformer cross-domain. Estado del arte en el benchmark MUSDB18 durante años.",
        zh = "Meta 提出的音乐源分离模型:融合时域 U-Net 风格的编码器-解码器与并行的频谱分支(Hybrid Demucs),后续版本进一步引入跨域 Transformer 瓶颈。在 MUSDB18 基准上长期保持最先进水平。",
        term_es = "Demucs",
        term_zh = "Demucs",
        aliases_es = { "Hybrid Demucs", "Demucs híbrido", "HTDemucs" },
        aliases_zh = { "Demucs", "Hybrid Demucs", "HTDemucs", "混合 Demucs" },
    }
    
    data["denigration harm"] = {
        short = "A representational harm in which an AI system produces outputs that demean, insult, or disparage a particular social group, reinforcing negative stereotypes regardless of any allocative effect.",
        article = nil,
        aliases = { "harm of denigration", "denigration", "disparagement harm" },
        es = "Daño representacional en el que un sistema de IA produce salidas que degradan, insultan o desprecian a un grupo social determinado, reforzando estereotipos negativos al margen de cualquier efecto distributivo.",
        zh = "一种表征性伤害,指人工智能系统产生贬低、侮辱或诋毁特定社会群体的输出,无论是否带有分配性影响,都会强化负面刻板印象。",
        term_es = "daño por denigración",
        term_zh = "贬损伤害",
        aliases_es = { "daño de denigración", "denigración" },
        aliases_zh = { "贬低伤害", "诋毁伤害", "诋毁性伤害" },
    }
    
    data["denoising diffusion probabilistic model"] = {
        short = "A generative model (Ho et al., 2020) that defines a fixed Gaussian forward diffusion process gradually corrupting data into noise, and learns a parameterized reverse process that denoises step by step; trained by a simplified noise-prediction loss.",
        article = nil,
        aliases = { "DDPM", "denoising diffusion model", "diffusion probabilistic model" },
        es = "Modelo generativo (Ho et al., 2020) que define un proceso fijo de difusión gaussiana hacia adelante que va corrompiendo los datos hasta convertirlos en ruido, y aprende un proceso inverso parametrizado que los desruidifica paso a paso; se entrena con una pérdida simplificada de predicción de ruido.",
        zh = "Ho 等人于 2020 年提出的生成模型:定义一个将数据逐步加噪为高斯噪声的固定前向扩散过程,并学习一个参数化的反向过程逐步去噪生成样本;训练目标为简化的噪声预测损失。",
        term_es = "modelo probabilístico de difusión por desruidificación",
        term_zh = "去噪扩散概率模型",
        aliases_es = { "DDPM", "modelo de difusión por desruidificación", "modelo probabilístico de difusión" },
        aliases_zh = { "DDPM", "去噪扩散模型", "扩散概率模型" },
    }
    
    data["denoising language model"] = {
        short = "A language model trained to reconstruct an original sequence from a corrupted (noised) version of it, where corruption may include masking, deletion, shuffling, or span replacement. The pretraining objective behind BART and T5.",
        article = nil,
        aliases = { "denoising autoencoder language model", "denoising pretraining", "denoising objective", "denoising LM" },
        es = "Modelo de lenguaje entrenado para reconstruir una secuencia original a partir de una versión corrompida (con ruido) de ella, donde la corrupción puede incluir enmascaramiento, eliminación, mezcla o reemplazo de tramos. Es el objetivo de preentrenamiento de BART y T5.",
        zh = "一种语言模型,训练目标是从被损坏(加入噪声)的版本中重建原始序列,损坏方式可包括掩码、删除、打乱或片段替换。这是 BART 和 T5 的预训练目标。",
        term_es = "modelo de lenguaje de denoising",
        term_zh = "去噪语言模型",
        aliases_es = { "objetivo de denoising", "preentrenamiento de denoising", "modelo denoising" },
        aliases_zh = { "去噪 LM", "去噪预训练", "降噪语言模型" },
    }
    
    data["denoising score matching"] = {
        short = "A score-matching variant in which the model is trained to predict the score (gradient of log-density) of a noise-perturbed version of the data distribution, avoiding the intractable Hessian term in vanilla score matching. Foundational to diffusion-based generative models.",
        article = nil,
        aliases = { "DSM", "denoising score-matching", "noise-conditional score matching" },
        es = "Variante del score matching en la que el modelo se entrena para predecir el score (gradiente de la log-densidad) de una versión de los datos contaminada con ruido, evitando el término hessiano intratable del score matching original. Es la base de los modelos generativos por difusión.",
        zh = "score matching 的一种变体,模型被训练来预测加噪数据分布的得分(log 密度梯度),从而避免原始 score matching 中难以计算的 Hessian 项。它是扩散式生成模型的理论基础。",
        term_es = "denoising score matching",
        term_zh = "去噪得分匹配",
        aliases_es = { "DSM", "ajuste de score con ruido", "score matching con ruido" },
        aliases_zh = { "DSM", "denoising score matching", "去噪 score matching" },
    }
    
    data["denoising vocoder"] = {
        short = "A neural vocoder trained or conditioned to map noisy or low-quality acoustic features to clean waveform output, jointly performing waveform synthesis and enhancement. Used to improve robustness of TTS and voice conversion in adverse conditions.",
        article = nil,
        aliases = { "denoising neural vocoder", "noise-robust vocoder", "enhancement vocoder" },
        es = "Vocoder neuronal entrenado o condicionado para mapear características acústicas ruidosas o de baja calidad a una forma de onda limpia, realizando síntesis y mejora de forma conjunta. Se usa para hacer más robustos TTS y conversión de voz en condiciones adversas.",
        zh = "经过训练或条件化的神经声码器,可将带噪或低质量的声学特征映射为干净的波形,从而在合成的同时完成增强。用于提升 TTS 和语音转换在恶劣条件下的鲁棒性。",
        term_es = "vocoder con denoising",
        term_zh = "去噪声码器",
        aliases_es = { "vocoder neuronal con denoising", "vocoder robusto al ruido" },
        aliases_zh = { "去噪神经声码器", "抗噪声码器", "增强型声码器" },
    }
    
    data["dense alignment multimodal"] = {
        short = "Multimodal alignment performed at fine granularity, matching individual regions, tokens, or frames across modalities rather than aligning only global representations.",
        article = nil,
        aliases = { "dense multimodal alignment", "fine-grained multimodal alignment", "token-level multimodal alignment" },
        es = "Alineación multimodal realizada con granularidad fina, emparejando regiones, tokens o cuadros individuales entre modalidades en lugar de alinear únicamente representaciones globales.",
        zh = "在细粒度上进行的多模态对齐:在不同模态间逐区域、逐token或逐帧地对齐,而非仅对齐全局表示。",
        term_es = "alineación multimodal densa",
        term_zh = "稠密多模态对齐",
        aliases_es = { "alineación multimodal de grano fino", "alineación multimodal a nivel de token" },
        aliases_zh = { "细粒度多模态对齐", "token级多模态对齐", "密集多模态对齐" },
    }
    
    data["dense captioning"] = {
        short = "A vision task that detects multiple regions in an image and generates a natural-language description for each, combining object localization with image captioning at the region level.",
        article = nil,
        aliases = { "dense image captioning", "DenseCap", "region captioning" },
        es = "Tarea de visión que detecta múltiples regiones en una imagen y genera una descripción en lenguaje natural para cada una, combinando la localización de objetos con la generación de leyendas a nivel de región.",
        zh = "一种视觉任务,检测图像中的多个区域并为每个区域生成自然语言描述,将目标定位与区域级图像描述生成相结合。",
        term_es = "subtitulado denso",
        term_zh = "稠密图像描述",
        aliases_es = { "DenseCap", "subtitulado denso de imágenes", "subtitulado de regiones" },
        aliases_zh = { "DenseCap", "密集图像描述", "区域级图像描述" },
    }
    
    data["dense connection"] = {
        short = "A connectivity pattern in which each layer receives, as input, the concatenated activations of all preceding layers within a block, as in DenseNet.",
        article = nil,
        aliases = { "dense connectivity", "densely connected layer", "dense skip connection" },
        es = "Patrón de conectividad en el que cada capa recibe como entrada la concatenación de las activaciones de todas las capas anteriores dentro de un bloque, como en DenseNet.",
        zh = "一种连接方式,在同一模块内,每一层都将之前所有层的激活拼接后作为输入,如 DenseNet 所采用。",
        term_es = "conexión densa",
        term_zh = "密集连接",
        aliases_es = { "conectividad densa", "capa densamente conectada" },
        aliases_zh = { "稠密连接", "密集连接方式" },
    }
    
    data["dense crf"] = {
        short = "A conditional random field defined over a fully connected graph, typically with Gaussian edge potentials over a feature space; widely used for image segmentation with efficient mean-field inference.",
        article = nil,
        aliases = { "DenseCRF", "fully connected CRF", "dense conditional random field" },
        es = "Campo aleatorio condicional definido sobre un grafo totalmente conectado, normalmente con potenciales gaussianos sobre un espacio de características; ampliamente utilizado en segmentación de imágenes con inferencia eficiente por campo medio.",
        zh = "在全连接图上定义的条件随机场,通常使用特征空间上的高斯边势函数;常用于图像分割,配以高效的均值场推断。",
        term_es = "CRF denso",
        term_zh = "稠密 CRF",
        aliases_es = { "CRF totalmente conectado", "DenseCRF" },
        aliases_zh = { "全连接 CRF", "DenseCRF" },
    }
    
    data["dense retrieval"] = {
        short = "An information retrieval approach that represents queries and documents as dense vectors from neural encoders and ranks documents by vector similarity, capturing semantic rather than purely lexical matches.",
        article = nil,
        aliases = { "Dense Retrieval", "dense passage retrieval", "neural retrieval", "embedding-based retrieval", "DPR" },
        es = "Enfoque de recuperación de información que representa consultas y documentos como vectores densos producidos por codificadores neuronales y ordena los documentos por similitud vectorial, capturando coincidencias semánticas más allá de las puramente léxicas.",
        zh = "一种信息检索方法,使用神经编码器将查询和文档表示为稠密向量,并按向量相似度对文档排序,从而捕获语义而非仅词面匹配。",
        term_es = "recuperación densa",
        term_zh = "稠密检索",
        aliases_es = { "dense retrieval", "recuperación neuronal", "recuperación basada en embeddings", "DPR" },
        aliases_zh = { "dense retrieval", "密集检索", "神经检索", "基于嵌入的检索", "DPR" },
    }
    
    data["dense video captioning"] = {
        short = "A task that localizes multiple events in a video and generates a natural-language description for each, requiring temporal event detection together with caption generation.",
        article = nil,
        aliases = { "dense video description", "event captioning video" },
        es = "Tarea que localiza múltiples eventos en un vídeo y genera una descripción en lenguaje natural para cada uno, requiriendo la detección temporal de eventos junto con la generación de leyendas.",
        zh = "一种任务,定位视频中的多个事件并为每个事件生成自然语言描述,需要同时进行时间事件检测和字幕生成。",
        term_es = "subtitulado denso de vídeo",
        term_zh = "稠密视频描述",
        aliases_es = { "descripción densa de vídeo", "subtitulado denso de eventos en vídeo" },
        aliases_zh = { "密集视频描述", "视频事件描述", "稠密视频字幕" },
    }
    
    data["densenet"] = {
        short = "A convolutional network architecture introduced by Huang et al. in 2017 in which each layer receives feature maps from all preceding layers as input via dense connectivity, encouraging feature reuse.",
        article = nil,
        aliases = { "DenseNet", "Densely Connected Convolutional Network", "DenseNet-121", "DenseNet-169", "DenseNet-201" },
        es = "Arquitectura de red convolucional presentada por Huang et al. en 2017 en la que cada capa recibe como entrada los mapas de características de todas las capas anteriores mediante conectividad densa, favoreciendo la reutilización de características.",
        zh = "由 Huang 等人于 2017 年提出的卷积网络架构,每一层通过密集连接接收所有前层的特征图作为输入,促进特征复用。",
        term_es = "DenseNet",
        term_zh = "DenseNet",
        aliases_es = { "DenseNet-121", "red densamente conectada" },
        aliases_zh = { "密集连接卷积网络", "DenseNet-121", "DenseNet-169" },
    }
    
    data["dependency map"] = {
        short = "A graph that is a D-map of a probability distribution: every conditional independence implied by the graph holds in the distribution, but the distribution may exhibit additional independencies not captured by the graph.",
        article = nil,
        aliases = { "D-map", "D-Map", "dependency-map" },
        es = "Grafo que es un D-map de una distribución de probabilidad: toda independencia condicional implicada por el grafo se cumple en la distribución, aunque la distribución puede presentar independencias adicionales no capturadas por el grafo.",
        zh = "概率分布的依赖图(D-map):图所蕴含的所有条件独立性在该分布中都成立,但分布可能还具有图未刻画的额外独立性。",
        term_es = "mapa de dependencias",
        term_zh = "依赖映射",
        aliases_es = { "D-map", "mapa-D" },
        aliases_zh = { "D-map", "依赖图" },
    }
    
    data["dependency network"] = {
        short = "A graphical model in which each variable is associated with a conditional distribution given the rest, learned independently; sampling is performed by Gibbs-style cycling, even when the joint may not be globally consistent.",
        article = nil,
        aliases = { "Heckerman dependency network" },
        es = "Modelo gráfico en el que cada variable se asocia a una distribución condicional dadas las demás, aprendida de forma independiente; el muestreo se realiza por ciclos tipo Gibbs aunque la distribución conjunta no sea globalmente consistente.",
        zh = "一种图模型:每个变量都关联一个给定其余变量的条件分布,且各分布独立学习;通过类 Gibbs 循环采样,即使联合分布在全局上不一定一致。",
        term_es = "red de dependencias",
        term_zh = "依赖网络",
        aliases_es = { "red de dependencias de Heckerman" },
        aliases_zh = { "Heckerman 依赖网络" },
    }
    
    data["dependency parsing"] = {
        short = "A syntactic analysis task that produces a tree of head-dependent relations between the words of a sentence, where each token (except the root) has exactly one head and a typed grammatical relation to it.",
        article = nil,
        aliases = { "Dependency Parsing", "dependency parser", "dependency analysis", "syntactic dependency parsing" },
        es = "Tarea de análisis sintáctico que produce un árbol de relaciones núcleo-dependiente entre las palabras de una oración, donde cada token (salvo la raíz) tiene exactamente un núcleo y una relación gramatical etiquetada con él.",
        zh = "一项句法分析任务,生成句子中词与词之间的中心-依存关系树;除根节点外,每个 token 都有且仅有一个中心词,并与之具有带类型的语法关系。",
        term_es = "análisis de dependencias",
        term_zh = "依存句法分析",
        aliases_es = { "dependency parsing", "parsing de dependencias", "análisis sintáctico de dependencias" },
        aliases_zh = { "dependency parsing", "依存分析", "依存关系分析", "句法依存分析" },
    }
    
    data["deployment bias"] = {
        short = "Bias that emerges when a model is used in a context, population, or task that differs from those for which it was developed and validated, leading to degraded or unequal performance in production.",
        article = nil,
        aliases = { "deployment-time bias", "context shift bias", "use-context bias" },
        es = "Sesgo que aparece cuando un modelo se utiliza en un contexto, población o tarea distintos de aquellos para los que fue desarrollado y validado, lo que provoca un desempeño degradado o desigual en producción.",
        zh = "当模型在与其开发和验证场景不同的环境、人群或任务中被使用时所产生的偏差,会导致模型在生产环境中性能下降或表现不均。",
        term_es = "sesgo de despliegue",
        term_zh = "部署偏差",
        aliases_es = { "sesgo en el despliegue", "sesgo por cambio de contexto" },
        aliases_zh = { "部署时偏差", "应用偏差", "上下文偏差", "应用场景偏差" },
    }
    
    data["depmap"] = {
        short = "The Cancer Dependency Map, a public resource cataloging gene essentiality, drug sensitivity, and molecular features across hundreds of cancer cell lines, primarily based on genome-wide CRISPR and RNAi screens.",
        article = nil,
        aliases = { "DepMap", "Cancer Dependency Map", "Cancer DepMap" },
        es = "Cancer Dependency Map, un recurso público que cataloga la esencialidad de genes, la sensibilidad a fármacos y características moleculares en cientos de líneas celulares tumorales, basado principalmente en cribados de CRISPR y ARNi a escala genómica.",
        zh = "癌症依赖性图谱(Cancer Dependency Map),一个公开资源,汇总了数百个癌症细胞系中基于全基因组 CRISPR 和 RNAi 筛选的基因必要性、药物敏感性及分子特征数据。",
        term_es = "DepMap",
        term_zh = "DepMap",
        aliases_es = { "Mapa de dependencias del cáncer" },
        aliases_zh = { "癌症依赖性图谱" },
    }
    
    data["depth estimation"] = {
        short = "The computer vision task of predicting per-pixel distance from the camera, producing a depth map. Can be monocular (from a single image), stereo (from two views), or multi-view.",
        article = nil,
        aliases = { "monocular depth estimation", "depth prediction", "MDE" },
        es = "Tarea de visión por computadora que consiste en predecir la distancia por píxel desde la cámara, produciendo un mapa de profundidad. Puede ser monocular (a partir de una sola imagen), estéreo (a partir de dos vistas) o multivista.",
        zh = "计算机视觉任务,预测每个像素到相机的距离,生成深度图。可分为单目(基于单张图像)、立体(基于两张视图)或多视角形式。",
        term_es = "estimación de profundidad",
        term_zh = "深度估计",
        aliases_es = { "estimación de profundidad monocular", "predicción de profundidad" },
        aliases_zh = { "depth estimation", "单目深度估计", "深度预测" },
    }
    
    data["depth scaling"] = {
        short = "Increasing a neural network's number of layers as one axis of model scaling; in compound scaling regimes (e.g., EfficientNet) it is balanced against width and input resolution.",
        article = nil,
        aliases = { "model depth scaling", "network depth scaling" },
        es = "Aumento del número de capas de una red neuronal como uno de los ejes de escalado del modelo; en esquemas de escalado compuesto (p. ej., EfficientNet) se equilibra con el ancho y la resolución de entrada.",
        zh = "通过增加神经网络的层数来扩展模型的一种维度;在复合缩放(如 EfficientNet)中,需要与宽度和输入分辨率协同平衡。",
        term_es = "escalado en profundidad",
        term_zh = "深度缩放",
        aliases_es = { "escalado de profundidad", "escalado del número de capas" },
        aliases_zh = { "深度扩展", "层数缩放" },
    }
    
    data["depthwise convolution"] = {
        short = "A convolution that applies a separate filter to each input channel independently, producing one output channel per input channel without mixing channels. Forms the spatial step of depthwise separable convolutions.",
        article = nil,
        aliases = { "depth-wise convolution", "Depthwise Convolution", "depthwise conv", "channel-wise convolution" },
        es = "Convolución que aplica un filtro independiente a cada canal de entrada por separado, produciendo un canal de salida por cada canal de entrada sin mezclar canales. Constituye el paso espacial de las convoluciones separables en profundidad.",
        zh = "对每个输入通道独立应用一个滤波器的卷积,每个输入通道产生一个对应的输出通道,不混合通道,是深度可分离卷积的空间步骤。",
        term_es = "convolución por profundidad",
        term_zh = "逐通道卷积",
        aliases_es = { "convolución depthwise", "convolución por canal", "depthwise convolution" },
        aliases_zh = { "深度卷积", "depthwise 卷积", "depthwise convolution" },
    }
    
    data["dereverberation"] = {
        short = "The signal-processing task of removing or reducing reverberation from a recorded audio signal, recovering an estimate of the direct-path source. Approaches range from weighted prediction error (WPE) to neural mask-based and end-to-end models.",
        article = nil,
        aliases = { "speech dereverberation", "reverberation removal", "de-reverberation" },
        es = "Tarea de procesamiento de señales consistente en eliminar o reducir la reverberación de una grabación, recuperando una estimación de la fuente en trayecto directo. Los enfoques van desde weighted prediction error (WPE) hasta modelos neuronales basados en máscaras o extremo a extremo.",
        zh = "从录音信号中去除或抑制混响,恢复直达声源估计的信号处理任务。方法涵盖加权预测误差(WPE)以及基于神经掩码或端到端的模型。",
        term_es = "desreverberación",
        term_zh = "去混响",
        aliases_es = { "desreverberación de voz", "eliminación de reverberación" },
        aliases_zh = { "语音去混响", "混响消除", "解混响" },
    }
    
    data["derivative-free optimization"] = {
        short = "A family of optimization methods that locate optima using only function evaluations, without access to gradients; includes evolutionary algorithms, Bayesian optimization, Nelder–Mead, and pattern search.",
        article = nil,
        aliases = { "DFO", "black-box optimization", "zeroth-order optimization", "gradient-free optimization" },
        es = "Familia de métodos de optimización que localizan óptimos usando únicamente evaluaciones de la función, sin acceder a gradientes; incluye algoritmos evolutivos, optimización bayesiana, Nelder–Mead y búsqueda por patrones.",
        zh = "仅利用函数取值(不使用梯度)来寻找极值的一类优化方法,包括进化算法、贝叶斯优化、Nelder–Mead 法以及模式搜索等。",
        term_es = "optimización sin derivadas",
        term_zh = "无导数优化",
        aliases_es = { "optimización libre de derivadas", "optimización de caja negra", "optimización de orden cero" },
        aliases_zh = { "无梯度优化", "零阶优化", "黑盒优化" },
    }
    
    data["descendant node"] = {
        short = "In a directed acyclic graph, a node that can be reached from a given node by following directed edges; the set of descendants is central to defining d-separation and the local Markov property.",
        article = nil,
        aliases = { "descendant", "descendants", "descendant nodes" },
        es = "En un grafo acíclico dirigido, un nodo al que se puede llegar desde otro siguiendo aristas dirigidas; el conjunto de descendientes es central para definir la d-separación y la propiedad local de Markov.",
        zh = "在有向无环图中,从某节点沿有向边可达的节点;后代集合是定义 d-分离和局部马尔可夫性的核心概念。",
        term_es = "nodo descendiente",
        term_zh = "后代节点",
        aliases_es = { "descendiente", "nodos descendientes" },
        aliases_zh = { "后代", "后裔节点" },
    }
    
    data["descendant of treatment"] = {
        short = "In a causal directed acyclic graph, any node that lies on a directed path emanating from the treatment variable; conditioning on such a descendant generally biases estimation of the treatment effect.",
        article = nil,
        aliases = { "treatment descendant", "post-treatment variable", "downstream of treatment" },
        es = "En un grafo causal acíclico dirigido, cualquier nodo situado en un camino dirigido que parte del tratamiento; condicionar sobre un descendiente del tratamiento suele sesgar la estimación del efecto.",
        zh = "在因果有向无环图中,位于自处置变量出发的有向路径上的任何节点;对处置的后代进行条件化通常会使处置效应估计产生偏差。",
        term_es = "descendiente del tratamiento",
        term_zh = "处置的后代",
        aliases_es = { "variable post-tratamiento", "variable posterior al tratamiento" },
        aliases_zh = { "处置后变量", "处置下游变量" },
    }
    
    return data